我們的應對方法應該是:無人駕駛車必須奉行利他主義的原則,汽車的設計、程序、運作機制、運算邏輯、人工智能的設定,都必須滿足這些條件;汽車作為人的工具,必須可以犧牲「自己」來保護乘客或行人;系統被劫持的時刻,也是系統必須啟動自毀程序、避免落入壞人手中的時刻。
從阿西莫夫的「機械人學三大法則」、到救駕駛者還是救行人的道德層面的例子、再到「有軌電車難題」的經典實驗,人們不難看出,遵循現有的法則,不能確保人類的安全,不管是個體的安全,還是整體的安全。自駕車上路,因涉及汽車間的溝通、聯絡,汽車之間必然會用物聯網(Internet of the Things)聯繫起來,而某一個更高級的網絡中心、樞紐,會承擔起協調所有路上的汽車、自駕車的責任和權力。如果這個權力和網絡控制中心被一個個人黑客劫持,被一個極權政府劫持,被一個類似中共政權的邪惡集團劫持,劫持者可以輕而易舉的命令所有的自駕車互相衝撞、互相毀滅,從而毀滅所有的人類乘客,或者劫持者希望消滅的乘客。到那時,機械人和機器、AI、電腦,真的就會成為左右人類命運的力量了。
機械人可能危害人類的最新例子,是全球7億電郵帳號遭到入侵。這是一個荷蘭的電郵機械人做的,它利用盜取的7億帳號,散佈含有銀行木馬程式的垃圾郵件。這個機械人史上最大規模的「犯罪」影響的人數眾多,相當於歐洲的人口。美國有部電影叫「Ex Machinia」,其機械人甚至會利用人的弱點,會利用人的情,去左右人、操控人、害人!
《時代周刊》2016年三月的一篇文章(Matt Vella)指出,越來越多的證據,都指向人類不應該被允許駕車!雖然汽車越來越安全,但車禍死亡率還在逐年上升,美國每年發生600萬宗車禍,導致3萬多人死亡;世界範圍內,每年130萬人死於車禍。而94%的車禍的肇因,都是人類錯誤。試驗證據表明,無人駕駛車的確更安全。而機器全面替代人類司機的時間點,一般估計是2025至2050年之間。人們只有不到十年的時間去做好準備。
法律界已經認定,無人駕駛車的「駕駛者」是電腦或機器。不難想像,很快會有人提出「機械人的人權」,提出機械人和人類是平等的。但不管世俗的權力爭鬥、平權運動如何推動,人們需要確定,也需要堅持,機器低於人類,我們不能承認機械人的「人權」,不能承認機械人與人類有平等的地位。人們不能允許機械人為了保命,去犧牲人的生命;不能給予機器或電腦以殺人的權力,永遠不能,任何條件下都絕對不能。遇到與別人的生命衝突的時刻,人們會殺人嗎?善良的人是不會的,在舉手要殺人的時刻,很多人會良心發現,會放下屠刀,會生出憐憫之心,善念會戰勝惡念。這一切,都是因為人類有道德的約束。但機械人沒有道德的約束,它們一旦設定了程序去運行時,會不顧一切地去做。
「有軌電車難題」揭示的兩難局面,是誰該活下來、誰該去死掉的問題。在死亡還沒有發生的情況下,當我們只是意識到死亡已經迫在眉睫的時刻,我們怎麼做決定?我們怎麼去決定誰的生死?這是一個敏感、尖銳的問題,觸及了人類理性的極限。因為這涉及到生命的來源是甚麼,甚麼能決定生命的完結。無神論可能認為生命是偶然發生的,有神論認為是天意的安排。在對待生命的問題上,中共政權在邪惡的一端,簡直登峰造極,它們認為,對它們認定的敵人,活摘器官都是正常的、可接受的,這是利己主義最極端的例子。正常社會的人不會這樣做,人們會奉行正的法理,會奉行源自佛法至善的「利他主義」。
在人類進入無人駕駛汽車的階段之際,我們需要從偉大的佛法中汲取智慧,用佛家的善、慈悲,和先人後己的原則去處理,在遵從這個原則的基礎上,才能突破人類認識的侷限。依照「利他主義」的原則,才不會釀成大禍。而如果不採用這個原則,人們登上一輛汽車,同時清醒地知道這輛汽車有可能在危急的情況下,會採取保護汽車自己的措施,而犧牲掉汽車上的乘客,或犧牲掉旁觀的行人的生命,這是不能容忍的。這個問題,或者說這個難題,是出於人類的利己主義、自私自利、和先己後人的哲學。這不能解決我們面臨的問題。必須採用利他主義、無私無我、先人後己的哲學,才能解決這個難題。
我們的應對方法應該是:無人駕駛車必須奉行利他主義的原則,汽車的設計、程式、運作機制、運算邏輯、人工智能的設定,都必須滿足這些條件;汽車作為人的工具,必須可以犧牲「自己」來保護乘客或行人;系統被劫持的時刻,也是系統必須啟動自毀程序、避免落入壞人手中的時刻。因為物聯網的連線,無人車應該可以預見可能發生的車禍,會提前減速剎車、躲開撞車,避免進入「有軌電車難題」的狀態。必要時,無人車要能犧牲自己來保護乘客,可以「變形金剛」為模本,在面臨危險之時,變化自己,變身「坦克」、「裝甲車」,自動激發保護機制,甚至自動變身成防護盾和保護傘,以保護人類。只有這時,才能給予無人駕駛車載人的權力。無人車在外殼、防護、耐撞、躲避方面的性能,應有更高的要求。這不是人們作為乘客需要考慮的事,是製造商們要考慮的事。他們的利潤、成本,需要加進這些考慮因素。
讓無人駕駛汽車具有利他主義、犧牲自己的思想,就是要求電腦遵循人類的道德標準了。它們能夠遵循人類的道德標準嗎?機器和電腦能夠具備人的這個本性嗎?恐怕很難。
但如果它們不能,它們就不能被賦予載人的權力,無人車也不能被允許上路。機器是人造的,機器必須為人類服務,機器也必須服從人類,絕對的服從,甚至犧牲自己來服從。做不到這一點,機器就不應該存在、不應該被製造出來。
最快8年之後,無人車就會大行其道。現在是時候,人們應該向從底特律到矽谷、準備欲從無人車的利潤中分一杯羹的投資者、工程師、程式設計師們大聲呼籲,向從薩克拉門托到華盛頓的立法者們高聲吶喊,人們也必須對機械人、人工智能、汽車電腦及電腦背後的操縱者們說一句:先止步!如果無人駕駛汽車不能採納利他主義、犧牲自我的設計原則,就不可能、也不應該讓它出現,更不能讓它走上人們的路面!(全文完) ◇
------------------
🏵️《九評》20周年
https://hk.epochtimes.com/category/專題/退黨大潮
🔔下載大紀元App 接收即時新聞通知
🍎iOS:https://bit.ly/epochhkios
🤖Android:https://bit.ly/epochhkand