(圖:BigThink)

隨著科技發展,人工智慧 ( AI ) 有望最終成為我們生活中的一部分,也勢必在某些情況下,需要代人類做出必要的道德與價值判斷。因此,一套可以提供 AI 在面臨相關抉擇時有所依據的基本架構,其實有其必要與迫切性。但如何達到這樣的目標,實在沒有簡單的帝王之路。

設想這樣的情境:當一部自動駕駛車輛,在剎車系統失靈的情形下,即將撞上路口正在穿越馬路的行人。假設你是自動駕駛軟體的程式設計者,你會希望你所寫的程式採取怎麼樣的措施?急轉彎,撞上路旁經過的長者、孩童或晨跑者?再假設,那位正在穿越馬路的行人,其實是警方正在通緝的謀殺案嫌犯,過往也前科累累,你是否仍然希望程式採取同樣的反應?

向人類學習道德判斷

這是由麻省理工學院 ( MIT ) 主持,於 2016 年上線,名為「道德機器」 ( Moral Machine ) 的網站對於網友的問卷調查題目。不難看出,這只是傳統「電車問題」( trolley problem ) 的現代化版本。

卡內基梅隆大學艾瑞爾.波卡夏 ( Ariel Procaccia ) 教授與 MIT 依亞.羅文 ( Iyad Rahwan ) 教授,有意利用上述資料庫,搭配適當的演算法設計,讓人工智慧主動學習,如何在缺乏人類指示的情況下,自主做出道德判斷。而這目標其實遠比想像中的複雜:因為純粹就機率而言,AI所可能面臨的情境,肯定遠高於資料庫中人類已經給予的資料。

然而,細究其中深意,不難發現隨處可見的缺陷與謬誤。

其中所牽涉的複雜問題

以問卷題目為例,「電車問題」並非如一般所想—一個單純的哲學思想實驗。其中諸多細節其實都是精心設計,用以挑撥能影響我們決策的情緒 ( emotion ) 與感性 ( sentiment ) 因素,藉此反駁多數決擇理論中「理性決策者」 ( rational agent ) 的基本假設。這意味著:其中所假設的情境,其實無法如實反應我們生活中所必須實際面對的抉擇。

再者,過往的人類歷史與經驗可證:群眾絕非可靠的道德依歸。心理上責任的分散與盲目跟從,使得群眾相較於個人而言,有時更容易做出令人髮指的行為,卻沒有任何一個個體意識到或願意及時遏止。

單就研究方法而言,過分仰賴網路調查,無形間排除了那些不具備電腦網路使用能力或對相關議題興致缺缺的族群,造成統計學上的抽樣偏誤 ( sampling bias )。系統的匿名機制不但無助於改善如此偏誤,更可能造成調查對象刻意給出扭曲、不合情理的回應,使得調查結果更進一步失真。

「道德或倫理」( morality or ethics ) 與「風俗」 ( custom ) 是不同的概念

AI的道德決策能力不可否認地有其必要性。但若AI最終只是根據區域、國籍與文化的特異性,做出反射性的答覆與反應,「代人類做出道德決策」的說法便未免夸夸其談、言過其實了。

 

參考資料:

  1. Noothigattu, R. et al. (2017, September). A voting-based system for ethical decision making. unpublished.
  2. Conitzer, V. et al. (2017). Moral decision making frameworks for artificial intelligence. AAAI-17.
  3. Christian, J. (2017, 16 October). What would the average human do? The Outline.
You May Also Like

特斯拉CEO 伊隆·馬斯克(Elon Musk)說,現在是時候“與亞馬遜分道揚鑣了”

特斯拉(Tesla)執行長埃隆·馬斯克(Elon Musk)在推特(twitter) 上發了一些針對…

高科技飛機可以讓美國總統90分鐘內從紐約飛往巴黎

「空軍一號」是為美國總統飛機環球飛行而準備的高科技飛機,未來它可能會以5倍的速度讓總統可以搭載這種專…

美國正式致函退出 WHO 預計明年7月6日生效

聯合國秘書長發言人杜加里克 (Stéphane Dujarric) 稍早已經證實這項消息。 在新冠肺…

種族主義延燒,知名女性科技社團「Moms in Tech」也分崩離析

現在「科技媽媽」早已分崩離析,並分裂成數個較小的群組,但這對科技業從業女性無疑是雙輸局面。 因為 G…

可以坐在機翼裡的客機「Flying-V」首次飛行實驗成功

「Flying-V」是一款機翼可以納乘客的實驗性噴氣客機,它的同比例模型首次在無人駕駛的測試中起飛。…

Google 研發人工智能死穴,防止 AI 叛變

Google 旗下的人工智能研究所 DeepMind,最近以他們研發的 AI 程式打敗世界圍棋冠軍李…