科技前瞻

科學家使用電車問題,教導 AI 作出生死道德決定

隨著科技發展,人工智慧 ( AI ) 有望最終成為我們生活中的一部分,也勢必在某些情況下,需要代人類做出必要的道德與價值判斷。因此,一套可以提供 AI 在面臨相關抉擇時有所依據的基本架構,其實有其必要與迫切性。但如何達到這樣的目標,實在沒有簡單的帝王之路。

設想這樣的情境:當一部自動駕駛車輛,在剎車系統失靈的情形下,即將撞上路口正在穿越馬路的行人。假設你是自動駕駛軟體的程式設計者,你會希望你所寫的程式採取怎麼樣的措施?急轉彎,撞上路旁經過的長者、孩童或晨跑者?再假設,那位正在穿越馬路的行人,其實是警方正在通緝的謀殺案嫌犯,過往也前科累累,你是否仍然希望程式採取同樣的反應?

向人類學習道德判斷

這是由麻省理工學院 ( MIT ) 主持,於 2016 年上線,名為「道德機器」 ( Moral Machine ) 的網站對於網友的問卷調查題目。不難看出,這只是傳統「電車問題」( trolley problem ) 的現代化版本。

卡內基梅隆大學艾瑞爾.波卡夏 ( Ariel Procaccia ) 教授與 MIT 依亞.羅文 ( Iyad Rahwan ) 教授,有意利用上述資料庫,搭配適當的演算法設計,讓人工智慧主動學習,如何在缺乏人類指示的情況下,自主做出道德判斷。而這目標其實遠比想像中的複雜:因為純粹就機率而言,AI所可能面臨的情境,肯定遠高於資料庫中人類已經給予的資料。

然而,細究其中深意,不難發現隨處可見的缺陷與謬誤。

[related-post url=”https://tomorrowsci.com/technology/%E6%BE%B3%E6%B4%B2%EF%BC%9A%E5%82%B3%E7%B5%B1%E9%85%92%E9%A7%95%E6%B3%95%E8%A6%8F%E4%B8%8D%E6%87%89%E9%81%A9%E7%94%A8%E6%96%BC%E8%87%AA%E5%8B%95%E9%A7%95%E9%A7%9B%E8%BB%8A%E8%BC%9B/”]

其中所牽涉的複雜問題

以問卷題目為例,「電車問題」並非如一般所想—一個單純的哲學思想實驗。其中諸多細節其實都是精心設計,用以挑撥能影響我們決策的情緒 ( emotion ) 與感性 ( sentiment ) 因素,藉此反駁多數決擇理論中「理性決策者」 ( rational agent ) 的基本假設。這意味著:其中所假設的情境,其實無法如實反應我們生活中所必須實際面對的抉擇。

再者,過往的人類歷史與經驗可證:群眾絕非可靠的道德依歸。心理上責任的分散與盲目跟從,使得群眾相較於個人而言,有時更容易做出令人髮指的行為,卻沒有任何一個個體意識到或願意及時遏止。

單就研究方法而言,過分仰賴網路調查,無形間排除了那些不具備電腦網路使用能力或對相關議題興致缺缺的族群,造成統計學上的抽樣偏誤 ( sampling bias )。系統的匿名機制不但無助於改善如此偏誤,更可能造成調查對象刻意給出扭曲、不合情理的回應,使得調查結果更進一步失真。

「道德或倫理」( morality or ethics ) 與「風俗」 ( custom ) 是不同的概念

AI的道德決策能力不可否認地有其必要性。但若AI最終只是根據區域、國籍與文化的特異性,做出反射性的答覆與反應,「代人類做出道德決策」的說法便未免夸夸其談、言過其實了。

 

參考資料:

  1. Noothigattu, R. et al. (2017, September). A voting-based system for ethical decision making. unpublished.
  2. Conitzer, V. et al. (2017). Moral decision making frameworks for artificial intelligence. AAAI-17.
  3. Christian, J. (2017, 16 October). What would the average human do? The Outline.