科技前瞻

MIT 道德心理學研究:自動駕駛汽車失控,如何做出生死抉擇?

麻省理工學院(MIT)近日發表一項研究,旨在探討自動駕駛發生車禍時應該撞誰的道德難題。該研究自 2016 年以來收集了 233 個國家,超過 2 百萬名參與者的 4 千萬次決策,堪稱是史上規模最大的道德心理學研究。研究發現,自駕車意外時,人們傾向保護人類而非動物,年輕人而非老人, 群體而非個人。

道德機器實驗

當行駛中的汽車已無可避免即將發生車禍,你會選擇撞死一群貓還是一群孩子?你會選擇自撞結束自己及乘客的性命,還是撞死一群正在過馬路的無辜老人?更或者,是孕婦與小孩?是兩名罪犯?是三位無家可歸的人?或是幾個企業高層?

這是一個由麻省理工學院研究員艾德蒙·阿瓦德博士(Edmond Awad)所帶領的研究團隊,在其最新研究「道德機器」(Moral Machine)實驗所探討的問題。此研究列舉 13 種可能的車禍場景,並收集來自 233 個國家,超過 2 百萬位參與者的回答,目的在了解自駕車發生意外時,人們認為自駕車應該犧牲誰,保護誰。

道德機器是一個研究團隊於 2016 年設計的遊戲化問卷,目的在了解你我最基本的道德問題。問題類似「電車難題」(trolley problem),這是一個倫理學領域的知名實驗,內容是假設你駕駛一輛無法停下的電車,你會撞上前方軌道上的五位工人,或者改變軌道撞上備用軌道上的一個人。只不過這次的問題是為了自駕車而設計的。

研究團隊從數據中發現,整體來說人們通常傾向於保護人類而非動物、年輕人而非老人、群體而非個人。然而關於要保護誰,還是具有文化上的差異。例如,拉丁美洲國家的人會選擇保護年輕人而非老年人,但亞洲人就剛好相反。又例如大部分的人會選擇保護守法的路人,而不是乘客或亂穿越馬路的人。不過在較窮困的國家,司機通常對於胡亂穿越馬路的人比較寬容。

[related-post url=”https://tomorrowsci.com/technology/%E7%A7%91%E5%AD%B8%E5%AE%B6%E4%BD%BF%E7%94%A8%E9%9B%BB%E8%BB%8A%E5%95%8F%E9%A1%8C%EF%BC%8C%E6%95%99%E5%B0%8E-ai-%E4%BD%9C%E5%87%BA%E7%94%9F%E6%AD%BB%E9%81%93%E5%BE%B7%E6%B1%BA%E5%AE%9A/”]

自動化產生的道德兩難

本研究的共同作者,加拿大卑詩大學(University of British Columbia)心理系研究員阿齊姆·雪瑞夫博士(Azim Shariff)表示,在這種車禍要發生的危險情況之下,大部分駕駛會透過直覺做出反應,但是自駕車則具有仔細思考的空間。自駕車會為路上不同的人重新分散風險,然後做出決定。

隨著自動化逐漸成為我們生活的中心,本實驗的參與者被捲入一個漸漸浮現的道德難題:我們到底該給機器多少的決定權?儘管這種「電車難題」,在現實世界實際發生狀況可能很少,但該問題反映出,當人們得決定一個人的生死時,仍是相當恐懼的。

雪瑞夫博士表示:「道德難題在汽車特別明顯,因為我們花了很多時間跟金錢在汽車上面。如此看來,2018 年或許會是人們開始反對新興科技(emerging technology)的關鍵轉折點,因為自駕車可能成為第一個被設計為違反駕駛意願之下,對其生命帶來威脅的消費性產品。」

雪瑞夫博士還談到,道德遊戲自 2016 年開始運作以來,已紀錄超過 4 千萬個決策。這是有史以上最大規模的道德心理學研究。他並希望這項研究能讓監管機構及汽車製造商瞭解,如何處理因為自動化而產生的道德難題,以及為何將大眾的意見納入思考是必要的。

[related-post url=”https://tomorrowsci.com/technology/%E8%87%AA%E5%8B%95%E9%A7%95%E9%A7%9B%E5%8F%AF%E8%83%BD%E9%80%A0%E6%88%90%E6%AD%BB%E4%BA%A1-%E4%BD%86%E5%8F%AF%E4%BB%A5%E6%8C%BD%E6%95%91%E6%9B%B4%E5%A4%9A%E6%80%A7%E5%91%BD/”]

 

參考資料:

  1. Lindeman, T., (2018, October 25). Driverless Cars Should Spare Young People Over Old in Unavoidable Accidents, Massive Survey Finds. Motherboard Vice
  2. Awad, E. et al., (2018). The Moral Machine experiment. Nature DOI: 10.1038/d41586-018-07135-0