圖左為美國典型異性戀,圖中為美國典型同性戀,圖右的曲線圖則為同性戀主要的臉部輪廓特徵(圖:史丹佛大學)

史丹佛大學的一項研究發現,人工智慧能從人臉照片精準猜測此人是否為同性戀,這說明了電腦是比人類更好的「同志雷達」(Gaydar)。這項技術使用交友網站的照片進行測試,其準確率高達 91%。然而,這項研究也引發了性傾向生物起源(biological origins of sexual orientation),以及人臉識別技術的倫理問題,外界擔憂這種軟體可能違反個人隱私,或者被濫用於反同性戀等目的。

 

同性戀具有非典型的性別特徵

史丹佛大學研究員柯辛斯基(Michal Kosinski)和王依倫(Yilun Wang,音譯),收集美國交友網站上 35000 張公開的人臉照片樣本,利用深度神經網路(deep neural networks)技術,以精密的數學系統分析大量的照片資料,並從照片中擷取特徵,研究結果對男性的準確率為 81%,對女性則為 74%。其研究成果發表於《人格與社會心理學期刊》(Journal of Personality and Social Psychology),並被《經濟學人》雜誌報導。

研究發現,男女同性戀往往具有「非典型」的性別特徵,同性戀的臉部表情和裝扮風格也與異性戀大不相同。此外,男同性戀者似乎表現出更加女性化的特徵,而女同性戀者則反而表現出更加男性化的特徵。該研究還分析出一些同性戀的臉部特徵,相較於異性戀,男同性戀具有較窄的下巴,較長的鼻子,以及較寬大的前額。女同性戀則具有較長的下巴,和較小的前額。

人臉具有性傾向的資訊

相較之下,人類辨識同性戀的能力遠不及電腦,對男性的準確率只有 61%,對女性則只有 51%。如果提供同一人的五張照片讓電腦分析,其準確率更高,男性高達 91%,女性則高達 83%。研究人員表示,廣義來說,這表示人臉具有許多性傾向的相關資訊,讓大腦能察覺與解讀。

這篇論文指出,一個人在出生前就受到特定荷爾蒙的影響,而決定了其性傾向,這表示同性戀並非後天形成的,該研究對此結論提供「強而有力的支持」。至於電腦對女性的辨識率低於男性,則可解釋為女性的性傾向較容易改變。

不過這項研究的樣本只針對白人,並未將有色人種納入研究對象,研究中也沒有考慮到變性人和雙性戀人士。

極具爭議

這樣的技術本身極具爭議,不難想像,配偶若懷疑對方是同性戀,或者青少年懷疑自己或同儕是同性戀,就能使用這項技術加以檢測。更可怕的是,某些反同的政府或機構可能使用這項技術,針對特定的同志族群採取不友善的行動。

此外,這項研究也突顯出一個隱私問題,目前儲存在社群媒體和政府資料庫中有超過數十億公開的人臉照片,這些照片可能在未經當事人的同意之下,就能用於分析性傾向。

不過研究人員認為,這種分析技術早已存在,將其功能公諸於世非常重要,如此一來,政府和企業就能積極考量隱私風險,並加強預防措施和制定相關法規。

這項研究還指出,人工智慧能將臉部特徵與一系列其他現象進行連結,包括政治觀點、心理狀況和個性。這種技術將進一步引發人們對科幻電影「關鍵報告」(香港譯為「未來報告」)情節的擔憂,政府可以依據電腦的預測,而將預謀犯罪的民眾事先逮捕。

反對意見

曾發表過同性戀科學研究的多倫多大學心理系副教授魯爾博士(Nick Rule)表示:「這項技術令人感到不安,正如各種新工具一樣,如果錯誤使用,就會帶來不好的影響。如果根據人的外表特徵加以分析並識別,然後對他們圖謀不軌,那就太可怕了。」

魯爾博士認為這項技術的開發和測試依然很重要:「作者在研究中說明這項技術的強大之處,然而現在我們必須進行更多的保護措施。」

人臉辨識公司 Kairos 執行長布拉肯(Brian Brackeen)則表示:「只要有足夠的資料,AI 就能分析任何人的一切事物,問題在於,這個社會真的想知道這些資訊嗎?」

布拉肯執行長認為史丹佛大學的性傾向研究「驚人地正確」,他認為必須加強對個人隱私的保護,以防止機器學習技術逐漸普及與進步的同時,被有心人士濫用。

柯辛斯基博士並未對這些意見提出回應,而是在發表這篇論文之後,向衛報說明了此研究對倫理學及同性戀權利的影響。這位研究員在劍橋大學攻讀心理學博士時,即以數據分析聞名,他除了使用臉書資料對人格進行分析之外,也協助川普的競選團隊和英國脫歐的支持者進行選民分析,並引發人們對選舉時個人資料使用的極大關注。

 

參考資料:

  1. Kosinski, M., Wang, Y. (September 2017). Deep Neural Networks Are More Accurate Than Humans at Detecting Sexual Orientation From Facial Images. Journal of Personality and Social Psychology
    1. Levin, S. (September 2017). New AI can guess whether you’re gay or straight from a photograph. The Guardian
  2. Levin, S. (September 2017). LGBT groups denounce ‘dangerous’ AI that uses your face to guess sexuality. The Guardian
您可能也喜歡

特斯拉CEO 伊隆·馬斯克(Elon Musk)說,現在是時候“與亞馬遜分道揚鑣了”

特斯拉(Tesla)執行長埃隆·馬斯克(Elon Musk)在推特(twitter) 上發了一些針對…

Google 已經放棄為中國、其他敏感國家開發雲端服務

這套雲端產品在 Google 內部被稱為「Isolated Region」(隔離地區),將與 Goo…

馬斯克將計畫在海上建造出停靠火箭的漂浮太空港

星艦的運輸即將開通 據英國每日電訊報及伊隆·馬斯克Twitter最新消息,美國太空探索技術公司(Sp…

Google終於推出屬於自家的TV裝置 – 「Sabrina」

Google新發布的「Sabrina」看起來像是Android電視和Chromecast的合併,這也…

馬斯克:SpaceX 衛星網路「星鏈計劃」六個月內公測

SpaceX 的執行長伊隆·馬斯克(Elon Musk)表示,星鏈(Starlink)計劃將於三個月…

美國海軍陸戰隊的新武器能夠在約 30 公尺遠處電擊目標

美國海軍陸戰隊在測試一種嶄新且非致命刑的武器。這個武器是由美國國防部(US Department o…