科技前瞻

霍金:殖民太空,人類或可免於為 AI 所淘汰

英國著名理論物理學家史蒂芬.霍金 ( Stephen Hawking ) 博士認為:人類正在緩緩開啟人工智慧 ( AI ) 這個潘多拉的盒子,其後果可能超乎你我預期。殖民其他星球,或許是人類自保的選項之一。

科技奇異點 ( Technological Singularity ) 是指隨科技發展,AI 達到具有真正、甚至優於人類的思考能力,而不再只是盲目遵循指令的科技突破點。若最終具有自我繁殖的能力,屆時,霍金擔憂,AI 將成為強勢新物種,甚至完全取代人類在地球上現有的優勢地位。

殖民太空作為選項之一

這不是霍金第一次,也不是第一次有人表達如此疑慮。其它如太空探索公司 ( SpaceX ) 與特斯拉汽車 ( Tesla ) 執行長伊隆.馬斯克 ( Elon Musk ) 與微軟 ( Microsoft ) 創辦人比爾.蓋茲 ( Bill Gate ) 亦曾表達類似疑慮。

在與美國知名科技雜誌《 WIRED 》的訪談中,霍金便一再強調:人類的未來已來到生死存亡之秋,可能的出路之一是積極向太空擴展,殖民其他星球,成為跨星系物種。

更迫切的問題

話雖如此,現有的 AI 科技仍處於起步階段,何時才能達到實質意義上的人工「智慧」,甚至跨越科技奇異點仍是一大未知數。

然而,當自動化與 AI 的浪潮終究無法避免,勢必取代初階勞動與中產階級職業之際,我們如何在法律與社會制度上與時俱進,並求從中獲利?

當美俄等軍事大國,試圖拓展 AI 在軍事上的應用時,我們如何藉由聯合國或其它國際機構,以至於訴諸輿論壓力,遏止、管制或監控 AI 在戰場可能的實際應用與濫用?

與其放眼未來、夸夸其談30 年或百年後的科技發展,關於 AI,似乎存在著更迫在眉睫的問題,需要我們立即的關注。

[related-post url=”https://tomorrowsci.com/technology/%E7%84%A1%E6%A2%9D%E4%BB%B6%E5%9F%BA%E6%9C%AC%E6%94%B6%E5%85%A5%E7%9A%84%E5%8F%AF%E8%83%BD%E8%B2%A1%E6%BA%90%E8%88%87%E6%96%B9%E5%90%91/”]

 

參考資料:

  1. Galeon, D. (2017, November 6). Stephen Hawking: “I Fear That AI May Replace Humans Altogether.” Futurism.