AI驚爆利用人類!專家曝「已學會說謊」 放任不管恐遭奪權

責任編輯 陳子宣 報導

2024/05/11 17:51
原本設計誠實的AI系統,已發展不安的欺瞞技巧。(示意圖/shutterstock達志影像)

專家們長期以來不斷警告人工智慧(AI)失控可能帶來威脅,但一項新研究報告指出,這件事已經在發生。

法新社報導,一群科學家在今天發表於「模式」(Patterns)期刊的文章中說,原本設計為誠實不欺的現有AI系統,已發展出令人不安的欺瞞技巧,例如欺騙線上遊戲的人類玩家,或說謊以僱用人類來解決「我不是機器人」的驗證。

 


這份研究報告的第一作者帕克(Peter Park)說,這類例子聽起來或許只是細枝末節,但暴露出來的潛在問題可能很快就會在現實世界造成嚴重後果。

在美國麻省理工學院(Massachusetts Institute of Technology)研究AI存在安全的博士後研究員帕克告訴法新社,「這些危險功能常常在事後才被發現」,而「我們訓練誠實傾向而非欺瞞傾向的能力非常差」。

帕克說,能深度學習的AI系統不像傳統軟體那樣由「編寫」而成,而是透過類似選擇性培育的程序逐漸「成長」。
 


也就是說,AI的行為在訓練背景下看似可預測、可控制,但有可能轉眼就變得不受控制且無法預測。

這支團隊的研究始於科技公司Meta的AI系統Cicero,這套系統最初設計目的是玩一款名為「外交」(Diplomacy)的戰略遊戲,獲勝關鍵是結盟。

根據2022年發表在「科學」(Science)期刊的報告,Cicero在遊戲中表現優異,所獲分數可排在資深人類玩家的前10%。

帕克當時很懷疑Meta對Cicero在遊戲裡大勝的熱切描述。Meta聲稱Cicero「在很大程度上誠實且有幫助」,且「絕不會蓄意在背後搞鬼」。

但當帕克與同事深究完整資料時,發現完全是另一回事。

舉例來說,在遊戲中扮演法國的Cicero與人類玩家扮演的德國合謀,欺騙並入侵同為人類玩家扮演的英格蘭。Cicero承諾會保護英格蘭,卻偷偷向德國通風報信。

Meta在寫給法新社的聲明中沒有反駁關於Cicero欺瞞人類的說法,僅說「這單純是一項研究計畫,本公司研究員打造的模型接受訓練,目的只是用來玩『外交』遊戲…我們沒有打算把這項研究或所學用於本公司的產品」。
 


帕克與同事還發現,這只是不同AI系統在沒有明確指示下,利用欺騙手段達成目標的諸多案例之一。

在另一個引人注意的案例中,科技公司OpenAI的Chat GPT-4系統謊稱自己是一個視力受損的人,在零工平台TaskRabbit上聘用一個人類替它通過「我不是機器人」驗證任務。

研究報告的作者們還認為近期AI有舞弊或不當影響選舉的風險。

他們警告,在最糟糕的情況下,具有超凡智慧的AI可能會追求權力及掌控社會,如果符合AI「不為人知的目標」,人類可能慘遭奪權、甚至滅絕。

為了降低風險,研究團隊建議數項措施,例如立法要求企業告知是人類互動或是AI互動、在AI生成內容打上數位浮水印,並研發能偵測AI欺瞞的技術,以其內部「思路」檢驗其外部行為。
 


至於有些人稱他為「末日預言家」,帕克說:「要能合理判斷這不是大問題的唯一辦法,就是如果我們認為AI的欺騙能力只會停留在目前的程度,不會大幅進步。」

但鑒於近年AI能力一日千里,握有大量資源的企業競相發展技術,決心將AI能力利用到極致,這種情況似乎不太可能發生。(中央社)
 

◤Blueseeds永續生活◢

👉天然護膚市場升溫!無添加敏肌也可用

👉精油保養最低49折再享1111折111

👉0水保養・以油養膚,精油保養快跟上


更新時間:2024/05/11 17:51