廣告
xx
xx
"
"
回到網頁上方

OpenAI執行長籲美政府:立法管我們的產品

記者 王德愷 報導
發佈時間:2023/05/17 19:53
最後更新時間:2023/05/18 10:39

美國參議院聽證會上,近日出現令人不寒而慄的一幕:AI人工智慧撰文並透過深偽技術,合成一位現場參議員的聲音,幾可亂真,在本尊眼前播放著他從未說過的話!去年底問世的ChatGPT,母公司OpenAI的執行長呼籲美國政府,儘快立法監管AI的開發應用,以免影響消費者的隱私與權益。AI衝擊人類生活,從工作到著作權甚至各國的大選,都能透過AI技術影響操弄。電動車集團特斯拉執行長馬斯克也直言,AI傷害人類的機率,並不是零。

圖/達志影像美聯社

機器戰警般的Atlas,是美國波士頓動力公司(Boston Dynamics)的AI人工智慧機器人,在美國國防部資助與監督下研發。但接下來這聲音,讓美國參議院聽證會一片靜默。

 

AI合成模仿人聲:「我們已太常見到,技術發展超出監管範圍,會發生的後果,(例如)假訊息氾濫和社會不平等。」

聽來合理的參議員發言聲音,本身竟然就是假訊息。

美國參議員 布魯蒙索:「如果你是在家聽,你可能會覺得那是我的聲音,我的意見。但事實上這不是我的聲音,也不是我的話,是ChatGPT寫的。」
 

AI深偽技術(deepfake)搜尋合成假的參議員聲音,搭配ChatGPT搜尋資料後寫出像模像樣的發言內容,以假亂真程度,說令人毛骨悚然也不為過。就連ChatGPT母公司OpenAI的執行長也在聽證會上,呼籲美國儘快立法監管他們設計出來的這個熱門產品。

ChatGPT母公司OpenAI執行長 奧特曼:「我認為這項技術如果走偏,會錯得可怕。」

呼籲美國聯邦政府成立專責單位,並且立法監管。比如讓用戶可以決定,自己的個資數據要不要公開讓ChatGPT能搜尋到,像是工作、健康與財務往來紀錄等等。包括加州、科羅拉多、康乃迪克等美國多個州,已有地方法令禁止AI在客戶未同意前,分析個資,這可能與貸款核准、保險申請甚至求職都有密切關係。

IBM人工智能執行長 馬可斯:「現在我們要做的選擇,也將帶來持續數十年甚至百年的影響。」

許多人可能不知道,自己接到的面試或行銷電話,聲音可能來自聊天機器人。2023年底,美國將有6州立法禁止企業用這種「假人騙真人」的方式。但ChatGPT版本不斷進步,AI如何藉由擴大資料庫,越變越聰明,這只有OpenAI研發團隊知道,也讓與會人士質疑他們做賊喊抓賊,首先應讓技術更透明,避免後續更多衍生問題。

美國參議員 布萊克柏恩:「人工智慧生成的創作,著作權是誰的?」

AI合成深偽影片:「昨天晚上湧入大約8萬名非法移民。」
 

舊金山大橋旁道路並沒有擠滿非法移民,AI「創作」的假影片聳動逼真,足以撼動選舉。專家建議美國政府考慮,管制審核人工智慧模型的發展與測試。

但Chat GPT去年底上線以來,到今年4月已吸引18億訪問人次,在全球最多人造訪的網站排行榜上,衝到第17名。越多人對於ChatGPT好奇造訪,就更加速其進化。儘管ChatGPT母公司聲稱,AI技術進步將能創造更多新工作,但首先發生的,卻是生產線上的許多工作都將被取代。

CNN科技記者:「美國人認為,人工智慧對於未來社會,是壞事而非好事。」

美國福斯新聞民調顯示,只有38%的受訪美國人覺得AI將對社會有益,46%的受訪者認為人工智慧將危害社會。而在遙遠的中國,上海復旦大學團隊讓ChatGPT試做10年來的中國大陸高考考卷。

上海復旦大學AI團隊研究生:「GhatGPT它做文科卷的得分會更高一些。」
 

重點是,復旦版的「類ChatGPT」聊天機器人Moss也已問世,是否山寨不得而知,但Moss在2月底竟因流量暴增而大當機,暫停對外開放。各國大型人工智慧模型未來的競爭,可能給人類世界甚麼樣的衝擊?

美國參議員 霍雷:「這會是種甚麼樣的創新?會像印刷機?還是更像原子彈?」

已將人工智慧實際運用在電動車自駕功能上,特斯拉(Tesla)執行長馬斯克受訪,卻也出聲贊成政府監管AI發展與應用。

特斯拉電動車執行長 馬斯克:「我認為(AI)像一把雙面刃,某些情況下出錯而毀掉整個人類的機率不高,但並非不可能。」

人類創造出的人工智慧,會不會有一天失控反噬我們?科幻片中的擔憂似乎逼近眼前,成為全人類的挑戰。

 

◤日本旅遊必買清單◢

👉超夯日本電器竟然還有額外優惠!

👉日本免稅美妝必買這些!筆記給妳

👉存起來!遊日本免稅最高再折17%



#AI#ChatGPT#深偽#國會聽證#人工智慧#OpenAI#隱私

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1110

0.0612

0.1722