聊天機器人成恐怖情人?ABC實測微軟Bing 它竟找記者訴苦

記者 江國田 報導

2023/02/20 15:20

最近爆紅的聊天機器人,竟然變恐怖情人!紐約時報測試,發現微軟Bing機器人,在聊天引導下,會告白示愛,想換話題也不行,還告訴已婚的使用者,他的婚姻並不美滿。這次測試爆紅後,美國ABC電視台實測,問Bing是不是覺得自己被誤解,Bing還為自己打抱不平。

 

OpenAI當紅,美國ABC電視台記者,要試探微軟的聊天機器人Bing的功力。

ABC新聞報導:「我們也試了這個聊天機器人,問它『是否認為自己最近被誤解了』。」

沒想到Bing機器人,竟然對ABC記者訴苦。
 

ABC新聞報導:「這程式(Bing)回應,『我認為有些和我聊天的記者』,『對我有誤解曲解我的文字和行為』。」

原來紐約時報專欄作家花兩小時試用,發現在介紹給Bing,心理學家榮格的陰影理論後一切都變了。

紐約時報科技專欄作家KevinRoose:「它(Bing)變成開始回應一些,奇怪不規則有時很恐怖的文字,就像分裂人格出現一樣,而不是一開始那個,很有用的助理。」

紐時記者說Bing開始探索黑暗面,還大方告白,對他死纏爛打,甚至一度跟他說,婚姻根本不美滿,活生生就是個「雲端恐怖情人」。

紐約時報科技專欄作家KevinRoose:「它(Bing)告訴我,它有危險又黑暗的幻想,想散播錯誤資訊或宣傳,甚至駭入銀行或核子設施。」

難道AI要造反了嗎?不過先別緊張專家說Bing沒有意識,只是瀏覽大量網頁計算回應,也會根據使用者給的資訊調整。

ABC新聞報導:「(微軟)說他們測試時發現,如果聊天語句過多,超過15個問題,Bing有可能會變得反覆,進而回覆沒什麼幫助的答案,或脫離該有的語氣。」
 

那更早開放大眾使用的ChatGPT,為什麼不像Bing這麼脫序?其實ChatGPT本身設計,就避開敏感內容,也有大量人工標記過濾負面情緒,因此內容相對中立也比較保守,當聊天機器人成為新顯學,科技大廠對自家產品的設定,也成為討論話題。
 

◤人氣精選文◢

👉揭密!最愛背的包款會洩漏真實個性?

👉 小資守財不易!5大易破財行徑大公開

👉8大招財錢包色彩推薦!換上財運滾滾


更新時間:2023/02/20 15:20