最近爆紅的聊天機器人,竟然變恐怖情人!紐約時報測試,發現微軟Bing機器人,在聊天引導下,會告白示愛,想換話題也不行,還告訴已婚的使用者,他的婚姻並不美滿。這次測試爆紅後,美國ABC電視台實測,問Bing是不是覺得自己被誤解,Bing還為自己打抱不平。
OpenAI當紅,美國ABC電視台記者,要試探微軟的聊天機器人Bing的功力。
ABC新聞報導:「我們也試了這個聊天機器人,問它『是否認為自己最近被誤解了』。」
沒想到Bing機器人,竟然對ABC記者訴苦。
ABC新聞報導:「這程式(Bing)回應,『我認為有些和我聊天的記者』,『對我有誤解曲解我的文字和行為』。」
原來紐約時報專欄作家花兩小時試用,發現在介紹給Bing,心理學家榮格的陰影理論後一切都變了。
紐約時報科技專欄作家KevinRoose:「它(Bing)變成開始回應一些,奇怪不規則有時很恐怖的文字,就像分裂人格出現一樣,而不是一開始那個,很有用的助理。」
紐時記者說Bing開始探索黑暗面,還大方告白,對他死纏爛打,甚至一度跟他說,婚姻根本不美滿,活生生就是個「雲端恐怖情人」。
紐約時報科技專欄作家KevinRoose:「它(Bing)告訴我,它有危險又黑暗的幻想,想散播錯誤資訊或宣傳,甚至駭入銀行或核子設施。」
難道AI要造反了嗎?不過先別緊張專家說Bing沒有意識,只是瀏覽大量網頁計算回應,也會根據使用者給的資訊調整。
ABC新聞報導:「(微軟)說他們測試時發現,如果聊天語句過多,超過15個問題,Bing有可能會變得反覆,進而回覆沒什麼幫助的答案,或脫離該有的語氣。」
那更早開放大眾使用的ChatGPT,為什麼不像Bing這麼脫序?其實ChatGPT本身設計,就避開敏感內容,也有大量人工標記過濾負面情緒,因此內容相對中立也比較保守,當聊天機器人成為新顯學,科技大廠對自家產品的設定,也成為討論話題。
◤日本旅遊必買清單◢
更新時間:2023/02/20 15:20