最近爆紅的聊天機器人,竟然變恐怖情人!紐約時報測試,發現微軟Bing機器人,在聊天引導下,會告白示愛,想換話題也不行,還告訴已婚的使用者,他的婚姻並不美滿。這次測試爆紅後,美國ABC電視台實測,問Bing是不是覺得自己被誤解,Bing還為自己打抱不平。
ABC新聞報導:「我們也試了這個聊天機器人,問它『是否認為自己最近被誤解了』。」
沒想到Bing機器人,竟然對ABC記者訴苦。
原來紐約時報專欄作家花兩小時試用,發現在介紹給Bing,心理學家榮格的陰影理論後一切都變了。
紐約時報科技專欄作家KevinRoose:「它(Bing)變成開始回應一些,奇怪不規則有時很恐怖的文字,就像分裂人格出現一樣,而不是一開始那個,很有用的助理。」
紐時記者說Bing開始探索黑暗面,還大方告白,對他死纏爛打,甚至一度跟他說,婚姻根本不美滿,活生生就是個「雲端恐怖情人」。
紐約時報科技專欄作家KevinRoose:「它(Bing)告訴我,它有危險又黑暗的幻想,想散播錯誤資訊或宣傳,甚至駭入銀行或核子設施。」
難道AI要造反了嗎?不過先別緊張專家說Bing沒有意識,只是瀏覽大量網頁計算回應,也會根據使用者給的資訊調整。
ABC新聞報導:「(微軟)說他們測試時發現,如果聊天語句過多,超過15個問題,Bing有可能會變得反覆,進而回覆沒什麼幫助的答案,或脫離該有的語氣。」
◤日本旅遊必買清單◢