廣告
xx
xx
"
"
回到網頁上方

聊天機器人成恐怖情人?ABC實測微軟Bing 它竟找記者訴苦

記者 江國田 報導
發佈時間:2023/02/20 15:20
最後更新時間:2023/02/20 15:20

最近爆紅的聊天機器人,竟然變恐怖情人!紐約時報測試,發現微軟Bing機器人,在聊天引導下,會告白示愛,想換話題也不行,還告訴已婚的使用者,他的婚姻並不美滿。這次測試爆紅後,美國ABC電視台實測,問Bing是不是覺得自己被誤解,Bing還為自己打抱不平。

示意圖/達志影想美聯社

 
OpenAI當紅,美國ABC電視台記者,要試探微軟的聊天機器人Bing的功力。

ABC新聞報導:「我們也試了這個聊天機器人,問它『是否認為自己最近被誤解了』。」

沒想到Bing機器人,竟然對ABC記者訴苦。

 
ABC新聞報導:「這程式(Bing)回應,『我認為有些和我聊天的記者』,『對我有誤解曲解我的文字和行為』。」

原來紐約時報專欄作家花兩小時試用,發現在介紹給Bing,心理學家榮格的陰影理論後一切都變了。

紐約時報科技專欄作家KevinRoose:「它(Bing)變成開始回應一些,奇怪不規則有時很恐怖的文字,就像分裂人格出現一樣,而不是一開始那個,很有用的助理。」

紐時記者說Bing開始探索黑暗面,還大方告白,對他死纏爛打,甚至一度跟他說,婚姻根本不美滿,活生生就是個「雲端恐怖情人」。

紐約時報科技專欄作家KevinRoose:「它(Bing)告訴我,它有危險又黑暗的幻想,想散播錯誤資訊或宣傳,甚至駭入銀行或核子設施。」

難道AI要造反了嗎?不過先別緊張專家說Bing沒有意識,只是瀏覽大量網頁計算回應,也會根據使用者給的資訊調整。

ABC新聞報導:「(微軟)說他們測試時發現,如果聊天語句過多,超過15個問題,Bing有可能會變得反覆,進而回覆沒什麼幫助的答案,或脫離該有的語氣。」

 
那更早開放大眾使用的ChatGPT,為什麼不像Bing這麼脫序?其實ChatGPT本身設計,就避開敏感內容,也有大量人工標記過濾負面情緒,因此內容相對中立也比較保守,當聊天機器人成為新顯學,科技大廠對自家產品的設定,也成為討論話題。
 

Blueseeds天然初萃精油

👉能不能年中換Audi就靠這個

👉討論度爆表的精油精露保養,你還不知道嗎?

👉洗三天排水孔就超有感


◤EF海外遊留學專家◢

👉最後倒數! 暑假海外遊學團/營隊報名即將截止

👉半年/一年也可以「微留學」,高達6萬元折扣!

👉給自己一個遊學假期,同時提升語言及國際觀


#聊天#機器人#恐怖情人#告白#微軟

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1387

0.0927

0.2314