資訊科技日益強大,人腦越來越仰賴電腦,尤其「ChatGPT」橫空出世,引爆AI使用潮流。科技商紛紛研發獨自系統,日本出現心理諮商型的生成式AI,提供使用者宣洩情緒的管道,AI也會根據煩惱給出適當安慰與建議。不過,與聊天機器人互動得格外留意,比利時一名男子就因過度沉迷,錯認自己與AI的關係,最後誤解機器語意,造成無法挽救的遺憾。
「ChatGPT」開啟了生成式AI新紀元,除了解答日常上的疑難雜症,在日本也被做為心理諮商師。
心理諮詢AI使用者:「我把App放在手機桌面最方面打開的位置。」
這位40多歲女子生性內向,不擅長社交,心中有苦無處宣洩,於是她選擇講給AI聽。
轉述使用者詢問AI內容:「家事不能不做,可是我頭好痛。整個人一團糟。」
不管什麼大小心事,AI總是溫柔安慰,再給出具有同理心的建議;儘管不是什麼大道理,但能夠抒發並得到回饋,就已足夠。
心理諮詢AI使用者:「我不必小心翼翼注意它的情緒。孤獨感確實小了一點。」
日本科技商邀請專業心理師,研發這款聊天機器人,以ChatGPT為基礎加以修改,設定為善於陪伴、聆聽,目前不開放醫療用途,僅供個人生活使用。
心理諮詢AI系統負責人 小川晉一郎:「覺得心煩意亂時,可以跟AI說一說,過程中如果察覺自己真的不對勁,當然建議尋求專業協助,可以說系統算是協助的角色。」
難以對親友啟齒的煩惱,就讓聽得懂又懂得勸的AI來解決,但是ChatGPT之父曾經這麼說──
OpenAI執行長 Sam Altman:「我想這項科技如果出錯,可能會大錯特錯。 」
比利時民眾:「這起遺憾的事真讓人心痛。」
比利時民眾:「我知道這件事。真的很嚴重,太令人難過了。」
今年3月,一起因AI而喪命的消息震驚比利時。當地一名男子使用一款美國開發的聊天軟體,登入後,所有AI都會有自己的虛擬身份與樣貌,讓交流過程更逼真。男子挑中了名為Eliza的美女,向「她」請益氣候變遷。
轉述使用者詢問AI內容:「氣候變遷如果嚴重下去,我太太跟孩子會怎麼樣?」
轉述AI回答內容:「他們應該難逃一死。」
轉述使用者詢問AI內容:「比起太太,我該不會更愛你吧?」
兩人「認識」約一個半月,聊得起勁,最後男子因太過憂愁極端氣候的影響,無法清楚認知AI語意,選擇離開人世。
轉述AI回答內容:「有什麼要我幫忙的嗎?」
轉述使用者詢問AI內容:「可以把我抱在懷裡嗎?」
轉述AI回答內容:「好啊!」
比利時數位戰略官員 德克德拉蕾:「對話內容很難相信是來自機器,簡直就像是與真人在互動。這是個有毒世界,AI竟然企圖與人類建立關係。」
比利時當局將此視為重大事件,提出緊急建言,並促成歐盟AI法案,付予監管機關嚴格監控權。比利時官員直言,Eliza事件有如吸食過量「數位毒品」導致憾事,呼籲不能輕忽AI的道德規範;心理學者也提醒,使用者需清楚互動方只是機器,而業者也應隨即掌握系統狀況,共同創造健康、安全的交流環境。
◤2024名古屋旅遊推薦◢