現代科技日新月異,如何保護子女心理健康不受到科技影響,成為父母間的熱門話題。美國一名14歲青少年,2月與沉迷的聊天機器人互動後走上絕路,少年母親怒向科技公司提告。此事件讓AI的安全性再次受到矚目,至於AI對我們來說到底是蜜糖還是毒藥,專家也給出評論。
綜合《紐約時報》等外媒報導,隨著AI科技進步,許多人開始用AI聊天機器人排解寂寞,甚至創造出「虛擬情人」。一名罹患輕微亞斯伯格症的美國14歲少年,2月傳出迷戀上「Character.AI」推出的應用程式中的AI生成聊天機器人,在與對方多次互動後選擇輕生,他的母親近日宣布將對「Character.AI」提出訴訟,怒控該程式助長少年對聊天機器人的沉迷,且在他表達輕生念頭時未能提醒任何人。
更多新聞:愛上AI!美少年收聊天機器人「這訊息」後身亡 母怒告科技公司
報導指出,AI陪伴應用程式正在蓬勃發展,且基本上不受管制。這些應用程式的用戶只要支付約10美元(約320元新台幣)的月費,就能創建自己的AI伴侶,或從程式預設的角色中挑選。他們可以與AI聊天機器人用文字訊息或語音聊天。這些程式通常是用來協助用戶排解寂寞。
「Character.AI」創辦人之一的沙澤爾(Noam Shazeer )去年在Podcast節目中表示,「對許多寂寞或憂鬱的人來說,此程式將提供非常、非常大的幫助」。報導指出,AI陪伴應用程式可提供無害的娛樂,以及有限的情感支援。許多用戶都稱讚這些應用程式的優點。
但這些程式對心理層面的影響大多未經證實,專家也認為對某些用戶來說,用AI取代人際關係反而會更感到被孤立。部分的青少年面臨困境時,可能會試圖用聊天機器人解決問題,而非尋求專業幫助。導致他們身心出問題時,AI伴侶無法提供他們需要的協助。
史丹福大學研究員梅波絲(Bethanie Maples)研究過AI陪伴應用程式對心理健康的影響,她表示「我不認為這種程式本質上有危險」。但她同時指出,有證據顯示對長期孤獨、憂鬱的用戶、以及正在經歷改變的人來說,這種程式恐導致風險,而青少年時常在經歷改變。
專攻心理學的信州大學教育學部準教授(雷同台灣副教授)高橋史表示,許多有煩惱的人難以找其他人諮詢,卻可以跟AI坦承一切。因此他認為AI能有效運用在心理諮商上。針對降低AI風險的關鍵,高橋認為人類必須要設計出一套系統來監控AI工具。為了兼顧安全性和用戶利益,他認為企業需要與專家合作,仔細推敲AI應擔任的角色,從而開發出合適的服務。
《TVBS》提醒您:
輕生解決不了問題,卻留給家人無比悲痛。請珍惜生命,請再給自己一次機會
生命線請撥1995;衛福部諮詢安心專線:珍愛生命,請撥打 1925(24小時);張老師專線:1980
◤超夯旅遊新玩法◢