我撞死人了需要錢!AI「仿兒子聲」 騙走老夫妻64萬

編輯 丘力龍 報導

2023/03/16 11:21
加拿大一對老夫妻遭AI「擬聲詐騙」,慘丟2.1萬美元(約64萬新台幣)。(圖/翻攝自《商業內幕》)

人工智慧(AI)的蓬勃發展點亮了新一代科技前景,替人類生活帶來許多便利,不過卻也成了有心人士的詐騙工具。近日加拿大一對老夫妻接到AI「冒充兒子聲音」的電話,遭騙取2.1萬美元(約64萬新台幣),美國聯邦貿易委員會(FTC)指出,光是2022年就有240萬件相關AI詐騙案,總損失金額高達88 億美元(約2700億新台幣)。
 
商業內幕》(INSIDER)報導,隨著AI聊天機器人ChatGPT爆紅,AI在全球成為熱門話題,不過也衍生出許多「詐騙案件」。加拿大一對老夫妻日前接到一通詐騙電話,聲稱是他們的兒子,哭著表示自己撞死一名外交官需要入獄,求他們幫忙支付2.1萬美元的律師費。

 



老先生珀金(Benjamin Perkin)透露,「這個聲音『超像我兒子』,所以我完全信了。」接著老夫妻便開始透過虛擬貨幣籌錢,並匯款給詐騙集團,事後他們回想,這個「假兒子」的對話內容聽起來有些奇怪,趕緊打電話給「真兒子」確認後,才意識到自己遭詐騙了。但即便他們立刻報警,也已於事無補,錢已無法尋回。
 
至於AI是如何模仿聲音,專家研判應是透過老夫妻兒子在Youtube上傳的一段影音,擷取音軌後進行合成偽造。
 
 

事實上,過去早有「AI擬聲詐騙案」;2019年,AI模仿一家英國能源公司董事長的聲音,成功詐騙董事長助手,使他將24萬美元匯到匈牙利的詐騙集團帳戶。美國語音合成技術公司ElevenLabs1月也指出,許多用戶利用他們的技術達成惡意目的,警告民眾多加留意新型態詐騙手法。


 


 

◤人氣精選文◢

👉『薔薔』撩男祕訣 分享如何遠離渣男

👉 小資守財不易!5大易破財行徑大公開

👉8大招財錢包色彩推薦!換上財運滾滾


更新時間:2023/03/16 11:28