廣告
xx
xx
"
"
回到網頁上方

「爸媽 我沒錢了」七月鬼來電 退休族被深偽變聲假兒子騙百萬

記者 曾健銘 報導
發佈時間:2023/09/06 09:30
最後更新時間:2023/09/06 09:30
詐騙集團近日來透過AI變聲科技詐騙。(示意圖/達志影像Shutterstock)
詐騙集團近日來透過AI變聲科技詐騙。(示意圖/達志影像Shutterstock)

詐騙集團手法層出不窮,尤其近年來AI深偽技術(Deepfake)越來越發達,詐團透過換聲、變臉效果以假亂真,也讓不少民眾受騙上當。日前就有2名退休的婦人及老翁,接獲假親友來電要求金援,2人被變造過的聲音蒙騙,各自匯出164萬、113萬元,最後落得血本無歸。

詐騙集團假扮親人詐騙退休老翁。(圖/TVBS)
據了解,住在中部地區年約60多歲程姓婦人,日前接獲一通與兒子聲音神似的市話來電,對方先喊聲「媽」之後,聲稱自己手機毀損、更換號碼,要求重新加LINE後開始噓寒問暖,旋即要求媽媽金援,程女也不疑有他,陸續將164萬積蓄匯出,最後求助外甥時後才驚覺有異,向真正的兒子求證後才發現被騙。

 
 
另名北部地區80歲洪姓老翁,與兒子同名帳號的LINE來電,對方開口就要求資金周轉,洪翁因覺得聲音與兒子神似,因而誤信詐團成員,先後匯出113萬元,豈料詐團食髓知味,「假兒子」又向爸爸借款,洪翁向妻子求助後,2人臨櫃時經銀行員告知才驚覺遇上詐團。

刑事局透過KUSO的手法宣導變聲詐騙手法。(圖/TVBS)
刑事局指出,現在正值農曆7月也逢開學季,不少人都接到自稱親友來電裝熟、借款,尤其近年來AI深偽技術盛行,民眾一不小心就會掉入詐團陷阱。警政署統計,今(112)年6月至8月30日止猜猜我是誰詐騙案件計294件,較去年同期283件增加3.89%。
 
刑事局呼籲,AI深偽(Deepfake)變聲及換臉技術,可以製造出仿真度極高的虛假影像和音訊,很容易讓民眾誤以為偽冒者是被害者本人、親友或名人,如接到親友傳訊息或來電,務必向本人査證,平時也應該做好帳號保護,避免多個帳號設定同組密碼,亦不要點選不明網址,建議與親友建立的─防詐專屬約定密語,確認身分。
 
 

《TVBS》新聞提醒您:
◎未經判決確定,應推定為無罪。


 

Blueseeds天然初萃精油

👉招財能量爆強的財富精油,還可抽Audi

👉偷做醫美嗎?臉怎麼亮成這樣

👉你有聽過洗髮精也要換季嗎?


#深偽#AI#詐騙集團#變臉#變聲#退休族#刑事局

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1438

0.0789

0.2227