廣告
xx
xx
"
"
回到網頁上方

AI生成假音頻詐騙頻傳 專家破解歹徒手法

記者 林芳穎 報導
發佈時間:2023/07/03 13:40
最後更新時間:2023/07/03 14:21

利用AI人工智慧進行詐騙的案例層出不窮,歹徒竊取被害人的聲音素材,複製成假音頻,詐騙家屬被害人遭到綁架,過去一年,美國AI詐騙的案件數量,同比上升50%到75%,TVBS新聞合作夥伴-美國廣播公司ABC,特別請AI專家破解歹徒手法,提醒民眾最好時刻保持警戒,不要輕信陌生人來電要求。

圖/達志影像美聯社

 
AI生成假音頻詐騙頻傳專家破解歹徒手法。

AI生成假音頻:「請把錢寄過來,這是認真的。」

ABC新聞報導:「那個聽起來像我一樣的假音頻,由人工智慧生成。」

 
AI人工智慧遭到歹徒濫用,使得綁架詐騙可信度更高,全美各地都有受害者。

AI詐騙受害者德絲達芙諾:「我接到一通電話是我女兒的聲音,電話那頭說媽媽,而且哭得抽抽噎噎,我沒有懷疑過那就是她。」

AI技術究竟如何用來詐騙,ABC新聞記者來到知名網絡安全公司,請AI專家現場示範,首先,找到記者的社群媒體,輕鬆擷取影像素材。

ABC新聞記者Whit Johnson:「你實際上取出一些,我在突發新聞場景中的照片。」

AI專家尼可拉蒂:「你在這裡,這裡是密西西比州,你在可怕的龍捲風前面,但有了人工智慧,你可以說,嘿,我想把惠特放在加拿大野火前面,這個人工智慧工具太先進了,它還添加陰影。」

只要一張照片,AI就能按照指令生成各種假圖像,接下來專家再示範,人工智慧如何運用10分鐘的聲音樣本,偽造成詐騙音檔。

AI生成假音頻:「我剛剛和團隊出去吃午飯,我的公司信用卡沒辦法使用,我寄一個連結給你,還錢給幫我付錢的那個人。」

 
AI專家尼可拉蒂:「這將以語音訊息的形式傳入,歹徒可以輕易地冒充你的電話號碼,顯示為惠特來電。」

接著這個AI生成的假音頻,歹徒試圖讓記者的家人相信他被綁架了。

AI生成假音頻:「親愛的是我,惠特,聽好了,我被綁架了,我被關在地下室,綁在黑暗中。請遵照他們的指示,不要報警。」

AI專家尼可拉蒂:「惠特你看起來很害怕。」

ABC新聞記者Whit Johnson:「我是啊,這很可信。這些騙子現在可以和你即時對話了嗎?」

 
AI專家尼可拉蒂:「有一些工具可以讓你實際輸入,並使用你的聲音。」

AI甚至可以模擬記者危急時的不同聲調。

sbAI生成假音頻:「請把錢寄過來,這是認真的,他們要求我說出今天的日期,今天是6月14日,請現在立刻匯款。」

ABC新聞記者Whit Johnson:「AI真的可以調整我聲音的語調。」

AI專家尼可拉蒂:「當然,我們沒有任何你在壓力下的錄音,但我可以把你的聲音改成你正處在壓力下的聲音。」

專家建議,要防止遭到AI語音詐騙,可以在接到疑似親人遭綁架的電話時,使用只有自己人才知道的特定安全字眼。

另一位網路犯罪專家,曾經擔任聯邦調查局特勤,處理多起網絡犯罪案件,他建議將任何類型的可疑電話錄下來,接著直接聯繫親友。

網路犯罪專家法蘭柯爾:「我會立刻致電執法部門,因為如果這是真正的綁架,你會希望執法部門介入,如果這是一樁騙局,你會想立刻了解詳情。」

AI生成技術發展快速,現在只需要幾秒聲音,就能分析年齡、性別和口音複製造假,過去一年,美國AI詐騙的案件數量,同比上升50%到75%,其中針對老年人的AI語音詐騙最多。目前還沒有方法百分百杜絕AI詐騙,最好時刻保持警戒,不要輕信陌生人來電要求,將上當機率降到最低。
 

◤Blueseeds永續生活◢

👉天然護膚市場升溫!無添加敏肌也可用

👉精油保養最低49折再享1111折111

👉0水保養・以油養膚,精油保養快跟上


#AI#人工智慧#詐騙#案例#竊取

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1359

0.0730

0.2089