利用AI人工智慧進行詐騙的案例層出不窮,歹徒竊取被害人的聲音素材,複製成假音頻,詐騙家屬被害人遭到綁架,過去一年,美國AI詐騙的案件數量,同比上升50%到75%,TVBS新聞合作夥伴-美國廣播公司ABC,特別請AI專家破解歹徒手法,提醒民眾最好時刻保持警戒,不要輕信陌生人來電要求。
AI生成假音頻:「請把錢寄過來,這是認真的。」
ABC新聞報導:「那個聽起來像我一樣的假音頻,由人工智慧生成。」
AI詐騙受害者德絲達芙諾:「我接到一通電話是我女兒的聲音,電話那頭說媽媽,而且哭得抽抽噎噎,我沒有懷疑過那就是她。」
AI技術究竟如何用來詐騙,ABC新聞記者來到知名網絡安全公司,請AI專家現場示範,首先,找到記者的社群媒體,輕鬆擷取影像素材。
ABC新聞記者Whit Johnson:「你實際上取出一些,我在突發新聞場景中的照片。」
AI專家尼可拉蒂:「你在這裡,這裡是密西西比州,你在可怕的龍捲風前面,但有了人工智慧,你可以說,嘿,我想把惠特放在加拿大野火前面,這個人工智慧工具太先進了,它還添加陰影。」
只要一張照片,AI就能按照指令生成各種假圖像,接下來專家再示範,人工智慧如何運用10分鐘的聲音樣本,偽造成詐騙音檔。
AI生成假音頻:「我剛剛和團隊出去吃午飯,我的公司信用卡沒辦法使用,我寄一個連結給你,還錢給幫我付錢的那個人。」
接著這個AI生成的假音頻,歹徒試圖讓記者的家人相信他被綁架了。
AI生成假音頻:「親愛的是我,惠特,聽好了,我被綁架了,我被關在地下室,綁在黑暗中。請遵照他們的指示,不要報警。」
AI專家尼可拉蒂:「惠特你看起來很害怕。」
ABC新聞記者Whit Johnson:「我是啊,這很可信。這些騙子現在可以和你即時對話了嗎?」
AI甚至可以模擬記者危急時的不同聲調。
sbAI生成假音頻:「請把錢寄過來,這是認真的,他們要求我說出今天的日期,今天是6月14日,請現在立刻匯款。」
ABC新聞記者Whit Johnson:「AI真的可以調整我聲音的語調。」
AI專家尼可拉蒂:「當然,我們沒有任何你在壓力下的錄音,但我可以把你的聲音改成你正處在壓力下的聲音。」
專家建議,要防止遭到AI語音詐騙,可以在接到疑似親人遭綁架的電話時,使用只有自己人才知道的特定安全字眼。
另一位網路犯罪專家,曾經擔任聯邦調查局特勤,處理多起網絡犯罪案件,他建議將任何類型的可疑電話錄下來,接著直接聯繫親友。
網路犯罪專家法蘭柯爾:「我會立刻致電執法部門,因為如果這是真正的綁架,你會希望執法部門介入,如果這是一樁騙局,你會想立刻了解詳情。」
AI生成技術發展快速,現在只需要幾秒聲音,就能分析年齡、性別和口音複製造假,過去一年,美國AI詐騙的案件數量,同比上升50%到75%,其中針對老年人的AI語音詐騙最多。目前還沒有方法百分百杜絕AI詐騙,最好時刻保持警戒,不要輕信陌生人來電要求,將上當機率降到最低。
◤Blueseeds永續生活◢