廣告
xx
xx
"
"
回到網頁上方

小心! AI技術被利用 「深偽」技術結合詐騙 三大模式解析

記者 何冠毅 報導
發佈時間:2023/05/27 18:30
最後更新時間:2023/05/27 18:30
(圖/shutterstock)
(圖/shutterstock)

近期很常見的AI人工智慧技術,出現一種「深偽(Deepfake)」的技術應用,能結合AI仿真人學習,加上影像合成,能以非常逼真的方式,來達到換臉或是變聲等效果,台北市警方就提醒,未來的詐騙手法,恐怕會結合深偽技術混淆被害人,讓民眾受騙機率上升。

台北市刑大近期發現,早期「AI深偽」技術,主要用於假訊息散布,或是誹謗以及侵犯個人隱私等犯罪行為,例如先前YouTuber小玉換臉事件,或是模仿名人進行冒名宣傳,都是其中一種,但隨著技術持續演進,應用範圍更加廣泛,包含娛樂、新聞、社交媒體等等,甚至進一步被詐騙集團學習應用。

 
深偽技術成為犯罪工具。(圖/TVBS)

台北市警察局分析,發現「深偽」結合詐欺行為,有三大手法。

第一是「電話詐騙」(猜猜我是誰),能模仿特定人物的聲音,恐怕會被歹徒用於模仿家人、親朋好友,或者是知名人士的聲音,取信於被害人進行詐騙。

第二是「視訊詐騙」,由於深偽技術可以用在合成擬真的影片或語音,甚至能結合視訊功能,冒充企業高層,來針對下屬發布虛假指示,例如要求轉移資金等等。在大陸就有案例,是科技公司老闆接到AI詐騙視訊電話,一夕間就被騙走了430萬人民幣,換算台幣約1873萬。
 

第三是「恐嚇詐騙」,詐騙集團可能會將個人肖像移花接木,用以合成不雅照片,在寄送給被害當事人,藉此恐嚇勒索,今年3月,就發生多名國內知名大學教授,收到類似合成照,以及恐嚇訊息騷擾。
詐騙集團會如何利用深偽。(圖/TVBS)

由於「深偽技術」和詐騙手法結合,恐怕會為科技詐騙帶來更進一步的威脅,台北市警察局就呼籲民眾,最重要的是保持警惕和懷疑心態,不要輕易相信陌生人,甚至是親友的請求,且接受網路內容時,更要仔細辨識來源可信度,才不會落入詐騙集團陷阱。

 

◤獨家名人娛樂◢

👉藍心湄:單身是選擇 學會4件事活出精采

👉蔡依林、孔劉等男神、女神單身霸氣金句

👉少女心噴發!此生必看「甜寵劇」片單


◤2024女大粉美賞◢

👉華人美妝奧斯卡賞 即日起免費報名中

👉殿堂級美妝賞 美力爆發,無所畏懼!

👉歡迎各式肌膚保養、美妝、保健品角逐


#AI#詐騙#詐騙集團#警方#網路

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1428

0.1067

0.2495