廣告
xx
xx
"
"
回到網頁上方

小心! AI技術被利用 「深偽」技術結合詐騙 三大模式解析

記者 何冠毅 報導
發佈時間:2023/05/27 18:30
最後更新時間:2023/05/27 18:30
(圖/shutterstock)
(圖/shutterstock)

近期很常見的AI人工智慧技術,出現一種「深偽(Deepfake)」的技術應用,能結合AI仿真人學習,加上影像合成,能以非常逼真的方式,來達到換臉或是變聲等效果,台北市警方就提醒,未來的詐騙手法,恐怕會結合深偽技術混淆被害人,讓民眾受騙機率上升。

台北市刑大近期發現,早期「AI深偽」技術,主要用於假訊息散布,或是誹謗以及侵犯個人隱私等犯罪行為,例如先前YouTuber小玉換臉事件,或是模仿名人進行冒名宣傳,都是其中一種,但隨著技術持續演進,應用範圍更加廣泛,包含娛樂、新聞、社交媒體等等,甚至進一步被詐騙集團學習應用。

 
深偽技術成為犯罪工具。(圖/TVBS)

台北市警察局分析,發現「深偽」結合詐欺行為,有三大手法。

第一是「電話詐騙」(猜猜我是誰),能模仿特定人物的聲音,恐怕會被歹徒用於模仿家人、親朋好友,或者是知名人士的聲音,取信於被害人進行詐騙。

第二是「視訊詐騙」,由於深偽技術可以用在合成擬真的影片或語音,甚至能結合視訊功能,冒充企業高層,來針對下屬發布虛假指示,例如要求轉移資金等等。在大陸就有案例,是科技公司老闆接到AI詐騙視訊電話,一夕間就被騙走了430萬人民幣,換算台幣約1873萬。
 

第三是「恐嚇詐騙」,詐騙集團可能會將個人肖像移花接木,用以合成不雅照片,在寄送給被害當事人,藉此恐嚇勒索,今年3月,就發生多名國內知名大學教授,收到類似合成照,以及恐嚇訊息騷擾。
詐騙集團會如何利用深偽。(圖/TVBS)

由於「深偽技術」和詐騙手法結合,恐怕會為科技詐騙帶來更進一步的威脅,台北市警察局就呼籲民眾,最重要的是保持警惕和懷疑心態,不要輕易相信陌生人,甚至是親友的請求,且接受網路內容時,更要仔細辨識來源可信度,才不會落入詐騙集團陷阱。

 

Blueseeds天然初萃精油

👉招財能量爆強的財富精油,還可抽Audi

👉偷做醫美嗎?臉怎麼亮成這樣

👉你有聽過洗髮精也要換季嗎?


#AI#詐騙#詐騙集團#警方#網路

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1342

0.0932

0.2274