AI換臉視訊名人受害!Gino曝心聲:我不會私訊借錢

記者 洪儀婷 / 攝影 李建緯 報導

2024/08/31 13:39

近來AI技術詐騙的案例層出不窮,男星Gino(蔡東威)就表示,詐騙集團以他的頭像AI視訊換臉,打電話粉絲行騙數十萬,讓Gino苦喊自己不會主動私訊借錢。

 

男星GINO轉戰本土劇,精湛演技有目共睹,還曾擔任金鐘獎主持人,身受觀眾喜愛的他也被詐騙集團盯上。

藝人Gino:「應該是說這兩個禮拜一直不斷的重複一個粉絲,她非常明目張膽,在我的每一篇貼文底下,留言說我是詐騙集團,公司立場問我需不需要刪除,我認為說不要我認為說他可能真的被詐騙了。」

Gino在社群平台PO文自己成為AI換臉視訊詐騙的受害者,詐騙集團冒用他的肖像,向網友詐騙疑似得逞超過十萬元,不但自己的臉書,連家人都因此被受害粉絲私訊騷擾,讓Gino只好無奈警告。
 

藝人Gino:「(詐騙)已經猖狂到這個地步了,因為這個真的很容易受騙,對,因為連我自己的,因為我自己的爸媽也有收到,這樣子的詐騙方式,現在冒用這個東西喔,它真的甚至會去,它會看觸及。」

截圖中確實能見假的Gino跟民眾加LINE,還視訊通話,讓人傻傻分不清Gino則說大家看到Gino蔡東威打視訊電話給你,跟你借錢絕對不是他,也不排除以法律途徑保障自己。

刑事局預防科警務正陳婉蕾:「注意詐騙集團利用深度偽造的詐騙手法,仿冒家人的聲音及臉孔,聲稱急需借錢,利用您緊張的情緒來進行詐騙。」

刑事局表示,「Deepfake」是利用深度生成技術、生成影像、聲音、文字,包括臉部特徵、年齡、圖像風格等轉換多種軟體,包含玩美、Faceover、Reface等都有這個技術,還曾有外商公司執行長,接到英國母公司上司一通電話,要求匯620萬元到指定供應商帳戶,其實也聲音轉換犯罪手法,民眾千萬別降低戒心上當。


 

◤日本旅遊必買清單◢

👉超夯日本電器竟然還有額外優惠!

👉日本免稅美妝必買這些!筆記給妳

👉存起來!遊日本免稅最高再折17%


更新時間:2024/08/31 14:05