廣告
xx
xx
回到網頁上方

AI人工智慧慎防濫用 專家教這四招防詐騙

記者 顧守昌 報導
發佈時間:2025/04/20 18:03
最後更新時間:2025/04/20 18:03
AI人工智慧技術高度發展 人臉、聲音都可生成極高擬真度,專家提醒應慎防詐騙(圖/專家周訓財提供)
AI人工智慧技術高度發展 人臉、聲音都可生成極高擬真度,專家提醒應慎防詐騙(圖/專家周訓財提供)

AI人工智慧技術的發展,可說一日數變,非常快速,舉凡繪圖,生產影片,甚至模仿擬真人聲,AI都可以做到幾乎真假難辨,因此在AI的時代,雖然帶來革新與便利,但水能載舟亦能覆舟,AI的高度發展,也會助長假訊息的流竄,甚至對社會信任機制造成衝擊。專家周財訓提出警告,未來對於訊息,必須透過多重驗證方式,確認資訊的真實性。

「現在只要透過 AI,就能讓任何人『說出』他從未說過的話,這是非常危險的趨勢。」周訓財指出,AI 深度偽造(deepfake)技術的進步,使得偽造影片和音頻變得前所未有的簡單,政治人物、明星、甚至普通民眾都可能成為受害者。AI 甚至能精準模仿個人聲音,生成高度擬真語音。例如,近期網路上流行「AI 周杰倫」、「AI 孫燕姿」等 AI 歌手,但這類 AI 模仿技術,也引發了著作權與個人隱私的爭議。

 
AI人工智慧技術的發展,專家提醒,慎防遭到歹徒濫用(圖/專家周訓財提供)

更讓人擔憂的,如果 AI 可以模仿任何人的聲音,那麼詐騙電話的可信度將大幅提高,未來的身份驗證機制將面臨極大挑戰。專家周訓財提出警告,AI 模仿聲音的技術雖然具有娛樂價值,但也可能被用來冒充親友詐騙、假造證詞,甚至侵犯個人版權與名譽。所以萬一AI被濫用,可能被不法分子用來製造虛假影像,例如假新聞、假證件,甚至是冒用他人身份的合成影片。

面對 AI 生成技術的崛起,該如何防範假訊息的擴散?專家建議,民眾應提高媒體識讀能力:
1. 檢查來源:確認資訊是否來自可靠的新聞機構或官方管道。
2. 使用反向搜尋:對可疑圖片或影片,可使用 Google 反向圖片搜尋、TinEye 等工具。
 
3.由於AI 生成的假影像或假影片,常常會出現手指異常、光影不自然、口型對不上聲音等問題,仔細觀察,還是能分辨出真假。
4.接到可疑電話時,特別是熟人要求匯款或提供個資時,最好透過視訊再度驗證身份。





 

#AI#人工智慧#AI歌手#擬真人聲#詐騙

你可能會喜歡

人氣點閱榜

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.0736

0.0232

0.0968