AI語音詐騙最近非常盛行,但就有民眾表示自己使用大陸的剪輯軟體來「克隆」,也就是AI模仿自己的聲音配音,隔天親戚居然就接到自己聲音的AI詐騙電話,讓她直呼未免太過巧合,質疑遭到盜用。
圖/TVBS
記者林妤玟:「現在很多人有剪片的需求,但是為求方便,都會用手機來進行剪輯,而最近就有一個AI功能,只要輸入自己的聲音,就可以自動幫你配完整段影片,(這是妳的專屬克隆聲音希望您喜歡)。照著範本讀5到10秒的句子,AI就模仿聲音,還算便利,但是小心你的聲音可能會被盜用。」
有民眾就表示,自己使用大陸剪輯軟體,克隆聲音的功能錄音,但隔天親戚卻接到疑似AI詐騙電話,開頭還直接喊他舅舅說我是你姪女,音色非常相似,但兩人並不熟也沒有通過電話,求證才知道遭到AI語音詐騙,當事人就聯想,會不會跟使用這個軟體有關?
非當事民眾:「大部分的同學都是用,跟我同樣的軟體在剪片,我是下載大陸版的要改地區,(但現在)用時候就心驚驚。」
在下載完軟體後,裡面一大堆隱私同意書,其中關於聲音的部分,有表示可能會收集做個人化的廣告推薦,但會不會被有心人士利用,資安專家表示有部分風險。
資安專家查士朝:「因為AI技術的進步,的確是有這樣子的可能性,現在很多社交媒體或是資料庫,的確是擁有很多個資。」
因為詐騙集團不只要聲音檔案,像這個個案更是知道親屬關係,所以洩漏的風險不一定是剪輯軟體。
資安專家查士朝:「APP給它權限的時候,它是有可能可以去看你的通訊錄,可以去看你的過去的相簿,有些APP給的權限太高,那使用過程把它打開,不用就關掉。」
簡而言之就是所有APP都會有個資風險,AI聲音詐騙層出不窮,現在連使用手機都要特別小心。
◤Blueseeds永續生活◢
更新時間:2024/05/17 18:24