AI語音詐騙最近非常盛行,但就有民眾表示自己使用大陸的剪輯軟體來「克隆」,也就是AI模仿自己的聲音配音,隔天親戚居然就接到自己聲音的AI詐騙電話,讓她直呼未免太過巧合,質疑遭到盜用。
有民眾就表示,自己使用大陸剪輯軟體,克隆聲音的功能錄音,但隔天親戚卻接到疑似AI詐騙電話,開頭還直接喊他舅舅說我是你姪女,音色非常相似,但兩人並不熟也沒有通過電話,求證才知道遭到AI語音詐騙,當事人就聯想,會不會跟使用這個軟體有關?
非當事民眾:「大部分的同學都是用,跟我同樣的軟體在剪片,我是下載大陸版的要改地區,(但現在)用時候就心驚驚。」
資安專家查士朝:「因為AI技術的進步,的確是有這樣子的可能性,現在很多社交媒體或是資料庫,的確是擁有很多個資。」
因為詐騙集團不只要聲音檔案,像這個個案更是知道親屬關係,所以洩漏的風險不一定是剪輯軟體。
資安專家查士朝:「APP給它權限的時候,它是有可能可以去看你的通訊錄,可以去看你的過去的相簿,有些APP給的權限太高,那使用過程把它打開,不用就關掉。」
簡而言之就是所有APP都會有個資風險,AI聲音詐騙層出不窮,現在連使用手機都要特別小心。
◤日本旅遊必買清單◢