AI技術突飛猛進!現在傳出只需3秒鐘,就能複製一般人的聲音,現在已經有歹徒,拿來打詐騙電話。美國一位媽媽最近就接獲詐騙電話,歹徒用AI偽造女兒的聲音,謊稱遭到綁架要求贖金。還好她及時確認女兒平安,沒讓歹徒得逞,只是AI聲音太逼真,媽媽說,根本無法分辨真假。
用AI生成的假阿湯哥幾可亂真,只是現在AI能做的恐怕不只這樣而已。
CNN記者DonieO'Sullivan:「嗨老爸。」
CNN記者(AI生成)vs.父親:「爸你好嗎?很好你呢?剛把新聞拍完,等下要趕去機場,你要回來紐約啊。」
假聲音輕易騙倒自己的老爸,讓記者跟製作人在一旁笑翻,只是現在傳出有詐騙犯用AI犯案。
接獲詐騙電話家長JenniferDeStefano:「我接起來聽到女兒啜泣,我問她怎麼了,她說媽我慘了需要幫助,請幫我我出事了。」
這位心急如焚的美國媽媽,一度以為女兒參加滑雪比賽時出意外。
CNN記者TomForeman:「接著一名男子上門要贖金,其實女兒根本沒被綁架。」
「媽我被綁架了。」,這樣的詐騙老哽竟然結合AI技術,讓美國媽媽差點上當,還好她最後還是聯絡上女兒,確認平安無事。
AI專家Dr.GaryMarcus:「AI生成幾乎真假難辨,要擔憂的是有心人士,可能拿來欺騙民眾。」
專家說現在AI只需要3秒鐘,就能偽造出一般人的影像和聲音來。
CNN主播:「GPT-4語言工具,能分析上萬筆詞語文本,幾乎所有都能重製,甚至連聲音都能生成。」
至於要怎麼防範AI取得個人影像和聲音資訊,專家建議把所有雲端個資改為私人不公開,才能避免歹徒拿來生成「數位複製人」。
◤日本旅遊必買清單◢