用AI「一鍵脫衣」!陸工程師賣同事裸照1張7元 近7千張流出

實習編輯 李如茜 報導

2024/06/18 21:43
「小玉換臉」事件的翻版在中國發生。(示意圖/shutterstock 達志影像)

中國近日發生一起「小玉換臉」事件的翻版!一名在科技產業上班的男子,竟利用AI功能中的「一鍵脫衣」,賣出了近7000張AI製裸照,受害者除了身邊的女同事之外,還有明星、不知名素人等等。

白男利用AI科技「一鍵去衣」販售女性不雅照。(圖/翻攝自央視新聞)
 

更多新聞:不是博愛座也被逼讓座!壯男崩潰狂吼「欺負我」 網心疼:他真的需要

根據《央視新聞》報道,嫌犯白男住在北京,是一間網路公司的技術員。從去年6月開始,白男無意間接觸到「一鍵脫衣」的技術,只需幾秒鐘、就能生成多張相應的圖片,於是他想出歪點子,開始以此牟利,不僅使用身邊女同事的照片,還有網紅、明星等等,偽造大量不雅圖片,並發出廣告「電腦AI脫衣,白菜價,一張1.5人民幣(相當於新台幣7元)」。

根據白男陳述,這項技術並非真的「脫衣」而是深度偽造,是針對AI圖像生成模型「Stable Diffusion」作為框架,配合特定AI模型製作而成。他在2個月內製作出近7000張不雅照,獲利近萬元人民幣,對大量女性受害者的名譽造成嚴重損失。
 

警方在白男的電腦中查獲大量不雅照。(圖/翻攝自央視新聞)

更多新聞:蝦皮陸籍員工猝死嚇壞網友 「加班至深夜、無補休也沒加班費」

北京市海淀區檢察院認為,白男以牟利為目的,製作、販賣淫穢物品,情節嚴重,其行為觸犯《中華人民共和國刑法》的相關規定,應當以製作、販賣淫穢物品牟利罪追究其刑事責任,案件有待宣判。


《TVBS》提醒您:
根據刑法第235條規定,散布、播送或販賣猥褻之文字、圖畫、聲音、影像或其他物品,或公然陳列,或以他法供人觀覽、聽聞者,處2年以下有期徒刑、拘役或科或併科三萬元以下罰金。意圖散布、播送、販賣而製造、持有前項文字、圖畫、聲音、影像及其附著物或其他物品者,亦同。提醒大家勿加入跪求、私給等行列以免觸法。

《TVBS》提醒您勇敢說不:
◎尊重身體自主權,遇到性騷擾勇於制止、勇敢說不,請撥打113、110
◎現代婦女基金會 性侵害防治服務專線02-7728-5098分機7
◎婦女救援基金會 02-2555-8595
◎勵馨基金會諮詢專線 02-8911-5595/性騷擾專線04-2223-9595

 

 

 

 

◤Blueseeds永續生活◢

👉天然護膚市場升溫!無添加敏肌也可用

👉精油保養最低49折再享1111折111

👉0水保養・以油養膚,精油保養快跟上


更新時間:2024/06/18 21:43