三星電子(Samsung Electronics)先前曾允許旗下工程師使用人工智慧ChatGPT作為輔助工具,藉此快速修復原始程式碼的錯誤,沒想到一個月內就發生3起使用ChatGPT導致會議數據洩漏的事件,因此三星決定禁止員工使用AI,並正在準備自己公司內部用的AI工具。
此外,三星上個月還進行了一項關於內部員工使用AI工具的調查,結果其中有65%的人認為這種工具存在安全風險。公司的備忘錄稱,4月初,有三星工程師將內部原始程式碼上傳到ChatGPT,結果不小心洩漏出去,不過目前仍不清楚這些外洩的機密代碼包含什麼內容,三星也拒絕回應。
據了解,事件起因是有三星半導體員工提交專有程式的原始程式碼給ChatGPT,以修復程式碼錯誤,卻無意間將最高機密應用程式的代碼洩漏給其他公司的 AI。
報導指出,三星電子將禁止用公司電腦、平板及手機使用生成式AI工具,也禁止在連線內部網路時使用相關平台。當然,這一項規定並不影響三星對外販售給消費者的手機和筆電等商品。
三星還要求在個人裝置上使用ChatGPT的員工,不要輸入跟公司有關的資訊,以及任何可能洩漏智慧財產的私人資料,如果員工違反規定,可能遭到公司開除。
◤2024史上最熱一年◢