蘋果推新功能過濾兒童暴力 專家憂用戶隱私遭侵犯

編輯 周子馨 報導

2021/08/07 18:49
蘋果表示,新技術將允許蘋果檢測儲存在iCloud的「兒少性剝削內容」照片。(示意圖/達志影像美聯社)

蘋果公司(Apple Inc.)日前在官方網站公開宣布,將在新版iOS 15和iPadOS 15中加入保護「兒童安全」的新功能,其中包含iMessage安全功能、iCloud照片中兒童性剝削內容的CSAM檢測,以及Siri和搜尋更新。消息一出便引發許多專家關心,部分人士認為部分功能可能違反用戶隱私權,甚至有遭政府擴大使用,成為監視工具的疑慮。

 

據了解,該項功能將會套用在iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 今年稍晚的版本更新。官方聲明指出,新技術將允許蘋果檢測儲存在iCloud照片中的已知「兒少性剝削內容」(CSAM)圖像。並且讓蘋果能向「美國國家失蹤暨遭剝削兒童中心」(NCMEC)舉報相關情況。

在蘋果公開該項新功能後,WhatsApp負責人凱斯卡特(Will Cathcart)在推特上公開發文表示,自己讀了蘋果的訊息後非常擔憂,認為該項功能是「錯誤的方法」,並且將影響全球所有人的隱私,更宣稱WhatsApp不會採用相同系統。


對於各界的擔憂,蘋果公司在聲明中表示,將於今年稍晚推出的iOS 和 iPadOS新版操作系統將擁有「新的加密軟體」,以幫助限制CSAM的線上傳播,相關設計也考慮了保護用戶隱私。
 


蘋果指出,該系統的工作原理是將用戶手機的圖片,與NCMEC以及其他兒童安全組織統整的已知兒童性虐圖片數據庫進行比較。相關圖片經轉換成「散列」(hashes)形式後,即可跟蘋果設備上圖像「匹配」的數字代碼。一旦發現匹配後,將人工審核每一份報告,若查核屬實將把該 iCloud 帳戶擁有人送交 NCMEC 及執法部門審理。據稱,新技術與現有技術相比,在隱私方面具有「顯著」優勢。

儘管蘋果極力為自家新功能護航,但仍然有專家表示擔心,認為這項技術有可能被「集權政府」用來監視其公民。同時也擔心技術可以被擴展到掃描一些保密的手機內容,甚至擴及政治性言論等。
 

→緊抓話題熱點,與你討論全球大小事!點我追蹤【TVBS Twitter
 
→擠出小時間,看看大新奇!全新影音品牌上線囉,一起擠看看

◤Blueseeds永續生活◢

👉天然護膚市場升溫!無添加敏肌也可用

👉精油保養最低49折再享1111折111

👉0水保養・以油養膚,精油保養快跟上


更新時間:2021/08/07 18:49