蘋果表示,新技術將允許蘋果檢測儲存在iCloud的「兒少性剝削內容」照片。(示意圖/達志影像美聯社)
蘋果公司(Apple Inc.)日前在官方網站公開宣布,將在新版iOS 15和iPadOS 15中加入保護「兒童安全」的新功能,其中包含iMessage安全功能、iCloud照片中兒童性剝削內容的CSAM檢測,以及Siri和搜尋更新。消息一出便引發許多專家關心,部分人士認為部分功能可能違反用戶隱私權,甚至有遭政府擴大使用,成為監視工具的疑慮。
據了解,該項功能將會套用在iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 今年稍晚的版本更新。官方聲明指出,新技術將允許蘋果檢測儲存在iCloud照片中的已知「兒少性剝削內容」(CSAM)圖像。並且讓蘋果能向「美國國家失蹤暨遭剝削兒童中心」(NCMEC)舉報相關情況。
在蘋果公開該項新功能後,WhatsApp負責人凱斯卡特(Will Cathcart)在推特上公開發文表示,自己讀了蘋果的訊息後非常擔憂,認為該項功能是「錯誤的方法」,並且將影響全球所有人的隱私,更宣稱WhatsApp不會採用相同系統。
對於各界的擔憂,蘋果公司在聲明中表示,將於今年稍晚推出的iOS 和 iPadOS新版操作系統將擁有「新的加密軟體」,以幫助限制CSAM的線上傳播,相關設計也考慮了保護用戶隱私。
蘋果指出,該系統的工作原理是將用戶手機的圖片,與NCMEC以及其他兒童安全組織統整的已知兒童性虐圖片數據庫進行比較。相關圖片經轉換成「散列」(hashes)形式後,即可跟蘋果設備上圖像「匹配」的數字代碼。一旦發現匹配後,將人工審核每一份報告,若查核屬實將把該 iCloud 帳戶擁有人送交 NCMEC 及執法部門審理。據稱,新技術與現有技術相比,在隱私方面具有「顯著」優勢。
儘管蘋果極力為自家新功能護航,但仍然有專家表示擔心,認為這項技術有可能被「集權政府」用來監視其公民。同時也擔心技術可以被擴展到掃描一些保密的手機內容,甚至擴及政治性言論等。
◤Blueseeds永續生活◢
更新時間:2021/08/07 18:49