廣告
xx
xx
"
"
回到網頁上方

蘋果推新功能過濾兒童暴力 專家憂用戶隱私遭侵犯

編輯 周子馨 報導
發佈時間:2021/08/07 18:49
最後更新時間:2021/08/07 18:49
蘋果表示,新技術將允許蘋果檢測儲存在iCloud的「兒少性剝削內容」照片。(示意圖/達志影像美聯社)
蘋果表示,新技術將允許蘋果檢測儲存在iCloud的「兒少性剝削內容」照片。(示意圖/達志影像美聯社)

蘋果公司(Apple Inc.)日前在官方網站公開宣布,將在新版iOS 15和iPadOS 15中加入保護「兒童安全」的新功能,其中包含iMessage安全功能、iCloud照片中兒童性剝削內容的CSAM檢測,以及Siri和搜尋更新。消息一出便引發許多專家關心,部分人士認為部分功能可能違反用戶隱私權,甚至有遭政府擴大使用,成為監視工具的疑慮。

蘋果公司公開新功能,提升兒童安全保護。(圖/翻攝自蘋果官網)

 
據了解,該項功能將會套用在iOS 15、iPadOS 15、watchOS 8 和 macOS Monterey 今年稍晚的版本更新。官方聲明指出,新技術將允許蘋果檢測儲存在iCloud照片中的已知「兒少性剝削內容」(CSAM)圖像。並且讓蘋果能向「美國國家失蹤暨遭剝削兒童中心」(NCMEC)舉報相關情況。

在蘋果公開該項新功能後,WhatsApp負責人凱斯卡特(Will Cathcart)在推特上公開發文表示,自己讀了蘋果的訊息後非常擔憂,認為該項功能是「錯誤的方法」,並且將影響全球所有人的隱私,更宣稱WhatsApp不會採用相同系統。

WhatsApp負責人凱斯卡特連發多篇文批評蘋果新功能。(圖/翻攝自Will Cathcart 推特 @wcathcart)

對於各界的擔憂,蘋果公司在聲明中表示,將於今年稍晚推出的iOS 和 iPadOS新版操作系統將擁有「新的加密軟體」,以幫助限制CSAM的線上傳播,相關設計也考慮了保護用戶隱私。
 

蘋果指出,該系統的工作原理是將用戶手機的圖片,與NCMEC以及其他兒童安全組織統整的已知兒童性虐圖片數據庫進行比較。相關圖片經轉換成「散列」(hashes)形式後,即可跟蘋果設備上圖像「匹配」的數字代碼。一旦發現匹配後,將人工審核每一份報告,若查核屬實將把該 iCloud 帳戶擁有人送交 NCMEC 及執法部門審理。據稱,新技術與現有技術相比,在隱私方面具有「顯著」優勢。

儘管蘋果極力為自家新功能護航,但仍然有專家表示擔心,認為這項技術有可能被「集權政府」用來監視其公民。同時也擔心技術可以被擴展到掃描一些保密的手機內容,甚至擴及政治性言論等。
 
→緊抓話題熱點,與你討論全球大小事!點我追蹤【TVBS Twitter
 
→擠出小時間,看看大新奇!全新影音品牌上線囉,一起擠看看

◤日本旅遊必買清單◢

👉超夯日本電器竟然還有額外優惠!

👉日本免稅美妝必買這些!筆記給妳

👉存起來!遊日本免稅最高再折17%



#iCloud#蘋果#Apple#兒童保護#隱私#侵犯

分享

share

分享

share

連結

share

留言

message

訂閱

img

你可能會喜歡

人氣點閱榜

延伸閱讀

網友回應

其他人都在看

notification icon
感謝您訂閱TVBS,跟上最HOT話題,掌握新聞脈動!

0.1376

0.0732

0.2108