蘋果因他人反饋意見而推遲CSAM檢測功能 對兒童保護緘默不言

2022-08-14 18:28:14       來源:cnBeta.COM

自蘋果宣布計劃推出三項新的兒童安全功能以來已經(jīng)過去一年多的時間。據(jù)悉,這三項功能為檢測存儲在iCloud照片中的已知兒童虐待材料(CSAM)圖像的系統(tǒng)、模糊信息應用中的愛照片的選項及Siri的兒童剝削資源。

后兩個功能現(xiàn)在已經(jīng)可以使用,但蘋果對CSAM檢測功能的計劃仍保持沉默。

蘋果最初表示,CSAM檢測將在2021年底之前在iOS15和iPadOS15的更新中實施,但該公司最終根據(jù)客戶、宣傳團體、研究人員和其他人的反饋推遲了該功能。

2021年9月,蘋果在其兒童安全頁面發(fā)布了以下更新:“之前我們宣布了一些功能計劃,旨在幫助保護兒童免受使用通信工具招募和剝削他們的掠奪者的侵害并幫助限制兒童虐待材料的傳播。根據(jù)客戶、宣傳團體、研究人員和其他人的反饋,我們決定在未來幾個月內(nèi)花更多時間收集意見并進行改進,然后再發(fā)布這些極其重要的兒童安全功能。”

2021年12月,蘋果從其兒童安全頁面上刪除了上述更新和所有關(guān)于CSAM檢測計劃的內(nèi)容,但蘋果的一位發(fā)言人告訴The Verge,公司對該功能的計劃并未改變。然而,據(jù)macrumors所知,自那時起,蘋果沒有公開評論過該計劃。Macrumors已經(jīng)聯(lián)系了蘋果以詢問該功能是否仍在計劃中,但蘋果沒有立即回應評論請求。

蘋果確實在2021年12月發(fā)布的iOS 15.2和其他軟件更新中推進了信息應用和Siri的兒童安全功能的實施,另外還在2022年5月發(fā)布的iOS 15.5和其他軟件中將信息應用功能擴展到澳大利亞、加拿大、新西蘭和英國。

蘋果表示,其CSAM檢測系統(tǒng)在設計時考慮到了用戶隱私。該系統(tǒng)將使用來自兒童安全組織的已知CSAM圖像哈希值數(shù)據(jù)庫進行設備上的匹配,蘋果則會將其轉(zhuǎn)化為不可讀的哈希值集從而可以安全地存儲在用戶的設備上。

蘋果計劃向美國家失蹤與被剝削兒童中心(NCMEC)報告有已知CSAM圖像哈希值的iCloud賬戶,該中心是一個跟美國執(zhí)法機構(gòu)合作的非營利組織。蘋果表示,將有一個“門檻”來確保“每年少于一萬億分之一的機會”的賬戶被系統(tǒng)錯誤標記,另外還有人工審查標記的賬戶。

蘋果的計劃受到了廣泛的個人和組織的批評,這當中包括安全研究人員、電子前沿基金會(EFF)、政治家、政策團體、大學研究人員甚至一些蘋果自己的員工。

一些批評者認為,蘋果的兒童安全功能可能為設備創(chuàng)造一個“后門”,政府或執(zhí)法機構(gòu)可以利用它來監(jiān)視用戶。另一個問題是誤報,包括有人可能故意將CSAM圖像添加到另一個人的iCloud賬戶中從而使其賬戶被標記。

x 廣告
x 廣告

Copyright @  2015-2022 海外生活網(wǎng)版權(quán)所有  備案號: 滬ICP備2020036824號-21   聯(lián)系郵箱:562 66 29@qq.com