蘋果高管承認掃描iCloud相冊等功能引起大眾困惑,還保證數(shù)據(jù)不會被利用
8月13日,蘋果公司軟件工程高級副總裁Craig Federigh回應(yīng)了公眾對掃描iCloud相冊等功能的質(zhì)疑,他承認蘋果發(fā)布新功能后的處理很糟糕,也承認這些功能引起了大眾的困惑。
Craig Federigh回應(yīng)的功能是蘋果在8月5日公布的兒童安全功能,它包括新版照片甄別系統(tǒng)(Child Sexual Abuse Material,兒童性虐待內(nèi)容,簡稱為 "CSAM")、iMessage通信安全功能(通過iMessage通知父母孩子正在瀏覽的敏感內(nèi)容)、更新Siri和搜索功能。
過去的兩周,公眾爭議的焦點聚集在CSAM和iMessage通信安全這兩項功能。因為CSAM在執(zhí)行時會掃描用戶的iCloud相冊,iMessage通信安全功能則涉及對用戶聊天圖片的檢測。
蘋果公司軟件工程高級副總裁Craig Federigh
Craig Federigh向《華爾街日報》表示,蘋果執(zhí)行CSAM時設(shè)定了“多級別的審核”,保護蘋果的系統(tǒng),保證這些數(shù)據(jù)不會被政府或其他第三方利用。
CSAM會在用戶照片上傳到iCloud之前,就將其與已知CSAM的散列圖像進行匹配。而檢測到異常的賬戶將接受蘋果公司的人工審查,并可能向國家失蹤和受虐兒童中心(NCMEC)報告。
iMessage通信安全功能則在孩子發(fā)送或接收色情圖片時發(fā)揮作用。如果孩子們通過iMessage發(fā)送或接收色情圖片,他們將在觀看之前收到警告,圖片將被模糊處理,他們的父母也可以選擇收到警告。
Craig Federigh還透露了圍繞該系統(tǒng)保障措施的一些新細節(jié)。具體而言,只有當用戶相冊中與CSAM圖片庫匹配上的兒童色情圖片達到30張時,蘋果才會獲取用戶的賬戶和這些圖片的具體情況。他表示蘋果只會獲取這些與圖片庫匹配的圖片,不會知道用戶的其他圖片。
蘋果將根據(jù)國家失蹤和被剝削兒童中心(NCMEC)的名單檢查iCloud照片,尋找與已知CSAM圖片完全匹配的圖片。并且,蘋果是直接在用戶的設(shè)備上掃描圖片,不是在iCloud服務(wù)器上遠程進行。
蘋果此前曾表示,CASM系統(tǒng)只在美國推出,它將根據(jù)具體情況考慮何時在其他國家推出。蘋果還告訴媒體,它將在所有國家的操作系統(tǒng)上發(fā)布已知CSAM的哈希數(shù)據(jù)庫,但掃描功能目前只用于美國的設(shè)備。《華爾街日報》進一步澄清說,將有一個獨立的審計機構(gòu)來核實所涉及的圖像。