
蘋果一直標榜自家的手機及iOS系統在用戶隱私上的牢不可破,甚至不惜跟美國政府打官司。不過現在蘋果改了一個政策,iOS會審查用戶的照片,以致于蘋果都要開始為此統一員工口徑。
本月初,蘋果宣布了一項新政策,將推出名為“neuralMatch”的新技術,它會在圖片上傳到iCloud之前進行掃描。如果它找到了匹配的CSAM(兒童性虐待照片),將會通知審核人員檢查。若確認存在兒童色情內容,那么蘋果方面將關閉賬戶,并通知美國國家失蹤和被剝削兒童中心。
蘋果這一舉動受到了兒童保護組織的認可,但有更多的人認為蘋果審查用戶照片是個不好的苗頭,覺得被植入了后門,擔心該系統遭到濫用。
蘋果此前解釋過該系統的運作方式,稱這一系統并不能真正“看到”用戶的照片,而是采用“數字指紋”的技術,通過辨識圖片中的關鍵信息,與現有的兒童性侵圖像數據庫內容對比。
雖然內部員工都有強烈的反對傾向,但蘋果還是會執行這一政策,本周還給員工下發了最新的備忘錄,要求員工在CSAM后門問題上統一口徑,強調這一政策只針對iCloud中的CSAM內容,不會容忍被濫用。
網站首頁 |網站簡介 | 關于我們 | 廣告業務 | 投稿信箱
Copyright © 2000-2020 www.yushuoyun.cn All Rights Reserved.
中國網絡消費網 版權所有 未經書面授權 不得復制或建立鏡像
聯系郵箱:920 891 263@qq.com
www.亚洲男人天堂_欧美最顶级的aⅴ艳星_国产精品免费网站_欧美日韩在线一区_欧美床上激情在线观看_日韩av色在线_国产精品亚洲综合天堂夜夜_欧美做爰性生交视频_国产成人高潮免费观看精品_久久天天躁夜夜躁狠狠躁2022_国产美女久久精品香蕉69_亚洲专区在线视频_国产精品夜间视频香蕉_国产成人综合一区二区三区_国产精品69av_岛国av午夜精品