Apple已删除任何提及扫描他人照片以查找儿童色情内容的内容,但并未改变

来源:腾讯
发布时间:2022-04-08 09:18
阅读量:13799
   

Apple 已从其儿童安全页面中删除了对 CSAM 的引用但是,该功能的工作仍在继续

Apple已删除任何提及扫描他人照片以查找儿童色情内容的内容,但并未改变

8 月,Apple 宣布计划推出一项反禁止内容功能,该功能会扫描用户的 iCloud 照片库以查找儿童性虐待材料 如果检测到可疑内容,程序会将材料发送给公司员工进行验证

苹果的计划遭到了许多人和组织的严厉批评,包括安全研究人员,爱德华·斯诺登,电子前沿基金会,Facebook 前安全负责人,政界人士,人权活动家,甚至一些苹果员工大部分批评都集中在使用与监视接壤的危险技术上许多人还指出,它在检测儿童性虐待图像方面效率低下

最初,Apple 试图通过发布开发细节,文档和高管访谈来消除误解并让用户放心最终,该公司决定推迟部署 CSAM

苹果表示,这一决定基于客户,倡导者,研究人员和其他人的反馈。

我们决定在未来几个月留出更多时间来收集信息并在发布这些关键的儿童安全功能之前进行改进,该声明出现在 9 月份的Apple儿童安全页面上,但现在与所有参考资料一起消失了到 CSAM。经常开车的司机,以及只用HomePod音箱播放音乐的用户。开车时候其实多数时间就是语音控制,并且无损音质也不是太重要。。

可是,reddit的用户发现,该项目的描述和技术文档仍然可用苹果发言人 Shane Bauer向The Verge证实,虽然网站上不再提及该功能,但公司的计划没有改变,这意味着 CSAM 检测将在未来出现

声明:以上内容为本网站转自其它媒体,相关信息仅为传递更多企业信息之目的,不代表本网观点,亦不代表本网站赞同其观点或证实其内容的真实性。投资有风险,需谨慎。

ad555
ad111
版权声明 - 广告服务 - 加入我们 - 网站地图- 联系QQ:2320534138
重庆大渝网 版权所有   备案号:豫ICP备2022009711号