24小时

当前位置/ 首页/ 综合快讯/24小时/ 正文

苹果正在擦除这个有争议的功能的痕迹

导读 今年,网络平台增加了有关儿童保护的公告数量。苹果希望比其他公司走得更远,开发一项计划用于 iCloud 的功能,使其能够检测在线存储服务...

今年,网络平台增加了有关儿童保护的公告数量。苹果希望比其他公司走得更远,开发一项计划用于 iCloud 的功能,使其能够检测在线存储服务上发布的儿童色情内容。

本质上,苹果设计的机制并没有比较照片。这将用户图像的哈希值(一种数字指纹)与已知数据库中包含的图像的哈希值进行比较。

因此,先验的是,这应该确保更好地保护儿童,而不损害用户的机密性。此外,这些扫描必须在本地完成,而不是在服务器上完成。

“Apple 检测已知 CSAM 的方法在设计时考虑了用户隐私。该系统不是将图像扫描到云端,而是使用 NCMEC 和其他儿童安全组织提供的已知 CSAM 图像哈希数据库在设备上进行匹配,”库比蒂诺公司表示。

免责声明:本文由用户上传,如有侵权请联系删除!