Apple 对检测 iCloud 照片中存储的已知 CSAM 的计划保持沉默
admin
2023-07-31 18:23:41
0

自 Apple宣布推出三项新的儿童安全功能计划以来已经过去了一年多,其中包括用于检测存储在 iCloud 照片中的已知儿童性虐待材料 (CSAM) 图像的系统、在“信息”应用中模糊色情照片的选项,以及Siri 的儿童剥削资源。后两个功能现已推出,但 Apple 对其 CSAM 检测功能的计划保持沉默。

iCloud-General-FeatureiCloud-General-Feature
苹果最初表示,CSAM 检测将在 2021 年底之前在 iOS 15 和 iPadOS 15 的更新中实施,但该公司最终基于“来自客户、倡导团体、研究人员和其他人的反馈”推迟了该功能。

2021 年 9 月,Apple 在其儿童安全页面上发布了以下更新:

此前,我们宣布了一些功能计划,旨在帮助保护儿童免受使用通信工具招募和利用他们的掠夺者的侵害,并帮助限制儿童性虐待材料的传播。根据客户、倡导团体、研究人员和其他人的反馈,我们决定在未来几个月内花更多时间收集意见并进行改进,然后再发布这些至关重要的儿童安全功能。

2021 年 12 月,苹果从其儿童安全页面中删除了上述更新和所有对其 CSAM 检测计划的引用,但苹果发言人告知The Verge,苹果对该功能的计划没有改变。然而,据我们所知,自那时以来,Apple 并未公开评论这些计划。

我们已联系 Apple 询问该功能是否仍在计划中。苹果没有立即回应置评请求。

随着 2021 年 12 月iOS 15.2和其他软件更新的发布, Apple 确实推进了 Messages 应用程序和 Siri 的儿童安全功能,并通过iOS将 Messages 应用程序功能扩展到澳大利亚、加拿大、新西兰和英国2022 年 5 月发布 15.5 和其他软件版本。

苹果表示,其 CSAM 检测系统“在设计时考虑了用户隐私”。该系统将使用来自儿童安全组织的已知 CSAM 图像哈希数据库执行“设备上匹配”,Apple 会将其转换为“安全存储在用户设备上的一组不可读的哈希”。

Apple 计划向与美国执法机构合作的非营利组织国家失踪和受虐儿童中心 (NCMEC) 报告具有已知 CSAM 图像哈希值的 iCloud 帐户。苹果表示,将设置一个“阈值”,以确保系统错误地标记帐户的“每年不到万亿分之一的机会”,以及人工对标记帐户的人工审查。

苹果的计划受到了广泛的个人和组织的批评,包括安全研究人员、电子前沿基金会 (EFF)、政治家、政策团体、大学研究人员,甚至一些苹果员工。

相关内容

热门资讯

Windows 11 和 10... Windows 11/10 文件夹属性中缺少共享选项卡 – 已修复 1.检查共享选项卡是否可用 右键...
事件 ID 7034:如何通过... 点击进入:ChatGPT工具插件导航大全 服务控制管理器 (SCM) 负责管理系统上运行的服务的活动...
Hive OS LOLMine... 目前不清退的交易所推荐: 1、全球第二大交易所OKX欧意 国区邀请链接: https://www.m...
Radmin VPN Wind... Radmin VPN 是一款免费且用户友好的软件,旨在牢固地连接计算机以创建一个有凝聚力的虚拟专用网...
如何修复 Steam 内容文件... Steam 内容文件锁定是当您的 Steam 文件无法自行更新时出现的错误。解决此问题的最有效方法之...
Hive OS 部署 PXE ... 目前不清退的交易所推荐: 1、全球第二大交易所OKX欧意 国区邀请链接: https://www.m...
如何在Instagram上扫描... 如何在Instagram上扫描名称标签/ QR? 总而言之,您可以通过大约四种不同的方法来扫描这些I...
在 Windows 11 中打... 什么是链路状态电源管理? 您可以在系统控制面板的电源选项中看到链接状态电源管理。它是 PCI Exp...
farols1.1.501.0... faro ls 1.1.501.0(64bit)可以卸载,是一款无需连接外部PC机或笔记本计算机即可...
Hive OS 新建飞行表的方... 目前不清退的交易所推荐: 1、全球第二大交易所OKX欧意 国区邀请链接: https://www.m...