Apple 下一个儿童保护系统的答案和问题

macOS的照片图标

Apple 宣布了三项针对其设备上的儿童保护的新功能。 这个想法本身很棒。 然而,也有人趁机将手指放在伤口上。 他想知道 Apple 想要做的是否更像是一种 秘密监视降低 Mac 隐私, iPad 或 iPhone 在后台。 为此,负责这项新功能的人员特意解释了它的工作原理。

Erik Neuenschwander 解释了他的系统如何提高儿童保护

CSAM

我们正在讨论将于秋季在美国生效的新功能,其目的是 保护儿童免受性虐待. 它专注于照片应用、iMessage、Siri 和搜索。 因此,它会影响这些应用程序介入的所有 Apple 设备。 因此,我们谈论的是 Mac,尽管它不是拍照的最佳设备,但除了通过 iCloud 进行现有同步之外,它还可以保存和分类它们。 使用iMessage,尤其是Siri 搜索命令。

称为 CSAM 的检测系统 主要适用于 iCloud 照片。 一个名为 NeuralHash 的检测系统识别并与美国国家失踪与受虐儿童中心 ID 进行比较,以检测 iCloud 照片库中的性虐待和类似内容,以及 iMessage 中的通信安全。

家长可以在其设备上为 13 岁以下的儿童激活此功能。 当它检测到他们将要看到的图像是明确的时,它会发出警报。 它还会影响 Siri 和搜索系统,因为当用户尝试通过 Siri 和搜索命令搜索相关术语时。

Neuenschwander 解释了为什么 Apple 在 iMessage的 以及 iCloud 照片中的 CSAM 检测功能:

与识别已知的 CSAM 集合存储在 Apple 的 iCloud 照片服务中的位置一样重要,在这种已经很糟糕的情况下尝试继续前进也很重要。 当人们开始进入这个麻烦和有害的领域时,尽早进行干预也很重要。 如果已经有人试图将儿童引入可能发生虐待的情况。 消息安全以及我们对 Siri 和搜索的干预实际上会影响流程的这些部分。 因此,我们真的在尝试中断导致最终可以被我们的系统检测到的 CSAM 的循环。

“所有不参与非法活动的人的隐私将完好无损”

难句。 因此,诺伊恩施万德定义并捍卫了苹果的立场,反对那些指责该公司打开后门监视其用户的人。 安全主管辩称,对于那些不对违法行为发表评论的人,安全将存在,隐私将得到维护。 如果没有错就好了 但谁告诉我这个系统不完美?

¿如果政府试图干预这个新系统,苹果应该值得信任?

Neuenschwander 回复说,原则上它只针对美国的 iCloud 帐户推出,所以 当地法律不向联邦政府提供这些类型的能力。 目前,只有美国居民才会接受这种审查。 但他没有回答,也没有明确未来在其他国家推出时会发生什么。 虽然这需要时间,因为这将取决于每个人的法律。 每个国家/地区的刑法典中描述的行为在什么是犯罪方面有所不同,因此 Apple 算法应该适应每种法律情况,这根本不应该是一件容易的事。

在这件事中,最重要的是以下几点: iCloud 是关键。 如果用户没有使用 iCloud 照片,NeuralHash 将不会运行,也不会生成任何提示。 CSAM 发现是一种神经哈希,它与作为操作系统映像一部分的已知 CSAM 哈希的数据库进行比较。 如果未使用 iCloud 照片,则没有任何效果。

争议无疑。 一个很好的目的,但有一些漏洞 你认为隐私有问题吗? 值得?


发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责数据:MiguelÁngelGatón
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。