苹果的儿童保护计划,似乎几乎没人喜欢

CS

苹果单方面决定提出一个保护儿童的系统(CSAM)。 如何? 通过自动检查上传到 iCloud 的照片。 这样就可以知道是否有不合适的图像并且会伤害这些婴儿。 这个消息几乎没有人喜欢。 这是对用户隐私的侵犯。 但可以说,目的是否证明手段是正当的? 甚至 EFF 也不希望苹果的这个想法得以实施。

包括 EFF 在内的许多协会都不希望苹果在 CSAM 上的这种想法继续下去

苹果的目标是让人们感受到 通过技术安全和授权。 “我们希望帮助保护儿童免受使用通信工具招募和剥削他们的掠夺者的侵害,并限制儿童性虐待材料 (CSAM) 的传播。 这就是 Apple 在三个方面引入新的儿童安全功能的原因: 

  1. 市长 家长控制
  2. 通过机器学习 讯息应用. 警告机密内容
  3. Apple 从以下网址获取有关 CSAM 集合的信息 iCloud照片 你将与​​当局分享。

这是发生最大问题的地方。 苹果应该成为离线和在线隐私的典范。 然而,有了这些新方法,很明显,对于这家美国公司来说,目的确实证明了手段是合理的。 为了保护儿童,侵犯了用户隐私。 我不知道这是个好主意还是坏主意。 但似乎有一个值得称赞的结局, 这对苹果来说正在成为一种折磨。

目前主动停止,因为本来是应该晚点实施的,但最根本的问题是,有很多公司、组织和个人都在向着天空呐喊。 在这里我们可能会想,如果“我们没有什么可隐瞒的,我们不应该害怕这种技术,因为他们永远找不到任何东西。” 但令人恐惧的是,他感到困惑并发现了一些他没有的东西。 机器很好,但并非万无一失。 我们也回到通常的问题。 最终证明手段是正当的?。

宣布反对 Apple 的这一举措的组织之一是 电子前沿基金会(EFF). 它已要求苹果完全放弃其儿童安全项目。 该组织表示,苹果的举动暂时搁置是“幸运的”。 但他称这些计划,包括扫描用户图片中是否存在虐待儿童材料 (CSAM),“减少了所有 iCloud 照片用户的隐私。” EFF 针对 Apple 原始广告的请愿书现在包含超过 25.000 个签名。 另一个由 Fight for the Future 和 OpenMedia 等组织发起,包含 50.000 多个。

许多人已签署反对这一倡议。 与苹果的设备销量相比,这可能不是一个重要的数字,但考虑到它的地位和方法,这已经足够了。 一些专家警告说,如果苹果屈服于政府不可避免的压力,该功能可能会在以后扩展以寻找其他材料。

EFF 很高兴 Apple 现在正在倾听客户、研究人员、公民自由组织、人权活动家、LGBTQ 人士、青年代表和其他团体对其手机扫描工具带来的危险的担忧。 但该公司必须不仅仅只是倾听,而且必须放弃在其加密中完全设置后门的计划。 苹果一个月前宣布的旨在帮助保护儿童的功能将创建一个很容易重定向到加强监视和审查的基础设施。 这些措施将对隐私和安全造成巨大威胁 苹果用户,为专制政府提供一个新的大规模监视系统来监视公民。

我们将继续关注 这场争夺隐私与安全的斗争。 两个基本价值观和权利是面对面的。


购买域名
你对。。。感兴趣:
成功启动网站的秘诀

发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责数据:MiguelÁngelGatón
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。