Appleの児童ポルノ検出システムをめぐる論争は続く

MacBookAirの写真

Appleが発表してから iOS、iPadOS、macOSの児童性的虐待資料の検出 今月初め、多くの議論がありました。 セキュリティの専門家の間だけでなく、Appleにそれを実装しないように依頼したApple自身の従業員の間でも。

このシステムの実装をめぐる倦怠感に最後に加わったのは 90の公民権団体。 彼らはAppleに公開書簡を書き、CSAM(児童性的虐待資料)計画をさかのぼるように求めた。 彼らがほのめかしている理由は、このシステムが他の目的に悪用される可能性があるからです。

CSAMとは何ですか?

キャス

児童性的虐待資料として翻訳されたCSAMは、 児童ポルノの内容を含む写真のカタログ、既知、準備、更新 さまざまな協会によって定期的に運営されており、その内容は全米行方不明・搾取児童センター(NCMEC)によって管理されています。

このデータベースに保存されている各写真には、固有のデジタル署名があります。 iCloudユーザーのアカウントに保存されている写真の画像と比較されます。 一致が検出されると、ユーザーのアカウントへのアクセスがブロックされ、当局に通知されます。

Google、Dropbox、Microsoftは、この画像追跡システムをユーザーアカウントに使用してきましたが、Appleはさらに一歩進んで は、NeuralHashと呼ばれる新しいシステムを作成しました。これは、理論上、ユーザーの暗号化されたクラウドを分析し、これらのタイプの画像を探し、Apple自体もアクセスできないシステムです。

公民権団体からの動揺

間に この手紙の署名者の一部 アメリカ自由人権協会、カナダ自由人権協会、オーストラリアの組織Digital Rights Watch、イギリスの自由、プライバシーインターナショナル...

この手紙は、NeuralHashの機能を強調することから始まり、次のように述べています。

機能は子供を保護し、児童性的虐待資料(CSAM)の拡散を減らすことを目的としていますが、保護された表現を検閲し、世界中の人々のプライバシーと安全を脅かし、多くの子供に悲惨な結果をもたらすことを懸念しています。 。

この機能がApple製品に組み込まれると、同社とその競合他社は、CSAMだけでなく、政府が疑わしいと見なす他の画像の写真をスキャンするという、世界中の政府からの大きな圧力に直面します。

これらの画像は、人権侵害、政治的抗議、企業が「テロリスト」または暴力的な過激主義のコンテンツとしてラベル付けした画像、あるいは企業にスキャンを迫る政治家自身の不愉快な画像である可能性があります。

これらの90の組織は、写真の検索は デバイスに保存されている画像に拡張できます、iCloudに保存されているものだけでなく、Appleは世界中で検閲、監視、迫害の基盤を作ったのかもしれません。

言うまでもなく、政府がAppleに、中国やロシアなどのユーザーのコンテンツへのアクセスを許可するように要求した場合、 アップルは頭を下げてあなたの要求に応えます。 Appleが他の国々と同じ方針に従わないことを誰が私たちに保証しますか?

手紙はさらに、このシステムが子供たちを危険にさらすだろうと述べています:

Appleが開発したシステムは、関係する「親」アカウントと「子」アカウントが実際には子供の親である大人に属し、これらの個人が健全な関係にあることを前提としています。

これは常に当てはまるわけではありません。 虐待的な大人がアカウントの主催者である可能性があり、親に通知した結果、子供の安全と幸福が脅かされる可能性があります。 LGBTQ +思いやりのない親を持つ家族のアカウントの若者は、特に危険にさらされています

手紙は、Appleが児童虐待を減らす努力をしているにもかかわらず、同社は プライバシーポリシーを堅持する必要があります 彼が近年構築したこと。

私たちは子供たちを保護するための努力を支持し、CSAMの拡散に強く反対します。 しかし、Appleが発表した変更は、現在も将来も、子供や他のユーザーを危険にさらします。 Appleには、これらの変更を放棄し、エンドツーエンドの暗号化でユーザーを保護するという同社の取り組みを再確認することをお勧めします。 また、Appleには、製品やサービスの変更によって不釣り合いに影響を受ける可能性のある市民社会グループや脆弱なコミュニティとより定期的に協議することをお勧めします。

投稿

メッセージアプリ

Appleはこの新機能を導入します macOS Monterey、iOS 15、およびiPadOS15のリリースに伴い、メッセージアプリケーションを介して子供の性的素材の配布を検出し、未成年者が性的に暗示的と分類された画像を受け取った場合に親または保護者に通知するシステムを伴う機能。

これらの画像は最初はぼやけて表示され、メッセージを通じて、未成年者(12歳以下の場合)に画像が適切でないことが説明されます。 表示することを選択した場合、保護者は画像とともに通知を受け取ります。 この意味で、 未成年者が画像にアクセスできるようにするためのゴーサインを出したのは両親でした.

メッセージアプリケーションを介して受信した画像、 デバイスでスキャンされます そしてその情報はそこから出てくることはありません。 当局もAppleもこの出来事についての知識を持っていません。

シリ

シリ

Siriは児童ポルノとの戦いにも参加しています。 iOS 15、iPadOS 15、およびmacOS Monterreyのリリースでは、ユーザーがこのタイプのコンテンツを検索すると、 違法とみなされる資料を検索していることを通知する通知を受け取ります そしてそれはあなたが助けを見つけることができる場所とそのような内容を報告する手段をあなたに知らせます。

このプロセスは、メッセージアプリケーションを介して受信した画像の分析と同様に、デバイスの内部で実行されます。 Appleや当局の知識がなくても。


ドメインを購入する
に興味がある:
ウェブサイトを成功させる秘訣

コメントを残す

あなたのメールアドレスが公開されることはありません。 必須フィールドには付いています *

*

*

  1. データの責任者:MiguelÁngelGatón
  2. データの目的:SPAMの制御、コメント管理。
  3. 正当化:あなたの同意
  4. データの伝達:法的義務がある場合を除き、データが第三者に伝達されることはありません。
  5. データストレージ:Occentus Networks(EU)がホストするデータベース
  6. 権利:いつでも情報を制限、回復、削除できます。