Kontroverse über Apples Erkennungssystem für Kinderpornografie geht weiter

MacBook Air Fotos

Seit Apple die Erkennung von Material zum sexuellen Missbrauch von Kindern für iOS, iPadOS und macOS Anfang des Monats gab es viele Diskussionen. Nicht nur unter Sicherheitsexperten, sondern sogar unter Apples eigenen Mitarbeitern, die Apple aufgefordert haben, es nicht umzusetzen.

Die letzten, die sich der Malaise über die Implementierung dieses Systems anschließen, sind mehr als 90 Bürgerrechtsgruppen. Sie haben Apple einen offenen Brief geschrieben, in dem sie gebeten werden, seine CSAM-Pläne (Child Sexual Abuse Material) zurückzuverfolgen. Der Grund, warum sie anspielen, ist, dass dieses System für andere Zwecke ausgenutzt werden kann.

Was ist CSAM?

CASS

CSAM, übersetzt als Material zum sexuellen Missbrauch von Kindern, ist a Katalog von Fotografien mit kinderpornografischen Inhalten, bekannt, aufbereitet und aktualisiert regelmäßig von verschiedenen Verbänden und deren Inhalt vom National Center for Missing and Exploited Children (NCMEC) kontrolliert wird.

Jedes der in dieser Datenbank gespeicherten Fotos hat eine eindeutige digitale Signatur, eine digitale Signatur, die es wird mit den Bildern der Fotos verglichen, die in den Konten der iCloud-Benutzer gespeichert sind. Wird eine Übereinstimmung festgestellt, wird der Zugang zum Benutzerkonto gesperrt und die Behörden benachrichtigt.

Google, Dropbox und Microsoft verwenden dieses Bildverfolgungssystem schon seit einiger Zeit für Benutzerkonten, aber Apple ist noch einen Schritt weiter gegangen und hat ein neues System namens NeuralHash entwickelt, ein System, das die verschlüsselte Cloud des Benutzers theoretisch analysiert und nach solchen Bildern sucht, auf die nicht einmal Apple selbst Zugriff hat.

Verärgert über Bürgerrechtsorganisationen

Zwischen einige der Unterzeichner dieses Briefes sind die American Civil Liberties Union, die Canadian Civil Liberties Association, die australische Organisation Digital Rights Watch, die British Liberty, Privacy International ...

Der Brief beginnt mit der Hervorhebung der Fähigkeiten von NeuralHash und besagt, dass:

Obwohl die Fähigkeiten dazu bestimmt sind, Kinder zu schützen und die Verbreitung von Material zum sexuellen Missbrauch von Kindern (CSAM) zu reduzieren, befürchten wir, dass es verwendet wird, um geschützte Meinungsäußerungen zu zensieren, die Privatsphäre und Sicherheit von Menschen auf der ganzen Welt zu bedrohen und katastrophale Folgen für viele Kinder haben .

Sobald diese Fähigkeit in Apple-Produkte integriert ist, werden das Unternehmen und seine Konkurrenten einem enormen Druck – und möglicherweise rechtlichen Anforderungen – von Regierungen auf der ganzen Welt ausgesetzt sein, Fotos nicht nur für CSAM, sondern auch von anderen Bildern zu scannen, die eine Regierung für fragwürdig hält.

Diese Bilder können Menschenrechtsverletzungen, politische Proteste, Bilder sein, die Unternehmen als „terroristisch“ oder gewalttätige extremistische Inhalte bezeichnet haben, oder sogar wenig schmeichelhafte Bilder der Politiker selbst, die das Unternehmen unter Druck setzen, sie zu scannen.

Diese 90 Organisationen behaupten, dass die Suche nach Fotos könnte auf auf dem Gerät gespeicherte Bilder erweitert werden, nicht nur die, die in iCloud gespeichert sind, so hat Apple möglicherweise die Grundlage für Zensur, Überwachung und Verfolgung weltweit geschaffen.

Es versteht sich von selbst, dass, wenn eine Regierung Apple drängt, Zugriff auf die Inhalte seiner Nutzer zu gewähren, wie China oder Russland, Apple senkt den Kopf und erfüllt Ihre Ansprüche. Wer versichert uns, dass Apple diese Richtlinie nicht mit anderen Ländern befolgen wird?

In dem Brief heißt es weiter, dass dieses System Kinder gefährdet:

Das von Apple entwickelte System geht davon aus, dass die beteiligten "Eltern"- und "Kind"-Konten tatsächlich einem Erwachsenen gehören, der Elternteil eines Kindes ist, und dass diese Personen eine gesunde Beziehung haben.

Dies ist nicht immer der Fall; ein missbräuchlicher Erwachsener kann der Organisator des Kontos sein, und die Folgen einer Benachrichtigung der Eltern könnten die Sicherheit und das Wohl des Kindes gefährden. LGBTQ+ Jugendliche in Familienkonten mit unsympathischen Eltern sind besonders gefährdet

Der Brief endet mit der Feststellung, dass das Unternehmen trotz der Bemühungen von Apple, Kindesmissbrauch zu reduzieren, muss in der Datenschutzerklärung fest bleiben die er in den letzten Jahren aufgebaut hat.

Wir unterstützen Bemühungen zum Schutz von Kindern und lehnen die Verbreitung von CSAM entschieden ab. Aber die von Apple angekündigten Änderungen gefährden jetzt und in Zukunft Kinder und andere Benutzer. Wir fordern Apple nachdrücklich auf, diese Änderungen aufzugeben und das Engagement des Unternehmens zum Schutz seiner Benutzer mit Ende-zu-Ende-Verschlüsselung zu bekräftigen. Wir fordern Apple außerdem auf, sich regelmäßiger mit Gruppen der Zivilgesellschaft und gefährdeten Gemeinschaften zu beraten, die möglicherweise unverhältnismäßig stark von Änderungen an seinen Produkten und Dienstleistungen betroffen sind.

Beiträge

Nachrichten App

Apple wird diese neue Funktion einführen mit der Veröffentlichung von macOS Monterey, iOS 15 und iPadOS 15, eine Funktion, die von einem System begleitet wird, das die Verbreitung von sexuellem Material von Kindern über die Nachrichten-Anwendung erkennt und die Eltern oder Erziehungsberechtigten benachrichtigt, wenn der Minderjährige als sexuell implizit eingestufte Bilder erhalten hat.

Diese Bilder erscheinen zunächst verschwommen und durch eine Nachricht wird dem Minderjährigen (sofern er 12 Jahre oder jünger ist) erklärt, dass das Bild nicht für ihn geeignet ist. Wenn Sie es anzeigen möchten, erhalten die Eltern zusammen mit dem Bild eine Benachrichtigung. In diesem Sinne wäre es ratsamer, dass es waren die Eltern, die dem Minderjährigen den Zugang zum Bild gegeben haben.

Bilder, die über die Nachrichtenanwendung empfangen wurden, wird auf dem Gerät gescannt und diese Informationen werden dort nicht herauskommen. Weder die Behörden noch Apple werden von dem Vorfall Kenntnis haben.

Siri

Siri

Auch Siri hat sich dem Kampf gegen Kinderpornografie angeschlossen. Mit der Veröffentlichung von iOS 15, iPadOS 15 und macOS Monterrey, wenn ein Benutzer nach dieser Art von Inhalten sucht, Sie erhalten eine Benachrichtigung, die Sie darüber informiert, dass Sie nach als illegal eingestuftem Material suchen und informiert Sie darüber, wo Sie Hilfe finden und wie Sie solche Inhalte melden können.

Dieser Vorgang wird, ebenso wie die Analyse der über die Messages-Anwendung empfangenen Bilder, intern auf dem Gerät durchgeführt. ohne Wissen von Apple oder den Behörden.


Domäne kaufen
Du bist interessiert in:
Die Geheimnisse für den erfolgreichen Start Ihrer Website

Hinterlasse einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert mit *

*

*

  1. Verantwortlich für die Daten: Miguel Ángel Gatón
  2. Zweck der Daten: Kontrolle von SPAM, Kommentarverwaltung.
  3. Legitimation: Ihre Zustimmung
  4. Übermittlung der Daten: Die Daten werden nur durch gesetzliche Verpflichtung an Dritte weitergegeben.
  5. Datenspeicherung: Von Occentus Networks (EU) gehostete Datenbank
  6. Rechte: Sie können Ihre Informationen jederzeit einschränken, wiederherstellen und löschen.