Réponses et questions sur le prochain système de protection de l'enfance chez Apple

Icône Photos pour macOS

Apple a annoncé trois nouvelles fonctionnalités qui ciblent la protection des enfants sur ses appareils. L'idée en elle-même est fantastique. Cependant, il y a ceux qui en ont profité pour mettre le doigt sur la plaie. Il se demande si ce que veut faire Apple n'est pas plus un surveillance secrète reléguant la confidentialité du Mac, iPad ou iPhone en arrière-plan. Pour ce faire, les responsables de cette nouvelle fonctionnalité se sont donné beaucoup de mal pour expliquer son fonctionnement.

Erik Neuenschwander explique comment son système fonctionne pour augmenter la protection de l'enfance

CASS

On parle de la nouvelle fonctionnalité qui entrera en vigueur aux États-Unis à l'automne et dont le but est de protection des enfants contre les abus sexuels. Il se concentre sur l'application photos, iMessage, Siri et la recherche. Cela affecte donc tous les appareils Apple dans lesquels ces applications interviennent. On parle donc de Mac, qui bien que ce ne soit pas l'appareil par excellence pour prendre des photos, c'est pour les enregistrer et les classer, en plus de la synchronisation existante via iCloud. L'utilisation d'iMessage, Siri mais surtout la commande de recherche.

Le système de détection appelé CSAM cela fonctionne principalement dans iCloud Photos. Un système de détection appelé NeuralHash identifie et compare avec le National Center for Missing & Exploited Children IDs pour détecter les abus sexuels et contenus similaires dans les photothèques iCloud, mais aussi la sécurité des communications dans iMessage.

Un parent peut activer cette fonctionnalité sur son appareil pour les enfants de moins de 13 ans. Il alertera lorsqu'il détectera qu'une image qu'ils vont voir est explicite. Cela affectera également Siri et le système de recherche comme lorsqu'un utilisateur essaie de rechercher des termes associés via Siri et la commande de recherche.

Neuenschwander explique pourquoi Apple a annoncé la fonctionnalité de sécurité des communications dans iMessage ainsi que la fonction de détection CSAM dans iCloud Photos :

Aussi important qu'il soit d'identifier les collections CSAM connues où elles sont stockées dans le service photo iCloud d'Apple, il est également important d'essayer d'aller de l'avant dans cette situation déjà horrible. Il est également important de faire des choses pour intervenir plus tôt lorsque les gens commencent à entrer dans cette zone gênante et nuisible. S'il y a déjà des gens qui essaient d'amener les enfants dans des situations où des abus peuvent se produire. La sécurité des messages et nos interventions sur Siri et la recherche affectent réellement ces parties du processus. Nous essayons donc vraiment de perturber les cycles qui mènent au CSAM qui pourrait finalement être détecté par notre système.

« La vie privée sera intacte pour tous ceux qui ne participent pas à des activités illégales »

Expression difficile. Neuenschwander a ainsi défini et défendu la position d'Apple contre ceux qui accusent l'entreprise d'ouvrir une porte dérobée pour espionner ses utilisateurs. Le responsable de la sécurité défend que la sécurité existera et que la confidentialité sera préservée pour ceux qui ne commenteront pas les illégalités. Très bien si cela n'avait aucun défaut Mais qui me dit que le système n'est pas imparfait ?

¿Il faut faire confiance à Apple si un gouvernement tente d'intervenir dans ce nouveau système?

Neuenschwander répond en disant qu'en principe, il n'est lancé que pour les comptes iCloud aux États-Unis, donc les lois locales n'offrent pas ces types de capacités au gouvernement fédéral. Pour l'instant, seuls les résidents des États-Unis seront soumis à cet examen minutieux. Mais il ne répond pas et ne précise pas ce qui se passera à l'avenir lorsqu'il sera lancé dans d'autres pays. Même si cela prendra du temps, puisque cela dépendra des lois de chacun d'eux. La conduite décrite dans les codes pénaux de chaque pays diffère en ce qui est un crime, donc l'algorithme d'Apple devrait être adapté à chaque situation juridique et cela ne devrait pas être facile du tout.

La chose la plus importante dans cette affaire est la suivante : iCloud est la clé. Si les utilisateurs n'utilisent pas les photos iCloud, NeuralHash ne s'exécutera pas et ne générera aucune invite. La découverte CSAM est un hachage neuronal qui est comparé à une base de données de hachages CSAM connus qui font partie de l'image du système d'exploitation. Rien ne fonctionnera si iCloud Photos n'est pas utilisé.

Controversé sans aucun doute. Un bon objectif mais avec quelques échappatoires Pensez-vous que la vie privée est en cause? Vaut la peine?


Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données: Miguel Ángel Gatón
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.