Les plans de protection de l'enfance d'Apple, presque personne ne semble aimer

CS

Apple a décidé unilatéralement de proposer un système de protection des enfants (CSAM). Comment? Grâce à une inspection automatique des photos téléchargées sur iCloud. De cette façon, on sait s'il y a une image déplacée et qui nuit à ces nourrissons. La nouvelle n'a plu à presque personne. C'est une violation de la vie privée de l'utilisateur. Mais on pourrait dire que la fin justifie les moyens ? Même l'EFF ne veut pas que cette idée d'Apple se concrétise.

De nombreuses associations dont l'EFF ne veulent pas que cette idée d'Apple sur CSAM se concrétise

L'objectif d'Apple est de faire en sorte que les gens se sentent sûr et responsabilisé grâce à la technologie. « Nous voulons aider à protéger les enfants contre les prédateurs qui utilisent des outils de communication pour les recruter et les exploiter, et limiter la propagation du matériel pédopornographique (CSAM). C'est pourquoi Apple introduit de nouvelles fonctionnalités de sécurité pour les enfants dans trois domaines : 

  1. Maire Contrôle parental
  2. Grâce à l'apprentissage automatique de la Application de messagerie. Avertir du contenu confidentiel
  3. Apple obtient des informations sur les collections CSAM sur Photos chez ICloud que vous partagerez avec les autorités.

C'est là que surviennent les plus gros problèmes. Apple est censé être le paradigme de la confidentialité à la fois hors ligne et en ligne. Pourtant, avec ces nouvelles méthodes, force est de constater que pour l'entreprise américaine, la fin justifie les moyens. La vie privée des utilisateurs est envahie au nom de la protection des enfants. Je ne sais pas si c'est une bonne ou une mauvaise idée. Mais ce qui semble avoir une fin louable, cela devient une épreuve pour Apple.

Au moment où l'initiative est arrêtée, car il est censé être mis en œuvre plus tard, mais le problème le plus sous-jacent est qu'il y a beaucoup d'entreprises, d'organisations et de particuliers qui crient au ciel. Ici on pourrait penser que si "on n'a rien à cacher, il ne faut pas craindre cette technique car ils ne trouveront jamais rien". Mais la peur qui donne, c'est qu'il s'embrouille et trouve quelque chose qu'il n'est pas. Les machines sont bonnes mais pas infaillibles. Et nous revenons aussi à la question habituelle. La fin justifie les moyens?.

L'une des organisations qui se déclare contre cette initiative d'Apple est le Electronic Frontier Foundation (EFF). Il a demandé à Apple d'abandonner complètement son projet de sécurité des enfants. Le groupe dit qu'il est "par chance" que la décision d'Apple soit en attente pour le moment. Mais il appelle les plans, qui incluent l'analyse des images d'utilisateurs à la recherche de matériel pédopornographique (CSAM), "une diminution de la confidentialité pour tous les utilisateurs d'iCloud Photos". La pétition de l'EFF contre l'annonce originale d'Apple contient désormais plus de 25.000 50.000 signatures. Un autre, lancé par des groupes comme Fight for the Future et OpenMedia, en contient plus de XNUMX XNUMX.

Nombreuses sont les personnes qui ont signé contre cette initiative. Ce n'est peut-être pas un nombre significatif par rapport aux ventes d'appareils d'Apple, mais ils sont suffisants pour prendre en compte sa position et ses approches. Certains experts ont averti que la fonctionnalité pourrait être étendue pour trouver d'autres éléments plus tard si Apple cédait à la pression inévitable des gouvernements.

L'EFF est heureux qu'Apple soit désormais à l'écoute des préoccupations des clients, des chercheurs, des organisations de défense des libertés civiles, des militants des droits humains, des personnes LGBTQ, des représentants de la jeunesse et d'autres groupes, concernant les dangers posés par ses outils d'analyse téléphonique. Mais l'entreprise doit aller au-delà de la simple écoute et abandonner complètement son projet de mettre une porte dérobée sur son cryptage. Les fonctionnalités annoncées par Apple il y a un mois, destinées à aider à protéger les enfants, créeraient une infrastructure trop facile à rediriger vers une surveillance et une censure accrues. Les mesures créeraient une énorme menace pour la vie privée et la sécurité des utilisateurs d'Apple, offrant aux gouvernements autoritaires un nouveau système de surveillance de masse pour espionner les citoyens.

Nous resterons attentifs à cette lutte pour la confidentialité contre la sécurité. Deux valeurs et droits fondamentaux mis face à face.


Acheter un domaine
Ça t'intéresse:
Les secrets pour réussir le lancement de votre site internet

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont marqués avec *

*

*

  1. Responsable des données: Miguel Ángel Gatón
  2. Finalité des données: Contrôle du SPAM, gestion des commentaires.
  3. Légitimation: votre consentement
  4. Communication des données: Les données ne seront pas communiquées à des tiers sauf obligation légale.
  5. Stockage des données: base de données hébergée par Occentus Networks (EU)
  6. Droits: à tout moment, vous pouvez limiter, récupérer et supprimer vos informations.