Los planes para la protección de la infancia de Apple, parece no gustar a casi nadie

CS

Apple decidió de forma unilateral propone run sistema para proteger a la infancia (CSAM). ¿Cómo? A través de una inspección automática de las fotografías subidas a iCloud. De esa manera se sabe si existe alguna imagen fuera de lugar y que perjudique a esos infantes. La noticia no ha gustado a casi nadie. Supone una vulneración de la privacidad del usuario. Pero se podría hablar de que ¿el fin, justifica los medios?. Ni la EFF quiere que esta idea de Apple siga adelante.

Muchas asociaciones incluida la EFF no quieren que esta idea de Apple sobre CSAM siga adelante

El objetivo de Apple es conseguir que las personas se sientan seguras y empoderadas a través de la tecnología. «Queremos ayudar a proteger a los niños de los depredadores que utilizan herramientas de comunicación para reclutarlos y explotarlos, y limitar la propagación de Material de Abuso Sexual Infantil (CSAM). Por eso Apple está introduciendo nuevas características de seguridad infantil en tres áreas: 

  1. Mayor control parental
  2. A través del aprendizaje automático de la aplicación Mensajes. Advertirá sobre contenido confidencial
  3. Apple obtiene información sobre las colecciones de CSAM en Fotos de iCloud que compartirá con las autoridades.

Aquí es donde se está produciendo los mayores problemas. Se supone que Apple es el paradigma de la privacidad tanto offline como online. Sin embargo con estos nuevos métodos, queda claro que para la empresa americana, el fin sí justifica los medios. Se invade la privacidad del usuario por el bien de la protección de la infancia. No se si es buena o mala idea. Pero lo que parece tener un fin loable, se está convirtiendo en un calvario para Apple.

De momento la iniciativa está detenida, porque se supone que se implantará más adelante, pero el problema mas subyacente es que existen muchas empresas, organizaciones y personas privadas que están poniendo el grito en el cielo. Aquí podríamos pensar que si «no tenemos nada que esconder, no debemos temer a esta técnica porque nunca encontrarán nada». Pero el miedo que da, es que se confunda y encuentre algo que no es. LAs máquinas son buenas pero no infalibles. Y además volvemos a la pregunta de siempre. ¿El fin justifica los medios?.

Una de las organizaciones que se declara en contra de esta iniciativa de Apple es la Electronic Frontier Foundation (EFF). Ésta ha pedido a Apple que abandone por completo su proyecto de seguridad infantil. El grupo dice que está «de enhorabuena» de que el movimiento de Apple esté en espera por ahora. Pero llama a los planes, que incluyen escanear imágenes de usuarios en busca de material de abuso infantil (CSAM), «una disminución en la privacidad para todos los usuarios de iCloud Photos». La petición de la EFF contra el anuncio original de Apple ahora contiene más de 25.000 firmas. Otro, iniciado por grupos como Fight for the Future y OpenMedia, contiene más de 50.000.

Muchas son las personas que han firmado en contra de esta iniciativa. Puede que no sea un número significativo si lo comparamos con las ventas de dispositivos de Apple, pero si son los suficientes para tener en cuenta su posición y sus planteamientos. Algunos expertos han advertido que la función podría ampliarse para buscar otro material más adelante si Apple se inclina ante la inevitable presión que tendrá proveniente de los gobiernos.

EFF se complace de que Apple ahora esté escuchando las preocupaciones de clientes, investigadores, organizaciones de libertades civiles, activistas de derechos humanos, personas LGBTQ, representantes de jóvenes y otros grupos, sobre los peligros que representan sus herramientas de escaneo de teléfonos. Pero la compañía debe ir más allá de solo escuchar, y abandonar sus planes de poner una puerta trasera en su cifrado por completo. Las características que Apple anunció hace un mes, con la intención de ayudar a proteger a los niños, crearían una infraestructura que es demasiado fácil de redirigir a una mayor vigilancia y censura. Las medidas crearían un enorme peligro para la privacidad y seguridad de los usuarios de Apple, ofreciendo a los gobiernos autoritarios un nuevo sistema de vigilancia masiva para espiar a los ciudadanos.

Seguiremos atentos a esta lucha por la privacidad versus la seguridad. Dos valores y derechos fundamentales puestos frente a frente.


Comprar un dominio
Te interesa:
Los secretos para lanzar tu sitio web con éxito

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: Miguel Ángel Gatón
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.