Respuestas y preguntas al próximo sistema de protección infantil en Apple

Icono de Fotos para macOS

Apple anunció tres nuevas funciones que apuntan a la protección infantil en sus dispositivos. La idea en si misma es fantástica. Sin embargo hay quien ha aprovechado la ocasión para poner el dedo en la herida. Se cuestiona si lo que quiere hacer Apple no es más bien una vigilancia encubierta relegando la privacidad del Mac, iPad o iPhone en un segundo plano. Para ello, los encargados de esta nueva funcionalidad han salido al paso explicando cómo funciona.

Erik Neuenschwander explica cómo funciona su sistema para elevar la protección infantil

CSAM

Estamos hablando de la nueva funcionalidad que entrara en vigor en los EEUU en otoño y que tiene como finalidad la protección infantil ante abusos sexuales. Se centra en la aplicación fotos, iMessage, Siri y búsquedas. Por lo que afecta a todos los dispositivos de Apple en la que estas aplicaciones intervengan. Hablamos por tanto de los Mac, que aunque no es el dispositivo por excelencia para tomar fotos, sí lo es para guardarlas y clasificarlas, amén de la sincronización existente a través de iCloud. El uso de iMessage, Siri pero sobre todo del comando buscar.

El sistema de detección denominado CSAM trabaja fundamentalmente en Fotos de iCloud. Un sistema de detección llamado NeuralHash identifica y compara con las identificaciones del Centro nacional para niños desaparecidos y explotados para detectar contenido de abusos sexuales y similar contenido en las bibliotecas de fotos de iCloud, pero también en la seguridad de la comunicación en iMessage.

Un padre puede activar esta función en su dispositivo para niños menores de 13 años. Alertará cuando se detecte que una imagen que van a ver es explícita. También afectará a Siri y al sistema de búsqueda, ya que  cuando un usuario intenta buscar términos relacionados a través de Siri y el comando de búsqueda.

Neuenschwander explica por qué Apple anunció la función Seguridad de la comunicación en iMessage junto con la función Detección de CSAM en Fotos de iCloud:

Tan importante como es identificar las colecciones de CSAM conocidas donde se almacenan en el servicio de fotos de iCloud de Apple, también es importante tratar de avanzar en esa situación ya horrible. También es importante hacer cosas para intervenir antes cuando las personas comienzan a entrar en esta área problemática y dañina. Si ya hay personas que intentan  llevar a los niños a situaciones en las que puede ocurrir el abuso. La seguridad en los mensajes y nuestras intervenciones en Siri y la búsqueda en realidad afectan esas partes del proceso. Por lo tanto, realmente estamos tratando de interrumpir los ciclos que conducen a CSAM que, en última instancia, podrían ser detectados por nuestro sistema.

«La privacidad estará  intacta para todos los que no participan en actividades ilegales»

Difícil frase. Neuenschwander ha definido y defendido así la postura de Apple frente a quienes acusan a la empresa de abrir una puerta trasera para espiar a sus usuarios. El ejecutivo de seguridad defiende que la seguridad existirá y la privacidad se mantendrá para quienes no comentan ilegalidades. Muy bien si eso no tuviera ningún fallo ¿pero quién me dice a mi que el sistema no es imperfecto?

¿Se debe confiar en Apple si un gobierno intenta intervenir este nuevo sistema?

Neuenschwander  contesta diciendo que en principio se está lanzando solo para las cuentas de iCloud de los EEUU, por lo que las leyes locales no ofrecen este tipo de capacidades al gobierno federal. De momento sólo los residentes en los EEUU se someterán a este escrutinio. Pero no contesta y no deja claro que pasará en un futuro cuando se lance en otros países. Aunque eso tardará, ya que dependerá de las legislaciones de cada uno de ellos. La conducta descrita en los códigos penales de cada país difieren en lo que es delito, por lo que el algoritmo de Apple debería adaptarse a cada situación legal y eso no debe ser sencillo, para nada.

Lo más importante en este tema es el siguiente: iCloud es la clave. Si los usuarios no usan Fotos de iCloud, NeuralHash no se ejecutará y no generará ningún aviso. La detección de CSAM es un hash neuronal que se compara con una base de datos de los hash de CSAM conocidos que forman parte de la imagen del sistema operativo. Nada funcionará si no se está utilizando iCloud Photos.

Controvertido sin duda. Una buena finalidad pero con algunas lagunas ¿Piensas que la privacidad se ve en entredicho? ¿Merece la pena?


El contenido del artículo se adhiere a nuestros principios de ética editorial. Para notificar un error pincha aquí.

Sé el primero en comentar

Deja tu comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

*

*

  1. Responsable de los datos: Miguel Ángel Gatón
  2. Finalidad de los datos: Controlar el SPAM, gestión de comentarios.
  3. Legitimación: Tu consentimiento
  4. Comunicación de los datos: No se comunicarán los datos a terceros salvo por obligación legal.
  5. Almacenamiento de los datos: Base de datos alojada en Occentus Networks (UE)
  6. Derechos: En cualquier momento puedes limitar, recuperar y borrar tu información.