El servicio de almacenamiento en la nube de Apple, servicio que se ha convertido en el compañero ideal para cualquier usuarios de un producto de Apple, gracias a la sincronización que nos ofrece no solo de nuestros contactos, agenda, calendario y archivos sino también de las fotografías y vídeo que hacemos con nuestro iPhone, iPad o iPod touch.
Según afirma la publicación The Telegraph, Apple escanea de forma automática todas las imágenes que se encuentran almacenadas en iCloud, para comprobar si alguno de sus usuarios almacena imágenes o vídeos de pornografía infantil. Este proceso se realiza a través de algoritmos, no mediante personas, por lo que nuestra privacidad no se invade en ningún momento.
En la web de Apple, concretamente en la sección legal de la empresa, encontramos una sección titulada Nuestro compromiso con la seguridad de los niños donde podemos leer:
Apple se dedica a proteger a los niños en todo nuestro ecosistema dondequiera que se utilicen nuestros productos, y seguimos apoyando la innovación en este espacio. Hemos desarrollado protecciones sólidas en todos los niveles de nuestra plataforma de software y en toda nuestra cadena de suministro.
Como parte de este compromiso, Apple utiliza la tecnología de comparación de imágenes para ayudar a encontrar y denunciar la explotación infantil. Al igual que los filtros de spam en el correo electrónico, nuestros sistemas utilizan firmas electrónicas para encontrar sospechas de explotación infantil.
Validamos cada coincidencia con una revisión individual. Las cuentas con contenido de explotación infantil violan nuestros términos y condiciones de servicio, y cualquier cuenta que encontremos con este material será desactivada.
Cabe recordar que Apple no es la única empresa que realiza este tipo de análisis de las imágenes almacenadas en sus servidores. Microsoft, al igual que Dropbox y Google, también escanean a través de algoritmos las imágenes manteniendo en todo momento la privacidad del usuarios.
Sé el primero en comentar