Continúa a controversia sobre o sistema de detección de pornografía infantil de Apple

Fotos do MacBook Air

Desde que Apple anunciou o detección de material de abuso sexual infantil para iOS, iPadOS e macOS A principios deste mes houbo moito debate. Non só entre expertos en seguridade, senón incluso entre os propios empregados de Apple que pediron a Apple que non o implementase.

Os últimos en sumarse ao malestar pola implementación deste sistema son máis que 90 grupos de dereitos civís. Escribiron unha carta aberta a Apple pedíndolle que retroceda nos seus plans CSAM (Material Sexual Abuse Material). A razón pola que aluden é que este sistema pode ser explotado con outros fins.

Que é CSAM?

CSAM

CSAM, traducido como Material de abuso sexual infantil, é un catálogo de fotografías con contido de pornografía infantil, coñecido, preparado e actualizado periodicamente por diferentes asociacións e cuxo contido está controlado polo Centro Nacional de Nenos Desaparecidos e Explotados (NCMEC).

Cada unha das fotografías almacenadas nesta base de datos ten unha sinatura dixital única, unha sinatura dixital que compararase coas imaxes das fotos almacenadas nas contas dos usuarios de iCloud. Se se detecta unha coincidencia, bloquearase o acceso á conta do usuario e avisarase ás autoridades.

Google, Dropbox e Microsoft levan tempo usando este sistema de seguimento de imaxes para contas de usuario, pero Apple deu un paso máis e creou un novo sistema chamado NeuralHash, un sistema que analiza a nube cifrada do usuario, en teoría, buscando este tipo de imaxes e ao que nin sequera Apple ten acceso.

Malestar das organizacións de dereitos civís

Entre algúns dos asinantes desta carta son a American Civil Liberties Union, a Canadian Civil Liberties Association, a organización australiana Digital Rights Watch, a British Liberty, Privacy International ...

A carta comeza resaltando as capacidades de NeuralHash, afirmando que:

Aínda que as capacidades están destinadas a protexer aos nenos e reducir a propagación do material de abuso sexual infantil (CSAM), preocúpanos que se utilice para censurar a expresión protexida, ameazar a privacidade e seguridade das persoas de todo o mundo e ter consecuencias desastrosas para moitos nenos. .

Unha vez que esta capacidade se incorpore aos produtos de Apple, a compañía e os seus competidores enfrontaranse a unha enorme presión —e potencialmente requirimentos legais— dos gobernos de todo o mundo para escanear fotos non só CSAM, senón tamén doutras imaxes que un goberno considera cuestionables.

Esas imaxes poden ser abusos dos dereitos humanos, protestas políticas, imaxes que as empresas tildaron de contido terrorista ou extremista violento ou incluso imaxes pouco favorecedoras dos propios políticos que presionarán á compañía para que as escaneen.

Estas 90 organizacións afirman que a procura de fotografías podería estenderse ás imaxes almacenadas no dispositivo, non só aqueles que están almacenados en iCloud, polo que é posible que Apple creou a base para a censura, vixilancia e persecución en todo o mundo.

Non fai falta dicir que cando un goberno insta a Apple a conceder acceso ao contido dos seus usuarios, como China ou Rusia, Apple inclina a cabeza e cumpre coas súas demandas. Quen nos asegura que Apple non seguirá esta mesma política con outros países?

A carta indica que este sistema poñerá en risco aos nenos:

O sistema desenvolvido por Apple supón que as contas "pai" e "fillo" implicadas pertencen realmente a un adulto que é pai dun fillo e que estas persoas teñen unha relación sa.

Non sempre é así; un adulto maltratador pode ser o organizador da conta e as consecuencias de notificar aos pais poden ameazar a seguridade e o benestar do neno. A mocidade LGBTQ + nas contas familiares con pais insolidarios está especialmente en risco

A carta remata sinalando que a pesar dos esforzos de Apple para reducir o abuso infantil, a compañía debe manterse firme na política de privacidade que construíu nos últimos anos.

Apoiamos os esforzos para protexer aos nenos e opoñémonos firmemente á proliferación de CSAM. Pero os cambios anunciados por Apple poñen en risco aos nenos e outros usuarios, tanto agora como no futuro. Instamos a Apple a abandonar eses cambios e reafirmar o compromiso da compañía de protexer aos seus usuarios cun cifrado de extremo a extremo. Tamén instamos a Apple a consultar máis regularmente con grupos da sociedade civil e comunidades vulnerables que poidan verse desproporcionadamente afectados polos cambios nos seus produtos e servizos.

Mensaxes

Aplicación de mensaxes

Apple presentará esta nova característica co lanzamento de macOS Monterey, iOS 15 e iPadOS 15, unha función que se acompaña dun sistema que detectará a difusión de material sexual infantil a través da aplicación Mensaxes e que avisará ao pai ou ao titor se o menor recibiu imaxes clasificadas como sexualmente implícitas.

Estas imaxes aparecerán inicialmente borrosas e, a través dunha mensaxe, explicaráselle ao menor (se teñen 12 anos ou menos) que a imaxe non lles convén. Se elixe velo, os pais recibirán unha notificación xunto coa imaxe. Neste sentido, sería máis aconsellable que foron os pais os que deron o visto bo para que o menor tivese acceso á imaxe.

Imaxes recibidas a través da aplicación Mensaxes, escanearase no dispositivo e esa información non sairá de aí. Nin as autoridades nin Apple terán coñecemento do evento.

Siri

Siri

Siri tamén se uniu á loita contra a pornografía infantil. Co lanzamento de iOS 15, iPadOS 15 e macOS Monterrey, se un usuario busca este tipo de contido, recibirá unha notificación informándolle de que está a realizar unha busca de material considerado ilegal e informaralle de onde pode atopar axuda e os medios para informar dese contido.

Este proceso, como a análise de imaxes recibidas a través da aplicación Mensaxes, levarase a cabo internamente no dispositivo, sen o coñecemento de Apple nin das autoridades.


O contido do artigo adhírese aos nosos principios de ética editorial. Para informar dun erro faga clic en aquí.

Sexa o primeiro en opinar sobre

Deixa o teu comentario

Enderezo de correo electrónico non será publicado. Os campos obrigatorios están marcados con *

*

*

  1. Responsable dos datos: Miguel Ángel Gatón
  2. Finalidade dos datos: controlar SPAM, xestión de comentarios.
  3. Lexitimación: o seu consentimento
  4. Comunicación dos datos: os datos non serán comunicados a terceiros salvo obrigación legal.
  5. Almacenamento de datos: base de datos aloxada por Occentus Networks (UE)
  6. Dereitos: en calquera momento pode limitar, recuperar e eliminar a súa información.