Continua la polèmica pel sistema de detecció de pornografia infantil d'Apple

MacBook Air fotos

Des que Apple va anunciar la detecció de material d'abús sexual infantil per iOS, iPadOS i macOS a principis d'aquest mes, s'ha generat un ampli debat. No només entre els experts en seguretat, sinó fins i tot entre els propis empleats d'Apple que han demanat a Apple que no ho implementi.

Els últims a unir-se a l'malestar per la implementació d'aquest sistema són més de 90 grups de drets civils. Aquests han escrit una carta oberta a Apple, demanant-li que faci marxa enrere en els seus plans de CSAM (Child Sexual Abuse Material). El motiu que al·ludeixen és que aquest sistema pot ser explotat amb altres fins.

Què és CSAM?

CSAM

CSAM, traduït com Material d'abús sexual infantil, és un catàleg de fotografies amb contingut de pornografia infantil, conegut, elaborat i actualitzat periòdicament per diferents associacions i el contingut és controlat pel National Center for Missing and Exploited Children (NCMEC).

Cadascuna de les fotografies emmagatzemades en aquesta base de dades, té una signatura digital única, signatura digital que es compararà amb les imatges de les fotografies emmagatzemades en els comptes dels usuaris d'iCloud. Si es detecta alguna coincidència, es bloquejarà l'accés al compte de l'usuari i s'avisarà a les autoritats.

Google, Dropbox i Microsoft porten temps utilitzant aquest sistema de rastreig d'imatges en els comptes d'usuaris, però Apple ha anat un pas més enllà i ha creat un nou sistema batejat com NeuralHash, un sistema que analitza la, en teoria, núvol xifrada de l'usuari buscant aquest tipus d'imatges i la que ni la pròpia Apple té accés.

Malestar de les organitzacions de drets civils

Entre alguns dels signants d'aquesta carta es troben la Unió Americana de Llibertats Civils, l'Associació Canadenca de Llibertats Civils, l'organització australiana Digital Rights Watch, la britànica Liberty, Privacy International ...

La carta comença destacant les capacitats de NeuralHash, afirmant que:

Encara capacitats estan destinades a protegir els infants i reduir la difusió de material d'abús sexual infantil (CSAM), ens preocupa que s'utilitzin per censurar l'expressió protegida, amenaçar la privacitat i la seguretat de les persones a tot el món, i tenir conseqüències desastroses per a molts nens.

Una vegada que aquesta capacitat s'incorpori als productes d'Apple, l'empresa i els seus competidors s'enfrontaran a una enorme pressió -i potencialment a exigències legals- de governs de tot el món perquè escanejar les fotos no només a la recerca de CSAM, sinó també d'altres imatges que un govern consideri qüestionables.

Aquestes imatges poden ser d'abusos dels drets humans, protestes polítiques, imatges que les empreses han etiquetat com a contingut 'terrorista' o extremista violent, o fins i tot imatges poc afavoridores dels propis polítics que pressionaran a l'empresa perquè les escanegi.

Aquestes 90 organitzacions afirma que la recerca de fotografies podria estendre a les imatges emmagatzemes al dispositiu, No únicament les que s'emmagatzemen en iCloud, de manera que Apple pot haver creat les bases per a la censura vigilància i persecució a nivell mundial.

No cal recordar que quan un govern l'insta a Apple a concedir accés a el contingut dels seus usuaris, com ara la Xina o Rússia, Apple ajup el cap i compleix amb les seves exigències. Qui ens assegura que Apple no seguirà aquesta mateixa política amb altres països?

La carta continua afirmant que aquest sistema posarà en risc als nens:

El sistema que Apple ha desenvolupat suposa que els comptes de «pare» i «nen» implicades pertanyen realment a un adult que és el pare d'un nen, i que aquests individus tenen una relació sana.

Això no sempre és així; un adult abusiu pot ser l'organitzador del compte, i les conseqüències de la notificació als pares podrien amenaçar la seguretat i el benestar de l'infant. Els joves LGBTQ + en comptes familiars amb pares poc comprensius estan especialment en risc

La carta finalitza apuntant a que tot i els esforços per reduir l'abús de menors d'Apple, l'empresa ha de mantenir-se ferm en els política de privacitat que ha construït aquests darrers anys.

Donem suport als esforços per protegir els nens i ens oposem fermament a la proliferació de CSAM. Però els canvis que Apple ha anunciat posen en risc als nens i a la resta d'usuaris, tant ara com en el futur. Instem a Apple a que abandoni aquests canvis ja que reafirmi el compromís de la companyia de protegir els seus usuaris amb el xifrat d'extrem a extrem. També instem a Apple a que consulti amb més regularitat als grups de la societat civil ia les comunitats vulnerables que es puguin veure afectades de manera desproporcionada pels canvis en els seus productes i serveis.

Missatges

aplicació Missatges

Apple introduirà aquesta nova funció amb el llançament de macOS Monterey, iOS 15 i iPadOS 15, Una funció que va acompanyada d'un sistema que detectarà la difusió de material sexual infantil a través de l'aplicació Missatges i que notificarà a el pare o tutor si el menor ha rebut imatges catalogades com sexualment implícites.

Aquestes imatges es mostraran inicialment borroses ia través de missatge, s'explicarà a el menor (si té 12 anys o menys) que la imatge no és adequada per a ell. Si decideixi veure-la, els pares rebran una notificació juntament amb la imatge. En aquest sentit, seria més recomanable que fossin els pares qui donessin el vistiplau perquè el menor tingui accés a la imatge.

Les imatges que es rebin a través de l'aplicació de missatges, s'analitzaran en el dispositiu i aquesta informació no sortirà d'aquí. Ni les autoritats ni Apple tindran coneixement de l'succés.

Siri

Siri

Siri també s'ha unit a la lluita contra la pornografia infantil. Amb el llançament de iOS 15, iPadOS 15 i macOS Monterrey, si un usuari realitza una recerca d'aquest tipus de contingut, rebreu una notificació informant-li que està realitzant una recerca de material considerat com il·legal i l'informarà d'on pot trobar ajuda i de mitjans que li permetran denunciar aquest tipus de contingut.

Aquest procés, a l'igual que l'anàlisi d'imatges rebudes a través de l'aplicació de missatges, es realitzarà de forma interna al dispositiu, sense que Apple o les autoritats tinguin coneixement.


Comprar un domini
T'interessa:
Els secrets per llançar el teu lloc web amb èxit

Deixa el teu comentari

La seva adreça de correu electrònic no es publicarà. Els camps obligatoris estan marcats amb *

*

*

  1. Responsable de les dades: Miguel Ángel Gatón
  2. Finalitat de les dades: Controlar l'SPAM, gestió de comentaris.
  3. Legitimació: El teu consentiment
  4. Comunicació de les dades: No es comunicaran les dades a tercers excepte per obligació legal.
  5. Emmagatzematge de les dades: Base de dades allotjada en Occentus Networks (UE)
  6. Drets: En qualsevol moment pots limitar, recuperar i esborrar la teva informació.