Continua la polemica sul sistema di rilevamento della pedopornografia di Apple

Foto di MacBook Air

Da quando Apple ha annunciato il rilevamento di materiale pedopornografico per iOS, iPadOS e macOS All'inizio di questo mese si è discusso molto. Non solo tra gli esperti di sicurezza, ma anche tra gli stessi dipendenti di Apple che hanno chiesto ad Apple di non implementarlo.

Gli ultimi ad unirsi al malessere per l'attuazione di questo sistema sono più di 90 gruppi per i diritti civili. Hanno scritto una lettera aperta ad Apple, chiedendole di tornare sui suoi piani CSAM (Child Sexual Abuse Material). La ragione per cui alludono è che questo sistema può essere sfruttato per altri scopi.

Cos'è CSAM?

CASS

CSAM, tradotto come materiale sugli abusi sessuali su minori, è un catalogo di fotografie con contenuto di pedopornografia, conosciuto, preparato e aggiornato periodicamente da diverse associazioni e il cui contenuto è controllato dal Centro nazionale per i bambini scomparsi e sfruttati (NCMEC).

Ciascuna delle fotografie archiviate in questo database ha una firma digitale unica, una firma digitale che verrà confrontato con le immagini delle foto archiviate negli account degli utenti iCloud. Se viene rilevata una corrispondenza, l'accesso all'account dell'utente verrà bloccato e le autorità verranno informate.

Google, Dropbox e Microsoft utilizzano da tempo questo sistema di tracciamento delle immagini per gli account utente, ma Apple ha fatto un ulteriore passo avanti e ha creato un nuovo sistema chiamato NeuralHash, un sistema che analizza il cloud crittografato dell'utente, in teoria, cercando questo tipo di immagini e a cui nemmeno la stessa Apple ha accesso.

Sconvolto dalle organizzazioni per i diritti civili

Tra alcuni dei firmatari di questa lettera sono l'American Civil Liberties Union, la Canadian Civil Liberties Association, l'organizzazione australiana Digital Rights Watch, la British Liberty, la Privacy International...

La lettera inizia evidenziando le capacità di NeuralHash, affermando che:

Sebbene le capacità abbiano lo scopo di proteggere i bambini e ridurre la diffusione di materiale sugli abusi sessuali su minori (CSAM), siamo preoccupati che venga utilizzato per censurare l'espressione protetta, minacciare la privacy e la sicurezza delle persone in tutto il mondo e avere conseguenze disastrose per molti bambini .

Una volta che questa funzionalità sarà incorporata nei prodotti Apple, l'azienda e i suoi concorrenti dovranno affrontare un'enorme pressione - e potenzialmente requisiti legali - da parte dei governi di tutto il mondo per scansionare foto non solo per CSAM, ma anche di altre immagini che un governo considera discutibili.

Queste immagini possono essere di violazioni dei diritti umani, proteste politiche, immagini che le aziende hanno etichettato come "terroristi" o contenuti estremisti violenti, o anche immagini poco lusinghiere dei politici stessi che faranno pressione sull'azienda per scansionarli.

Queste 90 organizzazioni sostengono che la ricerca di fotografie potrebbe essere esteso alle immagini memorizzate sul dispositivo, non solo quelli che sono archiviati in iCloud, quindi Apple potrebbe aver creato le basi per la censura, la sorveglianza e la persecuzione in tutto il mondo.

Va da sé che quando un governo spinge Apple a concedere l'accesso ai contenuti dei suoi utenti, come la Cina o la Russia, Apple china la testa e soddisfa le sue richieste. Chi ci assicura che Apple non seguirà questa stessa politica con altri paesi?

La lettera prosegue affermando che questo sistema metterà a rischio i bambini:

Il sistema sviluppato da Apple presuppone che gli account "genitore" e "figlio" coinvolti appartengano effettivamente a un adulto che è il genitore di un bambino e che questi individui abbiano una relazione sana.

Questo non è sempre il caso; un adulto violento potrebbe essere l'organizzatore dell'account e le conseguenze della notifica ai genitori potrebbero minacciare la sicurezza e il benessere del bambino. I giovani LGBTQ + nei conti familiari con genitori antipatici sono particolarmente a rischio

La lettera termina notando che, nonostante gli sforzi di Apple per ridurre gli abusi sui minori, l'azienda deve rimanere fermo nella politica sulla privacy che ha costruito negli ultimi anni.

Sosteniamo gli sforzi per proteggere i bambini e ci opponiamo con forza alla proliferazione di CSAM. Ma i cambiamenti annunciati da Apple mettono a rischio bambini e altri utenti, sia ora che in futuro. Esortiamo Apple ad abbandonare tali modifiche e a riaffermare l'impegno dell'azienda a proteggere i propri utenti con la crittografia end-to-end. Esortiamo inoltre Apple a consultare più regolarmente i gruppi della società civile e le comunità vulnerabili che potrebbero essere colpite in modo sproporzionato dalle modifiche ai suoi prodotti e servizi.

Messaggi

App Messaggi

Apple introdurrà questa nuova funzionalità con il rilascio di macOS Monterey, iOS 15 e iPadOS 15, una funzione che è accompagnata da un sistema che rileverà la diffusione di materiale sessuale infantile attraverso l'applicazione Messaggi e che avviserà il genitore o il tutore se il minore ha ricevuto immagini classificate come sessualmente implicite.

Queste immagini appariranno inizialmente sfocate e attraverso un messaggio verrà spiegato al minore (se ha 12 anni o meno) che l'immagine non è adatta a lui. Se scegli di visualizzarlo, i genitori riceveranno una notifica insieme all'immagine. In questo senso, sarebbe più opportuno che sono stati i genitori a dare il via libera al minore per avere accesso all'immagine.

Immagini ricevute tramite l'applicazione Messaggi, verrà scansionato sul dispositivo e quell'informazione non uscirà da lì. Né le autorità né Apple saranno a conoscenza dell'evento.

Siri

Siri

Anche Siri si è unita alla lotta contro la pedopornografia. Con il rilascio di iOS 15, iPadOS 15 e macOS Monterrey, se un utente cerca questo tipo di contenuto, riceverai una notifica che ti informa che stai effettuando una ricerca di materiale ritenuto illegale e ti informerà su dove puoi trovare aiuto e i mezzi per segnalare tali contenuti.

Questo processo, come l'analisi delle immagini ricevute tramite l'applicazione Messaggi, verrà effettuato internamente al dispositivo, all'insaputa di Apple o delle autorità.


Acquista un dominio
Sei interessato a:
I segreti per lanciare con successo il tuo sito web

Lascia un tuo commento

L'indirizzo email non verrà pubblicato. I campi obbligatori sono contrassegnati con *

*

*

  1. Responsabile dei dati: Miguel Ángel Gatón
  2. Scopo dei dati: controllo SPAM, gestione commenti.
  3. Legittimazione: il tuo consenso
  4. Comunicazione dei dati: I dati non saranno oggetto di comunicazione a terzi se non per obbligo di legge.
  5. Archiviazione dati: database ospitato da Occentus Networks (UE)
  6. Diritti: in qualsiasi momento puoi limitare, recuperare ed eliminare le tue informazioni.