Kontroverze oko Appleovog sustava za otkrivanje dječje pornografije nastavljaju se

Fotografije MacBook Aira

Od kada je Apple najavio otkrivanje materijala za seksualno zlostavljanje djece za iOS, iPadOS i macOS Ranije ovog mjeseca bilo je dosta rasprava. Ne samo među stručnjacima za sigurnost, nego čak i među Appleovim zaposlenicima koji su zamolili Apple da ga ne implementira.

Posljednjih koji su se pridružili nelagodu oko implementacije ovog sustava je više od 90 skupina za građanska prava. Napisali su otvoreno pismo Appleu, tražeći od njega da se povuče iz svojih planova CSAM (materijal za seksualno zlostavljanje djece). Razlog zašto aludiraju je taj što se ovaj sustav može iskoristiti u druge svrhe.

Što je CSAM?

CSAM

CSAM, preveden kao materijal za seksualno zlostavljanje djece, je a katalog fotografija sa sadržajem dječje pornografije, poznat, pripremljen i ažuriran povremeno različite udruge i čiji sadržaj kontrolira Nacionalni centar za nestalu i iskorištavanu djecu (NCMEC).

Svaka od fotografija pohranjenih u ovoj bazi podataka ima jedinstveni digitalni potpis, digitalni potpis koji usporediti će se sa slikama fotografija pohranjenim na računima korisnika iClouda. Ako se otkrije podudaranje, pristup korisničkom računu bit će blokiran, a nadležni će biti obaviješteni.

Google, Dropbox i Microsoft već neko vrijeme koriste ovaj sustav za praćenje slika za korisničke račune, no Apple je otišao korak dalje i je stvorio novi sustav pod nazivom NeuralHash, sustav koji analizira korisnikov šifrirani oblak, teoretski tražeći takve vrste slika kojima nema pristup ni sam Apple.

Uznemireni od organizacija za građanska prava

Između neki od potpisnika ovog pisma su Američka unija za građanske slobode, Kanadska udruga za građanske slobode, australska organizacija Digital Rights Watch, Britanska sloboda, Privacy International ...

Pismo počinje isticanjem mogućnosti NeuralHash -a, navodeći da:

Iako su sposobnosti namijenjene zaštiti djece i smanjenju širenja materijala za seksualno zlostavljanje djece (CSAM), zabrinuti smo da se koristi za cenzuriranje zaštićenog izražavanja, ugrožavanje privatnosti i sigurnosti ljudi diljem svijeta i ima katastrofalne posljedice za mnogo djece .

Jednom kada se ta sposobnost uvrsti u Appleove proizvode, tvrtka i njezini konkurenti suočit će se s ogromnim pritiskom - i potencijalno zakonskim zahtjevima - od strane vlada diljem svijeta da skeniraju fotografije ne samo za CSAM, već i za druge slike koje vlada smatra upitnim.

Te slike mogu biti kršenja ljudskih prava, politički prosvjedi, slike koje su tvrtke označile kao 'terorističke' ili nasilne ekstremističke sadržaje, ili čak neukusne slike samih političara koji će pritisnuti tvrtku da ih skenira.

Ovih 90 organizacija tvrdi da je potraga za fotografijama može se proširiti na slike pohranjene na uređaju, ne samo onih koji su pohranjeni u iCloudu, pa je Apple možda stvorio osnovu za cenzuru, nadzor i progon u cijelom svijetu.

Podrazumijeva se da kada vlada traži od Applea da odobri pristup sadržaju svojih korisnika, poput Kine ili Rusije, Apple saginje glavu i udovoljava njegovim zahtjevima. Tko nas uvjerava da Apple neće slijediti istu politiku s drugim zemljama?

U pismu se dalje navodi da će ovaj sustav djecu izložiti riziku:

Sustav koji je Apple razvio pretpostavlja da uključeni računi "roditelj" i "dijete" zapravo pripadaju odrasloj osobi koja je roditelj djeteta i da te osobe imaju zdrav odnos.

To nije uvijek slučaj; odrasla osoba koja zlostavlja može biti organizator računa, a posljedice obavještavanja roditelja mogle bi ugroziti sigurnost i dobrobit djeteta. Posebno su ugroženi LGBTQ + mladi na obiteljskim računima sa nesimpatičnim roditeljima

Pismo završava navodeći kako je unatoč Appleovim naporima da smanji zlostavljanje djece, tvrtka moraju ostati čvrsti u politici privatnosti koje je izgradio posljednjih godina.

Podržavamo napore u zaštiti djece i snažno se protivimo širenju CSAM -a. No, promjene koje je Apple najavio dovele su u opasnost djecu i druge korisnike, kako sada tako i u budućnosti. Pozivamo Apple da odustane od tih promjena i da potvrdi predanost tvrtke zaštiti svojih korisnika end-to-end enkripcijom. Također apeliramo na Apple da se redovitije savjetuje s grupama civilnog društva i ranjivim zajednicama na koje bi promjene njegovih proizvoda i usluga mogle utjecati nerazmjerno.

Postovi

Aplikacija Poruke

Apple će predstaviti ovu novu značajku s izdanjem macOS Monterey, iOS 15 i iPadOS 15, funkciju koju prati sustav koji će detektirati širenje dječjeg seksualnog materijala putem aplikacije Poruke i koji će obavijestiti roditelja ili skrbnika ako je maloljetna osoba primila slike klasificirane kao seksualno implicitne.

Ove će se slike u početku činiti mutnima, a putem poruke bit će objašnjeno maloljetniku (ako ima 12 godina ili mlađi) da im slika nije prikladna. Ako se odlučite za pregled, roditelji će primiti obavijest zajedno sa slikom. U tom smislu bilo bi preporučljivije da roditelji su dali odobrenje maloljetnici da ima pristup slici.

Slike primljene putem aplikacije Poruke, skenirat će se na uređaju a te informacije neće izaći odande. Ni vlasti ni Apple neće imati saznanja o tom događaju.

Siri

Siri

Siri se također pridružila borbi protiv dječje pornografije. Izlaskom iOS 15, iPadOS 15 i macOS Monterrey, ako korisnik traži ovu vrstu sadržaja, primit ćete obavijest koja vas obavještava da provodite potragu za materijalom koji se smatra nezakonitim i obavijestit će vas o tome gdje možete pronaći pomoć i načinima za prijavu takvog sadržaja.

Taj će se postupak, poput analize slika primljenih putem aplikacije Poruke, provesti interno na uređaju, bez znanja Applea ili nadležnih tijela.


Sadržaj članka pridržava se naših načela urednička etika. Da biste prijavili pogrešku, kliknite ovdje.

Budite prvi koji će komentirati

Ostavite svoj komentar

Vaša email adresa neće biti objavljen. Obavezna polja su označena s *

*

*

  1. Za podatke odgovoran: Miguel Ángel Gatón
  2. Svrha podataka: Kontrola neželjene pošte, upravljanje komentarima.
  3. Legitimacija: Vaš pristanak
  4. Komunikacija podataka: Podaci se neće dostavljati trećim stranama, osim po zakonskoj obvezi.
  5. Pohrana podataka: Baza podataka koju hostira Occentus Networks (EU)
  6. Prava: U bilo kojem trenutku možete ograničiti, oporaviti i izbrisati svoje podatke.