Kontroverze oko Appleovog sistema za otkrivanje dječije pornografije se nastavljaju

MacBook Air fotografije

Od kada je Apple najavio otkrivanje materijala za seksualno zlostavljanje djece za iOS, iPadOS i macOS Ranije ovog mjeseca bilo je dosta rasprava. Ne samo među stručnjacima za sigurnost, već čak i među zaposlenicima Applea koji su zamolili Apple da ga ne implementira.

Posljednjih koji su se pridružili nelagodu oko implementacije ovog sistema je više od 90 grupa za građanska prava. Napisali su otvoreno pismo Appleu, tražeći od njega da se povuče iz svojih planova CSAM (materijal za seksualno zlostavljanje djece). Razlog zašto aludiraju je taj što se ovaj sistem može eksploatirati u druge svrhe.

Šta je CSAM?

CASS

CSAM, preveden kao materijal za seksualno zlostavljanje djece, je a katalog fotografija sa sadržajem dječije pornografije, poznatih, pripremljenih i ažuriranih povremeno različita udruženja i čiji sadržaj kontroliše Nacionalni centar za nestalu i eksploatiranu djecu (NCMEC).

Svaka od fotografija pohranjenih u ovoj bazi podataka ima jedinstveni digitalni potpis, digitalni potpis koji uspoređivat će se sa slikama fotografija pohranjenim na računima korisnika iClouda. Ako se otkrije podudaranje, pristup korisničkom računu bit će blokiran, a nadležni će biti obaviješteni.

Google, Dropbox i Microsoft već neko vrijeme koriste ovaj sistem za praćenje slika za korisničke račune, ali Apple je otišao korak dalje i je stvorio novi sistem pod nazivom NeuralHash, sistem koji analizira korisnikov šifrirani oblak, teoretski tražeći ove vrste slika i kojima čak ni sam Apple nema pristup.

Uznemireni od organizacija za građanska prava

između neki od potpisnika ovog pisma su Američka unija za građanske slobode, Kanadsko udruženje za građanske slobode, australijska organizacija Digital Rights Watch, Britanska sloboda, Privacy International ...

Pismo počinje isticanjem mogućnosti NeuralHash -a, navodeći da:

Iako su sposobnosti namijenjene zaštiti djece i smanjenju širenja materijala za seksualno zlostavljanje djece (CSAM), zabrinuti smo da se koristi za cenzuriranje zaštićenog izražavanja, ugrožavanje privatnosti i sigurnosti ljudi širom svijeta i ima katastrofalne posljedice za mnogo djece .

Jednom kada se ova sposobnost uključi u Appleove proizvode, kompanija i njeni konkurenti suočit će se s ogromnim pritiskom - i potencijalno zakonskim zahtjevima - vlada širom svijeta da skeniraju fotografije ne samo za CSAM, već i druge slike koje vlada smatra sumnjivim.

Te slike mogu biti kršenja ljudskih prava, politički protesti, slike koje su kompanije označile kao „terorističke“ ili nasilne ekstremističke sadržaje, ili čak neukusne slike samih političara koji će pritisnuti kompaniju da ih skenira.

Ovih 90 organizacija tvrdi da je u potrazi za fotografijama može se proširiti na slike pohranjene na uređaju, ne samo one koje su pohranjene u iCloudu, pa je Apple možda stvorio osnovu za cenzuru, nadzor i progon širom svijeta.

Podrazumijeva se da kada vlada traži od Applea da odobri pristup sadržaju svojih korisnika, poput Kine ili Rusije, Apple saginje glavu i udovoljava vašim zahtjevima. Ko nas uvjerava da Apple neće slijediti istu politiku s drugim zemljama?

U pismu se dalje navodi da će ovaj sistem djecu izložiti riziku:

Sistem koji je Apple razvio pretpostavlja da uključeni računi "roditelj" i "dijete" zapravo pripadaju odrasloj osobi koja je roditelj djeteta i da te osobe imaju zdrav odnos.

To nije uvijek slučaj; odrasla osoba koja zlostavlja može biti organizator računa, a posljedice obavještavanja roditelja mogle bi ugroziti sigurnost i dobrobit djeteta. Posebno su ugroženi LGBTQ + mladići u porodičnim računima sa nesimpatičnim roditeljima

Pismo završava navodeći da je uprkos Appleovim naporima da smanji zlostavljanje djece, kompanija moraju ostati čvrsti u politici privatnosti koje je izgradio poslednjih godina.

Podržavamo napore u zaštiti djece i snažno se protivimo širenju CSAM -a. Ali promjene koje je Apple najavio dovele su u opasnost djecu i druge korisnike, kako sada tako i u budućnosti. Pozivamo Apple da odustane od tih promjena i da potvrdi predanost kompanije zaštiti svojih korisnika end-to-end enkripcijom. Također apeliramo na Apple da se redovnije savjetuje s grupama civilnog društva i ugroženim zajednicama na koje bi promjene njegovih proizvoda i usluga mogle biti nesrazmjerno pogođene.

Poruke

Aplikacija Messages

Apple će predstaviti ovu novu funkciju sa izdanjem macOS Monterey, iOS 15 i iPadOS 15, funkciju koju prati sistem koji će otkriti širenje dječijeg seksualnog materijala putem aplikacije Poruke i koji će obavijestiti roditelja ili staratelja ako je maloljetnik primio slike klasifikovane kao seksualno implicitne.

Ove će slike u početku izgledati mutne, a putem poruke bit će objašnjeno maloljetniku (ako ima 12 godina ili mlađi) da im slika ne odgovara. Ako odaberete da je pogledate, roditelji će primiti obavijest zajedno sa slikom. U tom smislu, bilo bi preporučljivije to roditelji su dali odobrenje maloljetniku da ima pristup slici.

Slike primljene putem aplikacije Poruke, skenirat će se na uređaju i te informacije neće izaći odande. Ni vlasti ni Apple neće znati za događaj.

Siri

Siri

Siri se takođe pridružila borbi protiv dječije pornografije. Izlaskom iOS 15, iPadOS 15 i macOS Monterrey, ako korisnik traži ovu vrstu sadržaja, primit ćete obavijest koja vas obavještava da vršite potragu za materijalom koji se smatra nezakonitim i obavijestit će vas o tome gdje možete pronaći pomoć i načinima za prijavu takvog sadržaja.

Ovaj proces, poput analize slika primljenih putem aplikacije Messages, provodit će se interno na uređaju, bez znanja Applea ili nadležnih organa.


Kupite domenu
Zanimaju vas:
Tajne uspješnog pokretanja vaše web stranice

Ostavite komentar

Vaša e-mail adresa neće biti objavljena. Obavezna polja su označena sa *

*

*

  1. Za podatke odgovoran: Miguel Ángel Gatón
  2. Svrha podataka: Kontrola neželjene pošte, upravljanje komentarima.
  3. Legitimacija: Vaš pristanak
  4. Komunikacija podataka: Podaci se neće dostavljati trećim stranama, osim po zakonskoj obavezi.
  5. Pohrana podataka: Baza podataka koju hostuje Occentus Networks (EU)
  6. Prava: U bilo kojem trenutku možete ograničiti, oporaviti i izbrisati svoje podatke.