Spori o Appleovem sistemu odkrivanja otroške pornografije se nadaljujejo

Fotografije MacBook Air

Odkar je Apple napovedal odkrivanje gradiva o spolni zlorabi otrok za iOS, iPadOS in macOS V začetku tega meseca je bilo veliko razprav. Ne samo med varnostnimi strokovnjaki, ampak celo med lastnimi zaposlenimi v Applu, ki so Apple prosili, naj ga ne izvaja.

Zadnjih, ki se pridružijo slabosti pri izvajanju tega sistema, je več kot 90 skupin za državljanske pravice. Napisali so odprto pismo Appleu in ga prosili, naj odstopi od svojih načrtov CSAM (Material Sexual Abuse Material). Namigujejo, da je ta sistem mogoče uporabiti za druge namene.

Kaj je CSAM?

CSAM

CSAM, preveden kot material za spolno zlorabo otrok, je a katalog fotografij z vsebino otroške pornografije, znan, pripravljen in posodobljen občasno različna združenja, katerih vsebino nadzira Nacionalni center za pogrešane in izkoriščane otroke (NCMEC).

Vsaka od fotografij, shranjenih v tej zbirki podatkov, ima edinstven digitalni podpis primerjali ga bomo s slikami fotografij, shranjenih v računih uporabnikov iCloud. Če se zazna ujemanje, bo dostop do uporabnikovega računa blokiran, organi pa bodo obveščeni.

Google, Dropbox in Microsoft že nekaj časa uporabljajo ta sistem za sledenje slik za uporabniške račune, vendar je Apple naredil korak dlje in je ustvaril nov sistem, imenovan NeuralHash, sistem, ki analizira uporabnikov šifriran oblak, v teoriji išče te vrste slik in do katerih nima dostopa niti sam Apple.

Razburjen s strani organizacij za državljanske pravice

Med nekateri podpisniki tega pisma so Ameriška zveza za državljanske svoboščine, Kanadsko združenje za državljanske svoboščine, avstralska organizacija Digital Rights Watch, Britanska svoboda, Privacy International ...

Pismo se začne s poudarjanjem zmogljivosti NeuralHash -a in navaja:

Čeprav so zmogljivosti namenjene zaščiti otrok in zmanjšanju širjenja gradiva o spolnem zlorabljanju otrok (CSAM), smo zaskrbljeni, da se uporablja za cenzuriranje zaščitenega izražanja, ogrožanje zasebnosti in varnosti ljudi po vsem svetu ter ima za mnoge otroke katastrofalne posledice. .

Ko bo ta zmogljivost vključena v izdelke Apple, se bodo podjetje in njegovi konkurenti soočili z velikim pritiskom - in potencialno zakonskimi zahtevami - vlad po vsem svetu, da ne skenirajo fotografij ne samo za CSAM, ampak tudi za druge slike, za katere vlada meni, da so vprašljive.

Te podobe so lahko kršenja človekovih pravic, politični protesti, podobe, ki so jih podjetja označila za "teroristične" ali nasilne ekstremistične vsebine, ali celo neprijetne podobe samih politikov, ki bodo pritiskali na podjetje, da jih pregleda.

Teh 90 organizacij trdi, da iskanje fotografij lahko razširite na slike, shranjene v napravi, ne samo tistih, ki so shranjene v iCloudu, zato je Apple morda ustvaril podlago za cenzuro, nadzor in preganjanje po vsem svetu.

Ni treba posebej poudarjati, da ko vlada poziva Apple, naj odobri dostop do vsebine svojih uporabnikov, na primer Kitajske ali Rusije, Apple skloni glavo in upošteva njegove zahteve. Kdo nam zagotavlja, da Apple te politike ne bo upošteval z drugimi državami?

V pismu se navaja, da bo ta sistem ogrozil otroke:

Sistem, ki ga je razvil Apple, predvideva, da vpleteni »starševski« in »otroški« račun dejansko pripadata odrasli osebi, ki je starš otroka, in da imajo ti posamezniki zdrav odnos.

To ni vedno tako; odrasla oseba, ki zlorablja, je lahko organizator računa, posledice obveščanja staršev pa bi lahko ogrozile varnost in dobro počutje otroka. Posebno ogroženi so LGBTQ + mladostniki v družinskih računih s simpatičnimi starši

Pismo se konča z ugotovitvijo, da kljub Appleovim prizadevanjem za zmanjšanje zlorabe otrok podjetje mora ostati trdno v politiki zasebnosti ki ga je zgradil v zadnjih letih.

Podpiramo prizadevanja za zaščito otrok in odločno nasprotujemo širjenju CSAM. Toda spremembe, ki jih je napovedal Apple, ogrožajo otroke in druge uporabnike tako zdaj kot v prihodnosti. Pozivamo Apple, naj opusti te spremembe in ponovno potrdi zavezo podjetja, da zaščiti svoje uporabnike s šifriranjem od konca do konca. Apple tudi pozivamo, naj se bolj redno posvetuje s skupinami civilne družbe in ranljivimi skupnostmi, na katere spremembe njihovih izdelkov in storitev lahko vplivajo nesorazmerno.

Sporočila

Aplikacija Sporočila

Apple bo predstavil to novo funkcijo z izdajo macOS Monterey, iOS 15 in iPadOS 15, funkcijo, ki jo spremlja sistem, ki bo odkril razširjanje otroškega spolnega materiala prek aplikacije Messages in bo obvestil starša ali skrbnika, če je mladoletnik prejel slike, označene kot spolno implicitne.

Te slike bodo sprva videti zamegljene in v sporočilu bo mladoletniku (če je star 12 let ali mlajši) razloženo, da slika zanje ni primerna. Če se odločite za ogled, bodo starši skupaj s sliko prejeli obvestilo. V tem smislu bi bilo bolj priporočljivo, da starši so dali dovoljenje mladoletniku za dostop do podobe.

Slike, prejete prek aplikacije Messages, bo skenirano v napravi in te informacije ne bodo prišle od tam. Niti oblasti niti Apple ne bodo vedeli za dogodek.

Siri

Siri

Siri se je pridružila tudi boju proti otroški pornografiji. Z izdajo iOS 15, iPadOS 15 in macOS Monterrey, če uporabnik išče to vrsto vsebine, prejeli boste obvestilo, v katerem vas obveščamo, da iščete material, ki velja za nezakonit obvestil vas bo o tem, kje lahko najdete pomoč in načine za prijavo takšne vsebine.

Ta postopek bo, tako kot analiza slik, prejetih prek aplikacije Messages, izveden interno v napravi, brez vednosti Applea ali oblasti.


Kupite domeno
Zanima vas:
Skrivnosti uspešnega zagona vašega spletnega mesta

Pustite svoj komentar

Vaš e-naslov ne bo objavljen. Obvezna polja so označena z *

*

*

  1. Za podatke odgovoren: Miguel Ángel Gatón
  2. Namen podatkov: Nadzor neželene pošte, upravljanje komentarjev.
  3. Legitimacija: Vaše soglasje
  4. Sporočanje podatkov: Podatki se ne bodo posredovali tretjim osebam, razen po zakonski obveznosti.
  5. Shranjevanje podatkov: Zbirka podatkov, ki jo gosti Occentus Networks (EU)
  6. Pravice: Kadar koli lahko omejite, obnovite in izbrišete svoje podatke.