Spor o systém detekcie detskej pornografie od Apple pokračuje

Fotky MacBooku Air

Odkedy Apple oznámil detekcia materiálu sexuálneho zneužívania detí pre iOS, iPadOS a macOS Začiatkom tohto mesiaca sa veľa diskutovalo. Nielen medzi odborníkmi na bezpečnosť, ale dokonca aj medzi vlastnými zamestnancami spoločnosti Apple, ktorí požiadali spoločnosť Apple, aby ju neimplementovala.

Posledných, ktorí sa pridali k malátnosti nad implementáciou tohto systému, je viac ako 90 skupín za občianske práva. Napísali otvorený list spoločnosti Apple a žiadajú ho, aby ustúpil od svojich plánov CSAM (materiál pre sexuálne zneužívanie detí). Dôvodom je, že tento systém je možné využiť na iné účely.

Čo je CSAM?

CSAM

CSAM, v preklade materiál pre sexuálne zneužívanie detí, je a katalóg fotografií s obsahom detskej pornografie, známych, pripravených a aktualizovaných periodicky rôznymi asociáciami a ktorých obsah je kontrolovaný Národným centrom pre nezvestné a zneužívané deti (NCMEC).

Každá z fotografií uložených v tejto databáze má jedinečný digitálny podpis, digitálny podpis, ktorý bude porovnaný s obrázkami fotografií uložených v účtoch používateľov iCloud. V prípade zistenia zhody bude prístup k používateľskému účtu zablokovaný a orgány budú informované.

Google, Dropbox a Microsoft už nejaký čas používajú tento systém sledovania obrázkov pre používateľské účty, ale Apple zašiel ešte o krok ďalej vytvoril nový systém s názvom NeuralHash, systém, ktorý teoreticky analyzuje šifrovaný cloud používateľa a hľadá tieto typy obrázkov, ku ktorým nemá prístup ani samotný Apple.

Rozčúlený z organizácií občianskych práv

Medzi niektorí zo signatárov tohto listu sú Americká únia občianskych slobôd, Kanadská asociácia občianskych slobôd, Austrálska organizácia Digital Rights Watch, British Liberty, Privacy International ...

List začína zdôraznením schopností programu NeuralHash a uvádza sa v ňom, že:

Napriek tomu, že schopnosti sú určené na ochranu detí a zníženie šírenia materiálu pre sexuálne zneužívanie detí (CSAM), obávame sa, že sa používa na cenzúru chráneného prejavu, ohrozuje súkromie a bezpečnosť ľudí na celom svete a má pre mnohé deti katastrofálne dôsledky. .

Akonáhle bude táto schopnosť začlenená do produktov Apple, bude spoločnosť a jej konkurenti čeliť obrovskému tlaku - a potenciálne aj zákonným požiadavkám - zo strany vlád na celom svete, aby skenovali fotografie nielen pre CSAM, ale aj pre ďalšie obrázky, ktoré vláda považuje za diskutabilné.

Môžu to byť obrázky o porušovaní ľudských práv, politické protesty, obrázky, ktoré spoločnosti označili ako „teroristické“ alebo násilné extrémistické obsahy, alebo dokonca o nelichotivých obrázkoch samotných politikov, ktorí budú tlačiť na spoločnosť, aby ich skenovala.

Týchto 90 organizácií tvrdí, že hľadanie fotografií je možné rozšíriť na obrázky uložené v zariadení, a to nielen tie, ktoré sú uložené v iCloud, takže spoločnosť Apple mohla vytvoriť základ pre cenzúru, sledovanie a prenasledovanie na celom svete.

Každý vie, že keď vláda vyzve spoločnosť Apple, aby udelila prístup k obsahu svojich používateľov, akými sú Čína alebo Rusko, Apple skloní hlavu a splní jeho požiadavky. Kto nás ubezpečuje, že Apple nebude postupovať podľa rovnakých zásad ako v iných krajinách?

V liste sa ďalej uvádza, že tento systém vystavuje deti riziku:

Systém, ktorý vyvinula spoločnosť Apple, predpokladá, že súvisiace účty „rodič“ a „dieťa“ skutočne patria dospelému, ktorý je rodičom dieťaťa, a že tieto osoby majú zdravý vzťah.

Nie vždy to platí; organizátorom účtu môže byť zneužívajúca dospelá osoba a dôsledky oznámenia rodičom by mohli ohroziť bezpečnosť a pohodu dieťaťa. Zvlášť ohrozená je mládež LGBTQ + v rodinných účtoch s nesympatickými rodičmi

List končí poznámkou, že napriek snahe spoločnosti Apple obmedziť zneužívanie detí spoločnosť musí zostať pevný v zásadách ochrany osobných údajov ktoré v posledných rokoch vybudoval.

Podporujeme úsilie o ochranu detí a dôrazne sme proti šíreniu CSAM. Zmeny, ktoré spoločnosť Apple oznámila, však ohrozujú deti a ostatných používateľov, a to teraz aj v budúcnosti. Naliehavo žiadame spoločnosť Apple, aby upustila od týchto zmien a opätovne potvrdila záväzok spoločnosti chrániť svojich používateľov šifrovaním typu end-to-end. Tiež vyzývame spoločnosť Apple, aby sa pravidelnejšie radila so skupinami občianskej spoločnosti a zraniteľnými komunitami, ktorých sa môžu neprimerane týkať zmeny jej produktov a služieb.

príspevky

Aplikácia Správy

Apple predstaví túto novú funkciu s vydaním systému macOS Monterey, iOS 15 a iPadOS 15, funkcia, ktorú sprevádza systém, ktorý bude detegovať šírenie sexuálneho materiálu dieťaťa prostredníctvom aplikácie Správy a ktorý upozorní rodiča alebo opatrovníka, ak maloletá osoba dostala obrázky klasifikované ako sexuálne implicitné.

Tieto obrázky budú na začiatku pôsobiť rozmazane a prostredníctvom správy bude neplnoletej osobe (ak má 12 rokov alebo menej) vysvetlené, že obrázok pre nich nie je vhodný. Ak sa ho rozhodnete zobraziť, rodičia dostanú spolu s obrázkom upozornenie. V tomto zmysle by bolo vhodnejšie, aby boli to rodičia, ktorí dali súhlas, aby maloletý mal prístup k obrázku.

Obrázky prijaté prostredníctvom aplikácie Správy, budú naskenované v zariadení a tie informácie odtiaľ nevyjdú. Úrady ani Apple nebudú mať o tejto udalosti znalosti.

Siri

Siri

Siri sa tiež zapojila do boja proti detskej pornografii. Po vydaní systému iOS 15, iPadOS 15 a macOS Monterrey, ak používateľ hľadá tento typ obsahu, dostanete upozornenie, ktoré vás informuje o tom, že hľadáte materiál považovaný za nezákonný a bude vás informovať o tom, kde môžete nájsť pomoc a prostriedky na nahlásenie takéhoto obsahu.

Tento proces, podobne ako analýza obrázkov prijatých prostredníctvom aplikácie Správy, sa bude vykonávať interne v zariadení, bez vedomia spoločnosti Apple alebo úradov.


Kúpte si doménu
Zaujíma vás:
Tajomstvo úspešného spustenia vašej webovej stránky

Zanechajte svoj komentár

Vaša e-mailová adresa nebude zverejnená. Povinné položky sú označené *

*

*

  1. Zodpovedný za údaje: Miguel Ángel Gatón
  2. Účel údajov: Kontrolný SPAM, správa komentárov.
  3. Legitimácia: Váš súhlas
  4. Oznamovanie údajov: Údaje nebudú poskytnuté tretím stranám, iba ak to vyplýva zo zákona.
  5. Ukladanie dát: Databáza hostená spoločnosťou Occentus Networks (EU)
  6. Práva: Svoje údaje môžete kedykoľvek obmedziť, obnoviť a vymazať.