Strīdi par Apple bērnu pornogrāfijas atklāšanas sistēmu turpinās

MacBook Air fotogrāfijas

Kopš Apple paziņoja ,. bērnu seksuālās izmantošanas materiāla atklāšana operētājsistēmām iOS, iPadOS un macOS Šī mēneša sākumā bija daudz diskusiju. Ne tikai drošības ekspertu vidū, bet pat starp Apple darbiniekiem, kuri ir lūguši Apple to neieviest.

Pēdējie, kas pievienojās diskomfortam par šīs sistēmas ieviešanu, ir vairāk nekā 90 pilsoņu tiesību grupas. Viņi ir uzrakstījuši atklātu vēstuli Apple, lūdzot to atkāpties no CSAM (bērnu seksuālās vardarbības materiāla) plāniem. Iemesls ir tas, ka šo sistēmu var izmantot citiem mērķiem.

Kas ir CSAM?

CSAM

CSAM, tulkots kā materiāls par seksuālu vardarbību pret bērniem, ir zināms, sagatavots un atjaunināts fotogrāfiju katalogs ar bērnu pornogrāfijas saturu periodiski veic dažādas asociācijas un kuru saturu kontrolē Nacionālais pazudušo un izmantoto bērnu centrs (NCMEC).

Katrai no šajā datu bāzē saglabātajām fotogrāfijām ir unikāls digitālais paraksts tas tiks salīdzināts ar fotoattēlu attēliem, kas saglabāti iCloud lietotāju kontos. Ja tiek konstatēta atbilstība, piekļuve lietotāja kontam tiks bloķēta un iestādes tiks informētas.

Google, Dropbox un Microsoft jau kādu laiku izmanto šo attēlu izsekošanas sistēmu lietotāju kontiem, taču Apple ir gājusi vēl vienu soli tālāk un ir izveidojusi jaunu sistēmu ar nosaukumu NeuralHash - sistēma, kas teorētiski analizē lietotāja šifrēto mākoni, meklējot šāda veida attēlus un kurai pat Apple nav piekļuves.

Sašutums no pilsoņu tiesību organizācijām

Starp daži no šīs vēstules parakstītājiem ir Amerikas Pilsoņu brīvību savienība, Kanādas Pilsoņu brīvību asociācija, Austrālijas organizācija Digital Rights Watch, Lielbritānijas organizācija Liberty, Privacy International ...

Vēstule sākas, izceļot NeuralHash iespējas, norādot, ka:

Lai gan iespējas ir paredzētas, lai aizsargātu bērnus un samazinātu bērnu seksuālās vardarbības materiāla (CSAM) izplatību, mēs esam nobažījušies, ka tas tiek izmantots, lai cenzētu aizsargātu izteiksmi, apdraudētu cilvēku privātumu un drošību visā pasaulē un atstātu postošas ​​sekas daudziem bērniem. .

Kad šī iespēja tiks iekļauta Apple produktos, uzņēmums un tā konkurenti saskarsies ar milzīgu spiedienu - un, iespējams, likumīgām prasībām - no valdībām visā pasaulē, lai skenētu fotoattēlus ne tikai CSAM, bet arī citiem attēliem, kurus valdība uzskata par apšaubāmiem.

Šie attēli var būt saistīti ar cilvēktiesību pārkāpumiem, politiskiem protestiem, attēliem, ko uzņēmumi ir apzīmējuši kā “teroristu” vai vardarbīgu ekstrēmistu saturu, vai pat neglaimojošiem pašiem politiķiem, kuri spiedīs uzņēmumu tos skenēt.

Šīs 90 organizācijas apgalvo, ka fotogrāfiju meklēšana var attiecināt arī uz ierīcē saglabātajiem attēliem, ne tikai tie, kas tiek glabāti iCloud, tāpēc Apple, iespējams, ir radījis pamatu cenzūrai, uzraudzībai un vajāšanai visā pasaulē.

Pats par sevi saprotams, ka tad, kad valdība mudina Apple piešķirt piekļuvi savu lietotāju, piemēram, Ķīnas vai Krievijas, saturam, Apple noliec galvu un izpilda viņa prasības. Kas mums apliecina, ka Apple neievēro šo pašu politiku ar citām valstīm?

Vēstulē teikts, ka šī sistēma apdraud bērnus:

Apple izstrādātā sistēma pieņem, ka iesaistītie "vecāku" un "bērnu" konti faktiski pieder pieaugušajam, kurš ir bērna vecāks, un ka šīm personām ir veselīgas attiecības.

Tas ne vienmēr notiek; ļaunprātīgs pieaugušais var būt konta organizators, un vecāku informēšanas sekas var apdraudēt bērna drošību un labklājību. Īpaši apdraudēts ir LGBTQ + jaunietis ģimenes kontos ar nesimpātiskiem vecākiem

Vēstule beidzas, norādot, ka, neskatoties uz Apple centieniem samazināt vardarbību pret bērniem, uzņēmums jāpaliek stingram privātuma politikā ko viņš uzcēlis pēdējos gados.

Mēs atbalstām centienus aizsargāt bērnus un stingri iebilstam pret CSAM izplatīšanos. Taču Apple paziņotās izmaiņas pakļauj riskam bērnus un citus lietotājus gan tagad, gan nākotnē. Mēs mudinām Apple atteikties no šīm izmaiņām un vēlreiz apstiprināt uzņēmuma apņemšanos aizsargāt savus lietotājus ar pilnīgu šifrēšanu. Mēs arī mudinām Apple regulāri konsultēties ar pilsoniskās sabiedrības grupām un neaizsargātām kopienām, kuras var nesamērīgi ietekmēt tās produktu un pakalpojumu izmaiņas.

Ziņas

Lietotne Ziņojumi

Apple iepazīstinās ar šo jauno funkciju ar MacOS Monterey, iOS 15 un iPadOS 15 izlaišanu, funkcija, kurai pievienota sistēma, kas atklās bērnu seksuāla materiāla izplatīšanu, izmantojot lietotni Ziņojumi, un kas paziņos vecākiem vai aizbildnim, ja nepilngadīgais ir saņēmis attēlus, kas klasificēti kā seksuāli netieši.

Šie attēli sākotnēji izskatīsies neskaidri, un, izmantojot ziņojumu, nepilngadīgajam (ja viņš ir 12 gadus vecs vai jaunāks) tiks paskaidrots, ka attēls viņiem nav piemērots. Ja jūs nolemjat to apskatīt, vecāki kopā ar attēlu saņems paziņojumu. Šajā ziņā būtu vēlams to darīt tieši vecāki deva priekšroku, lai nepilngadīgais varētu piekļūt attēlam.

Attēli, kas saņemti, izmantojot lietotni Ziņojumi, tiks skenēts ierīcē un šī informācija no turienes neiznāks. Ne varas iestādēm, ne Apple nebūs zināšanu par šo notikumu.

Siri

Siri

Siri ir iesaistījusies arī cīņā pret bērnu pornogrāfiju. Izlaižot iOS 15, iPadOS 15 un macOS Monterrey, ja lietotājs meklē šāda veida saturu, jūs saņemsit paziņojumu, informējot, ka veicat materiāla meklēšanu, kas tiek uzskatīts par nelikumīgu un tā jūs informēs par to, kur var atrast palīdzību, un par veidiem, kā ziņot par šādu saturu.

Šis process, tāpat kā ar lietotni Ziņojumi saņemto attēlu analīze, tiks veikts ierīces iekšienē, bez Apple vai varas iestāžu ziņas.


Pērciet domēnu
Jūs interesē:
Veiksmīgas vietnes palaišanas noslēpumi

Atstājiet savu komentāru

Jūsu e-pasta adrese netiks publicēta. Obligātie lauki ir atzīmēti ar *

*

*

  1. Atbildīgais par datiem: Migels Ángels Gatóns
  2. Datu mērķis: SPAM kontrole, komentāru pārvaldība.
  3. Legitimācija: jūsu piekrišana
  4. Datu paziņošana: Dati netiks paziņoti trešām personām, izņemot juridiskus pienākumus.
  5. Datu glabāšana: datu bāze, ko mitina Occentus Networks (ES)
  6. Tiesības: jebkurā laikā varat ierobežot, atjaunot un dzēst savu informāciju.