Polemikat mbi sistemin e zbulimit të pornografisë së fëmijëve të Apple nga Apple vazhdojnë

Fotografitë e MacBook Air

Që kur Apple njoftoi zbulimi i materialit të abuzimit seksual të fëmijëve për iOS, iPadOS dhe macOS Në fillim të këtij muaji, pati shumë debat. Jo vetëm midis ekspertëve të sigurisë, por edhe midis punonjësve të Apple që i kanë kërkuar Apple të mos e zbatojë atë.

Të fundit që iu bashkuan sëmundjes mbi zbatimin e këtij sistemi janë më shumë se 90 grupe të të drejtave civileMe Ata i kanë shkruar një letër të hapur Apple -it, duke i kërkuar që të tërhiqet nga planet e saj CSAM (Materiali i Abuzimit Seksual të Fëmijëve). Arsyeja që ata aludojnë është se ky sistem mund të shfrytëzohet për qëllime të tjera.

Çfarë është CSAM?

CSAM

CSAM, e përkthyer si Material për Abuzimin Seksual të Fëmijëve, është një katalog i fotografive me përmbajtje të pornografisë së fëmijëve, të njohura, të përgatitura dhe të përditësuara periodikisht nga shoqata të ndryshme dhe përmbajtja e të cilave kontrollohet nga Qendra Kombëtare për Fëmijët e Zhdukur dhe të Shfrytëzuar (NCMEC).

Secila prej fotografive të ruajtura në këtë bazë të dhënash ka një nënshkrim unik dixhital, një nënshkrim dixhital që do të krahasohet me imazhet e fotografive të ruajtura në llogaritë e përdoruesve të iCloudMe Nëse zbulohet një ndeshje, qasja në llogarinë e përdoruesit do të bllokohet dhe autoritetet do të njoftohen.

Google, Dropbox dhe Microsoft kanë përdorur këtë sistem të përcjelljes së imazhit për llogaritë e përdoruesve për ca kohë, por Apple ka shkuar një hap më tej dhe ka krijuar një sistem të ri të quajtur NeuralHash, një sistem që analizon cloud -in e koduar të përdoruesit, në teori, duke kërkuar këto lloje të imazheve dhe në të cilat as vetë Apple nuk ka qasje.

I mërzitur nga organizatat për të drejtat civile

Në mes disa nga nënshkruesit e kësaj letre janë Unioni Amerikan i Lirive Civile, Shoqata Kanadeze e Lirive Civile, organizata Australiane Digital Rights Watch, British Liberty, Privacy International ...

Letra fillon duke nënvizuar aftësitë e NeuralHash, duke thënë se:

Ndërsa aftësitë kanë për qëllim të mbrojnë fëmijët dhe të zvogëlojnë përhapjen e Materialit të Abuzimit Seksual të Fëmijëve (CSAM), ne jemi të shqetësuar se përdoret për të censuruar shprehjen e mbrojtur, për të kërcënuar privatësinë dhe sigurinë e njerëzve në të gjithë botën, dhe të ketë pasoja katastrofike për shumë fëmijë Me

Pasi kjo aftësi të përfshihet në produktet e Apple, kompania dhe konkurrentët e saj do të përballen me presion të madh - dhe kërkesa potencialisht ligjore - nga qeveritë në të gjithë botën për të skanuar fotografi jo vetëm për CSAM, por edhe imazhe të tjera që një qeveri i konsideron të dyshimta.

Ato imazhe mund të jenë të abuzimit të të drejtave të njeriut, protesta politike, imazhe që kompanitë i kanë etiketuar si përmbajtje 'terroriste' ose ekstremiste të dhunshme, apo edhe imazhe jo lajkatare të vetë politikanëve që do t'i bëjnë presion kompanisë që t'i skanojë ato.

Këto 90 organizata pohojnë se kërkimi i fotografive mund të shtrihet në imazhet e ruajtura në pajisje, jo vetëm ato që ruhen në iCloud, kështu që Apple mund të ketë krijuar bazën për censurë, mbikëqyrje dhe persekutim në të gjithë botën.

Shkon pa thënë se kur një qeveri i kërkon Apple të japë qasje në përmbajtjen e përdoruesve të saj, si Kina ose Rusia, Apple ul kokën dhe plotëson kërkesat e tijMe Kush na siguron që Apple nuk do të ndjekë të njëjtën politikë me vendet e tjera?

Letra vazhdon duke thënë se ky sistem do t'i vë fëmijët në rrezik:

Sistemi që Apple ka zhvilluar supozon se llogaritë "prind" dhe "fëmijë" të përfshirë në të vërtetë i përkasin një të rrituri që është prind i një fëmije dhe se këta individë kanë një marrëdhënie të shëndetshme.

Kjo nuk ndodh gjithmonë; një i rritur abuziv mund të jetë organizatori i llogarisë dhe pasojat e njoftimit të prindërve mund të kërcënojnë sigurinë dhe mirëqenien e fëmijës. Të rinjtë LGBTQ + në llogaritë familjare me prindër jo simpatikë janë veçanërisht të rrezikuar

Letra përfundon duke vënë në dukje se pavarësisht përpjekjeve të Apple për të zvogëluar abuzimin me fëmijët, kompania duhet të qëndrojë i vendosur në politikën e privatësisë që ai ka ndërtuar vitet e fundit.

Ne mbështesim përpjekjet për të mbrojtur fëmijët dhe kundërshtojmë fuqishëm përhapjen e CSAM. Por ndryshimet që Apple ka njoftuar i vënë fëmijët dhe përdoruesit e tjerë në rrezik, si tani ashtu edhe në të ardhmen. Ne i bëjmë thirrje Apple të heqë dorë nga këto ndryshime dhe të riafirmojë angazhimin e kompanisë për të mbrojtur përdoruesit e saj me kriptim nga skaji në skaj. Ne gjithashtu i bëjmë thirrje Apple të konsultohet më rregullisht me grupet e shoqërisë civile dhe komunitetet e cenueshme që mund të preken në mënyrë disproporcionale nga ndryshimet në produktet dhe shërbimet e saj.

Mesazhe

Aplikacioni i Mesazheve

Apple do të prezantojë këtë veçori të re me lëshimin e macOS Monterey, iOS 15 dhe iPadOS 15, një funksion që shoqërohet me një sistem që do të zbulojë përhapjen e materialit seksual të fëmijëve përmes aplikacionit Messages dhe që do të njoftojë prindin ose kujdestarin nëse i mituri ka marrë imazhe të klasifikuara si të nënkuptuara seksualisht.

Këto imazhe fillimisht do të shfaqen të paqarta dhe përmes një mesazhi, do t'i shpjegohet të miturit (nëse ata janë 12 vjeç ose më të rinj) se imazhi nuk është i përshtatshëm për ta. Nëse zgjidhni ta shihni, prindërit do të marrin një njoftim së bashku me imazhin. Në këtë kuptim, do të ishte më e këshillueshme që ishin prindërit ata që dhanë lejen për të miturin që të kishte qasje në imazh.

Imazhet e marra përmes aplikacionit Messages, do të skanohet në pajisje dhe ai informacion nuk do të dalë prej andej. As autoritetet dhe as Apple nuk do të kenë dijeni për ngjarjen.

Siri

Siri

Siri gjithashtu i është bashkuar luftës kundër pornografisë së fëmijëve. Me lëshimin e iOS 15, iPadOS 15 dhe macOS Monterrey, nëse një përdorues kërkon këtë lloj përmbajtjeje, ju do të merrni një njoftim që ju informon se po kryeni një kërkim për materialin që konsiderohet i paligjshëm dhe do t'ju informojë se ku mund të gjeni ndihmë dhe mjetet për të raportuar një përmbajtje të tillë.

Ky proces, si analiza e imazheve të marra përmes aplikacionit Messages, do të kryhet brenda në pajisje, pa dijeninë e Apple ose autoriteteve.


Bleni një domen
Ju intereson:
Sekretet për të nisur me sukses faqen tuaj të internetit

Lini komentin tuaj

Adresa juaj e emailit nuk do të publikohet. Fusha e kërkuar janë shënuar me *

*

*

  1. Përgjegjës për të dhënat: Miguel Ángel Gatón
  2. Qëllimi i të dhënave: Kontrolloni SPAM, menaxhimin e komenteve.
  3. Legjitimimi: Pëlqimi juaj
  4. Komunikimi i të dhënave: Të dhënat nuk do t'u komunikohen palëve të treta përveç me detyrim ligjor.
  5. Ruajtja e të dhënave: Baza e të dhënave e organizuar nga Occentus Networks (BE)
  6. Të drejtat: Në çdo kohë mund të kufizoni, rikuperoni dhe fshini informacionin tuaj.