Kontroverser om Apples system til registrering af børnepornografi fortsætter

MacBook Air-fotos

Siden Apple annoncerede påvisning af seksuelt misbrug af børn til iOS, iPadOS og macOS Tidligere på måneden var der megen debat. Ikke kun blandt sikkerhedseksperter, men også blandt Apples egne medarbejdere, der har bedt Apple om ikke at implementere det.

De sidste, der sluttede sig til utilpashed over implementeringen af ​​dette system, er mere end 90 borgerrettighedsgrupper. De har skrevet et åbent brev til Apple og bedt det om at gå tilbage til sine CSAM (Child Sexual Abuse Material) -planer. Grunden til at de hentyder er, at dette system kan udnyttes til andre formål.

Hvad er CSAM?

CSAM

CSAM, oversat som seksuelt misbrug af børn, er en katalog over fotografier med indhold af børnepornografi, kendt, udarbejdet og opdateret periodisk af forskellige foreninger, og hvis indhold kontrolleres af National Center for Missing and Exploited Children (NCMEC).

Hver af de fotografier, der er gemt i denne database, har en unik digital signatur, en digital signatur, der det vil blive sammenlignet med billederne af de fotos, der er gemt på iCloud -brugernes konti. Hvis der opdages et match, blokeres adgangen til brugerens konto, og myndighederne får besked.

Google, Dropbox og Microsoft har brugt dette billedsporingssystem til brugerkonti i nogen tid, men Apple er gået et skridt videre og har oprettet et nyt system kaldet NeuralHash, et system, der analyserer brugerens krypterede sky, i teorien på udkig efter disse typer billeder, og som ikke engang Apple selv har adgang til.

Oprørt af borgerrettighedsorganisationer

Mellem nogle af underskriverne af dette brev er American Civil Liberties Union, Canadian Civil Liberties Association, den australske organisation Digital Rights Watch, British Liberty, Privacy International ...

Brevet begynder med at fremhæve NeuralHash's muligheder, idet det hedder, at:

Selvom kapaciteter har til formål at beskytte børn og reducere spredningen af ​​materiale til seksuelt misbrug af børn (CSAM), er vi bekymrede over, at det bruges til at censurere beskyttet udtryk, true privatlivets fred og sikkerhed for mennesker rundt om i verden og have katastrofale konsekvenser for mange børn .

Når denne evne er indarbejdet i Apple -produkter, vil virksomheden og dens konkurrenter stå over for et enormt pres - og potentielt juridiske krav - fra regeringer rundt om i verden for at scanne fotos ikke kun for CSAM, men også af andre billeder, som en regering anser for tvivlsomme.

Disse billeder kan være af menneskerettighedskrænkelser, politiske protester, billeder, som virksomheder har betegnet som 'terrorist' eller voldeligt ekstremistisk indhold, eller endda uskadelige billeder af politikerne selv, der vil presse virksomheden til at scanne dem.

Disse 90 organisationer hævder, at søgningen efter fotografier kan udvides til billeder gemt på enheden, ikke kun dem, der er gemt i iCloud, så Apple kan have skabt grundlaget for censur, overvågning og forfølgelse på verdensplan.

Det siger sig selv, at når en regering opfordrer Apple til at give adgang til indholdet af sine brugere, f.eks. Kina eller Rusland, Apple bøjer hovedet og opfylder dine krav. Hvem forsikrer os om, at Apple ikke vil følge den samme politik med andre lande?

I brevet hedder det videre, at dette system vil bringe børn i fare:

Det system, Apple har udviklet, antager, at de involverede "forælder" og "barn" -konti faktisk tilhører en voksen, der er forælder til et barn, og at disse personer har et sundt forhold.

Dette er ikke altid tilfældet; en krænkende voksen kan være arrangør af kontoen, og konsekvenserne af at underrette forældre kan true barnets sikkerhed og trivsel. LGBTQ + unge i familiekonti med usympatiske forældre er særligt udsat

Brevet slutter med at angive, at virksomheden trods Apples bestræbelser på at reducere misbrug af børn skal forblive fast i fortrolighedspolitikken som han har bygget i de seneste år.

Vi støtter bestræbelser på at beskytte børn og er stærkt imod udbredelsen af ​​CSAM. Men de ændringer, Apple har annonceret, sætter børn og andre brugere i fare, både nu og i fremtiden. Vi opfordrer Apple til at opgive disse ændringer og bekræfte virksomhedens engagement i at beskytte sine brugere med end-to-end-kryptering. Vi opfordrer også Apple til mere regelmæssigt at rådføre sig med civilsamfundsgrupper og sårbare samfund, der kan blive uforholdsmæssigt påvirket af ændringer i dets produkter og tjenester.

Indlæg

Beskeder app

Apple introducerer denne nye funktion med udgivelsen af ​​macOS Monterey, iOS 15 og iPadOS 15, en funktion, der ledsages af et system, der vil opdage spredning af seksuelt materiale fra børn gennem appen Beskeder, og som vil underrette forælderen eller værgen, hvis den mindreårige har modtaget billeder, der er klassificeret som seksuelt implicitte.

Disse billeder vil i første omgang fremstå uskarpe og gennem en besked vil det blive forklaret for den mindreårige (hvis de er 12 år eller yngre), at billedet ikke er egnet til dem. Hvis du vælger at se det, modtager forældrene en underretning sammen med billedet. I denne forstand ville det være mere tilrådeligt det det var forældrene, der gav klarsignal for, at den mindreårige havde adgang til billedet.

Billeder modtaget via appen Beskeder, vil blive scannet på enheden og den information kommer ikke derudaf. Hverken myndighederne eller Apple vil have kendskab til begivenheden.

Siri

Siri

Siri har også deltaget i kampen mod børnepornografi. Med udgivelsen af ​​iOS 15, iPadOS 15 og macOS Monterrey, hvis en bruger søger efter denne type indhold, du vil modtage en meddelelse om, at du foretager en søgning efter materiale, der anses for ulovligt og det vil informere dig om, hvor du kan finde hjælp og midlerne til at rapportere sådant indhold.

Denne proces vil, ligesom analysen af ​​billeder modtaget via appen Beskeder, blive udført internt på enheden, uden kendskab til Apple eller myndighederne.


Køb et domæne
Du er interesseret i:
Hemmelighederne til at lancere dit websted med succes

Efterlad din kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

*

*

  1. Ansvarlig for dataene: Miguel Ángel Gatón
  2. Formålet med dataene: Control SPAM, management af kommentarer.
  3. Legitimering: Dit samtykke
  4. Kommunikation af dataene: Dataene vil ikke blive kommunikeret til tredjemand, undtagen ved juridisk forpligtelse.
  5. Datalagring: Database hostet af Occentus Networks (EU)
  6. Rettigheder: Du kan til enhver tid begrænse, gendanne og slette dine oplysninger.