Svar og spørsmål til neste barnesikringssystem hos Apple

Bilder-ikon for macOS

Apple kunngjorde tre nye funksjoner som er rettet mot barnevern på enhetene. Ideen i seg selv er fantastisk. Imidlertid er det de som har benyttet anledningen til å sette fingeren på såret. Han lurer på om det Apple ønsker å gjøre ikke er mer av en skjult overvåking som henviser personvernet til Mac, iPad eller iPhone i bakgrunnen. For å gjøre dette har de som har ansvaret for denne nye funksjonaliteten gått ut av deres måte å forklare hvordan det fungerer.

Erik Neuenschwander forklarer hvordan systemet hans fungerer for å øke barnevernet

CASS

Vi snakker om den nye funksjonaliteten som vil tre i kraft i USA til høsten, og hvis formål er å barnevern mot seksuelle overgrep. Den fokuserer på bilder -appen, iMessage, Siri og søk. Så det påvirker alle Apple -enheter der disse programmene griper inn. Vi snakker derfor om Mac -maskiner, som selv om det ikke er enheten par excellence å ta bilder, det er å lagre og klassifisere dem, i tillegg til den eksisterende synkroniseringen gjennom iCloud. Bruken av iMessage, Siri, men spesielt søkekommandoen.

Deteksjonssystemet kalt CSAM det fungerer hovedsakelig i iCloud -bilder. Et deteksjonssystem kalt NeuralHash identifiserer og sammenligner med National Center for Missing & Exploited Children IDs for å oppdage seksuelle overgrep og lignende innhold i iCloud -fotobiblioteker, men også kommunikasjonssikkerhet i iMessage.

En forelder kan aktivere denne funksjonen på enheten for barn under 13 år. Den vil varsle når den oppdager at et bilde de skal se er eksplisitt. Det vil også påvirke Siri og søkesystemet som når en bruker prøver å søke etter relaterte termer via Siri og søkekommandoen.

Neuenschwander forklarer hvorfor Apple kunngjorde funksjonen Communication Security i iMessage sammen med CSAM Detection -funksjonen i iCloud Photos:

Så viktig som det er å identifisere de kjente CSAM -samlingene der de er lagret i Apples iCloud -fototjeneste, er det også viktig å prøve å gå videre i den allerede fryktelige situasjonen. Det er også viktig å gjøre ting for å gripe inn tidligere når folk begynner å komme inn i dette plagsomme og skadelige området. Hvis det allerede er folk som prøver å lede barn inn i situasjoner der overgrep kan oppstå. Meldingssikkerhet og våre inngrep på Siri og søk påvirker faktisk de delene av prosessen. Så vi prøver virkelig å forstyrre syklusene som fører til CSAM som til slutt kan oppdages av systemet vårt.

"Personvern vil være intakt for alle som ikke deltar i ulovlige aktiviteter"

Vanskelig setning. Neuenschwander har dermed definert og forsvart Apples posisjon mot de som anklager selskapet for å åpne en bakdør for å spionere på brukerne. Sikkerhetssjefen forsvarer at sikkerhet vil eksistere og personvern vil opprettholdes for de som ikke kommenterer ulovligheter. Veldig bra hvis det ikke hadde noen feil Men hvem forteller meg at systemet ikke er ufullkommen?

¿Apple bør stole på hvis en regjering prøver å gripe inn i dette nye systemet?

Neuenschwander svarer og sier at det i prinsippet bare lanseres for iCloud -kontoer i USA, så lokale lover tilbyr ikke denne typen evner til den føderale regjeringen. Foreløpig vil bare innbyggere i USA bli gjenstand for denne granskningen. Men han svarer ikke og gjør det ikke klart hva som vil skje i fremtiden når det lanseres i andre land. Selv om det vil ta tid, siden det vil avhenge av lovene til hver av dem. Oppførselen beskrevet i straffelovene i hvert land er forskjellig i hva som er kriminalitet, så Apple -algoritmen bør tilpasses hver juridiske situasjon, og det burde ikke være lett i det hele tatt.

Det viktigste i denne saken er følgende: iCloud er nøkkelen. Hvis brukerne ikke bruker iCloud -bilder, kjører ikke NeuralHash og genererer ingen meldinger. CSAM discovery er en nevral hash som sammenlignes med en database med kjente CSAM -hash -er som er en del av operativsystembildet. Ingenting vil fungere hvis iCloud Photos ikke brukes.

Kontroversiell uten tvil. Et godt formål, men med noen smutthull Tror du at det er spørsmål om personvern? Verdi?


Legg igjen kommentaren

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *

*

*

  1. Ansvarlig for dataene: Miguel Ángel Gatón
  2. Formålet med dataene: Kontroller SPAM, kommentaradministrasjon.
  3. Legitimering: Ditt samtykke
  4. Kommunikasjon av dataene: Dataene vil ikke bli kommunisert til tredjeparter bortsett fra ved juridisk forpliktelse.
  5. Datalagring: Database vert for Occentus Networks (EU)
  6. Rettigheter: Når som helst kan du begrense, gjenopprette og slette informasjonen din.