Svar og spørgsmål til det næste børnesikringssystem hos Apple

Fotosikon til macOS

Apple annoncerede tre nye funktioner, der er målrettet børnebeskyttelse på sine enheder. Ideen i sig selv er fantastisk. Der er dog dem, der har benyttet lejligheden til at sætte fingeren på såret. Han spekulerer på, om det, Apple ønsker at gøre, ikke mere er et skjult overvågning, der henviser til Mac -privatliv, iPad eller iPhone i baggrunden. For at gøre dette har de ansvarlige for denne nye funktionalitet gået ud af deres måde og forklaret, hvordan det fungerer.

Erik Neuenschwander forklarer, hvordan hans system fungerer for at øge børns beskyttelse

CSAM

Vi taler om den nye funktionalitet, der vil træde i kraft i USA i efteråret, og hvis formål er at børnebeskyttelse mod seksuelle overgreb. Det fokuserer på fotos -appen, iMessage, Siri og søgning. Så det påvirker alle Apple -enheder, hvor disse applikationer griber ind. Vi taler derfor om Mac'er, som selvom det ikke er enheden par excellence til at tage fotos, det er at gemme og klassificere dem, ud over den eksisterende synkronisering via iCloud. Brugen af ​​iMessage, Siri men især søgekommandoen.

Detektionssystemet kaldet CSAM det fungerer hovedsageligt i iCloud -fotos. Et registreringssystem kaldet NeuralHash identificerer og sammenligner med National Center for Missing & Exploited Children IDs for at opdage seksuelt misbrug og lignende indhold i iCloud -fotobiblioteker, men også kommunikationssikkerhed i iMessage.

En forælder kan aktivere denne funktion på deres enhed til børn under 13 år. Det advarer, når det opdager, at et billede, de skal se, er eksplicit. Det vil også påvirke Siri og søgesystemet, som når en bruger forsøger at søge efter relaterede termer via Siri og søgekommandoen.

Neuenschwander forklarer, hvorfor Apple annoncerede funktionen Communication Security i iMessage sammen med CSAM Detection -funktionen i iCloud Photos:

Så vigtigt som det er at identificere de kendte CSAM -samlinger, hvor de er gemt i Apples iCloud -fototjeneste, er det også vigtigt at forsøge at komme videre i den allerede forfærdelige situation. Det er også vigtigt at gøre ting for at gribe ind tidligere, når folk begynder at komme ind i dette besværlige og skadelige område. Hvis der allerede er mennesker, der forsøger at føre børn ind i situationer, hvor der kan forekomme misbrug. Besked om beskeder og vores indgreb på Siri og søgning påvirker faktisk de dele af processen. Så vi forsøger virkelig at forstyrre de cyklusser, der fører til CSAM, der i sidste ende kan blive opdaget af vores system.

"Privatliv vil være intakt for alle, der ikke deltager i ulovlige aktiviteter"

Vanskelig sætning. Neuenschwander har således defineret og forsvaret Apples position over for dem, der beskylder virksomheden for at åbne en bagdør for at spionere på dets brugere. Sikkerhedschefen forsvarer, at sikkerheden vil eksistere, og privatliv vil blive opretholdt for dem, der ikke kommenterer ulovligheder. Meget godt, hvis det ikke havde nogen fejl Men hvem fortæller mig, at systemet ikke er ufuldkommen?

¿Apple bør have tillid, hvis en regering forsøger at gribe ind i dette nye system?

Neuenschwander svarer og siger, at det i princippet kun lanceres til iCloud -konti i USA, så lokale love tilbyder ikke denne form for kapacitet til den føderale regering. Foreløbig vil kun indbyggere i USA blive underlagt denne kontrol. Men han svarer ikke og gør det ikke klart, hvad der vil ske i fremtiden, når det lanceres i andre lande. Selvom det vil tage tid, da det vil afhænge af lovene i hver af dem. Den adfærd, der er beskrevet i straffelovgivningen i hvert land, er forskellig i, hvad der er en forbrydelse, så Apple -algoritmen bør tilpasses hver juridisk situation, og det burde slet ikke være let.

Det vigtigste i denne sag er følgende: iCloud er nøglen. Hvis brugerne ikke bruger iCloud -fotos, kører NeuralHash ikke og genererer ingen prompts. CSAM discovery er en neural hash, der sammenlignes med en database med kendte CSAM -hash, der er en del af operativsystemets image. Intet virker, hvis iCloud Photos ikke bruges.

Kontroversiel uden tvivl. Et godt formål, men med nogle smuthuller Tror du, at der er tale om privatlivets fred? Værdi?


Efterlad din kommentar

Din e-mailadresse vil ikke blive offentliggjort. Obligatoriske felter er markeret med *

*

*

  1. Ansvarlig for dataene: Miguel Ángel Gatón
  2. Formålet med dataene: Control SPAM, management af kommentarer.
  3. Legitimering: Dit samtykke
  4. Kommunikation af dataene: Dataene vil ikke blive kommunikeret til tredjemand, undtagen ved juridisk forpligtelse.
  5. Datalagring: Database hostet af Occentus Networks (EU)
  6. Rettigheder: Du kan til enhver tid begrænse, gendanne og slette dine oplysninger.