Svar och frågor till nästa barnskyddssystem hos Apple

Fotonikon för macOS

Apple tillkännagav tre nya funktioner som riktar sig till barnskydd på sina enheter. Idén i sig är fantastisk. Det finns dock de som har passat på att sätta fingret på såret. Han undrar om vad Apple vill göra inte är mer av en hemlig övervakning som förflyttar Macs integritet, iPad eller iPhone i bakgrunden. För att göra detta har de som ansvarar för den här nya funktionaliteten gjort allt för att förklara hur det fungerar.

Erik Neuenschwander förklarar hur hans system fungerar för att höja barnskyddet

CASS

Vi pratar om den nya funktionaliteten som kommer att träda i kraft i USA under hösten och vars syfte är att barnskydd mot sexuella övergrepp. Den fokuserar på fotonappen, iMessage, Siri och sökning. Så det påverkar alla Apple -enheter som dessa applikationer ingriper i. Vi pratar därför om Mac -datorer, som även om det inte är enheten i första hand för att ta foton, det är att spara och klassificera dem, förutom den befintliga synkroniseringen via iCloud. Användningen av iMessage, Siri men särskilt sökkommandot.

Detekteringssystemet kallas CSAM det fungerar främst i iCloud -foton. Ett detektionssystem som heter NeuralHash identifierar och jämför med National Center for Missing & Exploited Children ID för att upptäcka sexuella övergrepp och liknande innehåll i iCloud -fotobibliotek, men också kommunikationssäkerhet i iMessage.

En förälder kan aktivera den här funktionen på sin enhet för barn under 13 år. Det kommer att varna när det upptäcker att en bild de kommer att se är tydlig. Det kommer också att påverka Siri och söksystemet som när en användare försöker söka efter relaterade termer via Siri och sökkommandot.

Neuenschwander förklarar varför Apple meddelade funktionen Communication Security i iMessage tillsammans med CSAM Detection -funktionen i iCloud Photos:

Lika viktigt som det är att identifiera de kända CSAM -samlingarna där de lagras i Apples iCloud -fototjänst, är det också viktigt att försöka gå vidare i den redan hemska situationen. Det är också viktigt att göra saker för att ingripa tidigare när människor börjar komma in i detta besvärliga och skadliga område. Om det redan finns människor som försöker leda barn till situationer där övergrepp kan förekomma. Meddelandesäkerhet och våra insatser på Siri och sökning påverkar faktiskt de delar av processen. Så vi försöker verkligen störa de cykler som leder till CSAM som i slutändan kan upptäckas av vårt system.

"Sekretess kommer att vara intakt för alla som inte deltar i olagliga aktiviteter"

Svår fras. Neuenschwander har därmed definierat och försvarat Apples ståndpunkt mot dem som anklagar företaget för att öppna en bakdörr för att spionera på sina användare. Säkerhetschefen försvarar att säkerheten kommer att finnas och integriteten kommer att upprätthållas för dem som inte kommenterar olagligheter. Mycket bra om det inte hade något fel Men vem säger mig att systemet inte är ofullkomligt?

¿Apple bör lita på om en regering försöker ingripa i detta nya system?

Neuenschwander svarar och säger att det i princip bara lanseras för iCloud -konton i USA, så lokala lagar erbjuder inte den här typen av möjligheter till den federala regeringen. För närvarande kommer bara invånare i USA att bli föremål för denna granskning. Men han svarar inte och gör inte klart vad som kommer att hända i framtiden när det lanseras i andra länder. Även om det kommer att ta tid, eftersom det kommer att bero på lagarna för var och en av dem. Det beteende som beskrivs i kriminalreglerna i varje land skiljer sig åt vad som är brott, så Apples algoritm bör anpassas till varje rättssituation och det borde inte vara lätt alls.

Det viktigaste i denna fråga är följande: iCloud är nyckeln. Om användare inte använder iCloud -foton körs inte NeuralHash och genererar inga meddelanden. CSAM discovery är en neural hash som jämförs med en databas med kända CSAM -hashningar som är en del av operativsystemets avbildning. Ingenting fungerar om iCloud Photos inte används.

Kontroversiell utan tvekan. Ett bra syfte men med några kryphål Tror du att integriteten är ifrågasatt? Värde?


Lämna din kommentar

Din e-postadress kommer inte att publiceras. Obligatoriska fält är markerade med *

*

*

  1. Ansvarig för uppgifterna: Miguel Ángel Gatón
  2. Syftet med uppgifterna: Kontrollera skräppost, kommentarhantering.
  3. Legitimering: Ditt samtycke
  4. Kommunikation av uppgifterna: Uppgifterna kommer inte att kommuniceras till tredje part förutom enligt laglig skyldighet.
  5. Datalagring: databas värd för Occentus Networks (EU)
  6. Rättigheter: När som helst kan du begränsa, återställa och radera din information.