Antwoorden en vragen op het volgende kinderbeschermingssysteem bij Apple

Fotopictogram voor macOS

Apple heeft drie nieuwe functies aangekondigd die gericht zijn op kinderbescherming op zijn apparaten. Het idee zelf is fantastisch. Er zijn echter mensen die van de gelegenheid gebruik hebben gemaakt om hun vinger op de wond te leggen. Hij vraagt ​​zich af of wat Apple wil doen niet meer een... geheime bewaking die de privacy van Mac degradeert, iPad of iPhone op de achtergrond. Om dit te doen, hebben degenen die verantwoordelijk zijn voor deze nieuwe functionaliteit hun best gedaan om uit te leggen hoe het werkt.

Erik Neuenschwander legt uit hoe zijn systeem werkt om de kinderbescherming te verhogen

CSAM

We hebben het over de nieuwe functionaliteit die in de herfst van kracht wordt in de VS en waarvan het doel is om: kinderbescherming tegen seksueel misbruik. Het richt zich op de foto-app, iMessage, Siri en zoeken. Het heeft dus invloed op alle Apple-apparaten waarop deze applicaties ingrijpen. We hebben het dus over Macs, die hoewel het niet het apparaat bij uitstek is om foto's te maken, het is om ze op te slaan en te classificeren, naast de bestaande synchronisatie via iCloud. Het gebruik van iMessage, Siri maar vooral het zoekcommando.

Het detectiesysteem genaamd CSAM het werkt voornamelijk in iCloud-foto's. Een detectiesysteem genaamd NeuralHash identificeert en vergelijkt met het National Center for Missing & Exploited Children ID's om seksueel misbruik en soortgelijke inhoud in iCloud-fotobibliotheken te detecteren, maar ook communicatiebeveiliging in iMessage.

Een ouder kan deze functie op hun apparaat activeren voor kinderen jonger dan 13 jaar. Het waarschuwt wanneer het detecteert dat een afbeelding die ze gaan zien expliciet is. Het heeft ook invloed op Siri en het zoeksysteem, zoals wanneer een gebruiker probeert te zoeken naar verwante termen via Siri en het zoekcommando.

Neuenschwander legt uit waarom Apple de functie Communicatiebeveiliging heeft aangekondigd in iMessage samen met de CSAM-detectiefunctie in iCloud-foto's:

Hoe belangrijk het ook is om de bekende CSAM-collecties te identificeren waar ze zijn opgeslagen in de iCloud-fotoservice van Apple, het is ook belangrijk om te proberen vooruit te komen in die toch al vreselijke situatie. Het is ook belangrijk om dingen te doen om eerder in te grijpen wanneer mensen dit lastige en schadelijke gebied beginnen te betreden. Als er al mensen zijn die proberen kinderen in situaties te brengen waar misbruik kan optreden. Berichtbeveiliging en onze interventies op Siri en zoeken hebben daadwerkelijk invloed op die delen van het proces. We proberen dus echt de cycli te doorbreken die leiden tot CSAM die uiteindelijk door ons systeem kan worden gedetecteerd.

"Privacy blijft intact voor iedereen die niet deelneemt aan illegale activiteiten"

Moeilijke zin. Neuenschwander heeft dus de positie van Apple gedefinieerd en verdedigd tegen degenen die het bedrijf ervan beschuldigen een achterdeur te openen om zijn gebruikers te bespioneren. De veiligheidsmanager verdedigt dat er veiligheid zal bestaan ​​en dat de privacy zal worden gehandhaafd voor degenen die geen commentaar geven op onwettigheden. Heel goed als dat geen fout had? Maar wie zegt mij dat het systeem niet onvolmaakt is?

¿Apple moet worden vertrouwd als een overheid probeert in te grijpen in dit nieuwe systeem?

Neuenschwander antwoordt dat het in principe alleen wordt gelanceerd voor iCloud-accounts in de VS, dus lokale wetten bieden dit soort mogelijkheden niet aan de federale overheid. Voorlopig zullen alleen inwoners van de Verenigde Staten aan dit onderzoek worden onderworpen. Maar hij geeft geen antwoord en maakt niet duidelijk wat er in de toekomst zal gebeuren als het in andere landen wordt gelanceerd. Hoewel dat tijd zal kosten, omdat het zal afhangen van de wetten van elk van hen. De gedragingen die in de strafwetten van elk land worden beschreven, verschillen in wat een misdrijf is, dus het Apple-algoritme moet worden aangepast aan elke juridische situatie en dat moet helemaal niet gemakkelijk zijn.

Het belangrijkste in deze is het volgende: iCloud is de sleutel. Als gebruikers iCloud-foto's niet gebruiken, wordt NeuralHash niet uitgevoerd en worden er geen prompts gegenereerd. CSAM-detectie is een neurale hash die wordt vergeleken met een database met bekende CSAM-hashes die deel uitmaken van de afbeelding van het besturingssysteem. Niets werkt als iCloud-foto's niet wordt gebruikt.

Controversieel zonder twijfel. Een goed doel maar met enkele mazen Denk je dat privacy in het geding is? Waard?


Laat je reactie achter

Uw e-mailadres wordt niet gepubliceerd. Verplichte velden zijn gemarkeerd met *

*

*

  1. Verantwoordelijk voor de gegevens: Miguel Ángel Gatón
  2. Doel van de gegevens: Controle SPAM, commentaarbeheer.
  3. Legitimatie: uw toestemming
  4. Mededeling van de gegevens: De gegevens worden niet aan derden meegedeeld, behalve op grond van wettelijke verplichting.
  5. Gegevensopslag: database gehost door Occentus Networks (EU)
  6. Rechten: u kunt uw gegevens op elk moment beperken, herstellen en verwijderen.