Răspunsuri și întrebări la următorul sistem de protecție a copilului de la Apple

Pictogramă fotografii pentru macOS

Apple a anunțat trei funcții noi care vizează protecția copilului pe dispozitivele sale. Ideea în sine este fantastică. Cu toate acestea, sunt cei care au profitat de ocazie pentru a pune degetul pe rană. El se întreabă dacă ceea ce vrea Apple să facă nu este mai mult un supraveghere ascunsă care renunță la confidențialitatea Mac, iPad sau iPhone în fundal. Pentru a face acest lucru, cei responsabili de această nouă funcționalitate s-au străduit să explice cum funcționează.

Erik Neuenschwander explică modul în care sistemul său funcționează pentru a crește protecția copilului

CSAM

Vorbim despre noua funcționalitate care va intra în vigoare în SUA toamna și al cărei scop este protecția copilului împotriva abuzurilor sexuale. Se concentrează pe aplicația pentru fotografii, iMessage, Siri și căutare. Deci, afectează toate dispozitivele Apple în care intervin aceste aplicații. Vorbim, prin urmare, despre Mac-uri, care, deși nu este dispozitivul prin excelență pentru a face fotografii, este să le salvăm și să le clasificăm, pe lângă sincronizarea existentă prin iCloud. Utilizarea iMessage, Siri dar mai ales a comenzii de căutare.

Sistemul de detectare numit CSAM funcționează în principal în iCloud Photos. Un sistem de detectare numit NeuralHash identifică și se compară cu ID-urile Centrului Național pentru Copii Dispăruți și Exploatați pentru a detecta abuzurile sexuale și conținutul similar din bibliotecile foto iCloud, dar și securitatea comunicării în iMessage.

Un părinte poate activa această funcție pe dispozitivul său pentru copii cu vârsta sub 13 ani. Va alerta când detectează că o imagine pe care urmează să o vadă este explicită. De asemenea, va afecta Siri și sistemul de căutare ca atunci când un utilizator încearcă să caute termenii înrudiți prin Siri și comanda de căutare.

Neuenschwander explică de ce Apple a anunțat funcția Security Security în iMessage împreună cu funcția de detectare CSAM din iCloud Photos:

Pe cât de important este identificarea colecțiilor CSAM cunoscute în care sunt stocate în serviciul foto iCloud al Apple, este de asemenea important să încercați să mergeți mai departe în acea situație deja oribilă. De asemenea, este important să faceți lucruri pentru a interveni mai devreme când oamenii încep să intre în această zonă supărătoare și dăunătoare. Dacă există deja oameni care încearcă să conducă copiii în situații în care pot apărea abuzuri. Securitatea mesajelor și intervențiile noastre pe Siri și căutare afectează de fapt acele părți ale procesului. Așadar, încercăm într-adevăr să întrerupem ciclurile care duc la CSAM care ar putea fi detectate în cele din urmă de sistemul nostru.

„Confidențialitatea va fi intactă pentru toți cei care nu participă la activități ilegale”

Frază dificilă. Neuenschwander a definit astfel și a apărat poziția Apple împotriva celor care acuză compania că a deschis o ușă din spate pentru a spiona utilizatorii săi. Executivul de securitate apără că securitatea va exista și intimitatea va fi menținută pentru cei care nu comentează ilegalitățile. Foarte bine dacă nu ar avea vina Dar cine îmi spune că sistemul nu este imperfect?

¿Apple ar trebui să aibă încredere dacă un guvern încearcă să intervină în acest nou sistem?

Neuenschwander răspunde spunând că, în principiu, este lansat numai pentru conturile iCloud din SUA, deci legile locale nu oferă aceste tipuri de capacități guvernului federal. Deocamdată, doar rezidenții Statelor Unite vor fi supuși acestui control. Dar el nu răspunde și nu clarifică ce se va întâmpla în viitor când va fi lansat în alte țări. Deși acest lucru va dura timp, deoarece va depinde de legile fiecăruia dintre ele. Conduita descrisă în codurile penale ale fiecărei țări diferă prin ceea ce este o infracțiune, astfel încât algoritmul Apple ar trebui să fie adaptat fiecărei situații juridice și acest lucru nu ar trebui deloc ușor.

Cel mai important lucru în această chestiune este următorul: iCloud este cheia. Dacă utilizatorii nu folosesc iCloud Photos, NeuralHash nu va rula și nu va genera nicio solicitare. Descoperirea CSAM este un hash neuronal care este comparat cu o bază de date de hash-uri CSAM cunoscute care fac parte din imaginea sistemului de operare. Nimic nu va funcționa dacă iCloud Photos nu este utilizat.

Controversat fără îndoială. Un scop bun, dar cu unele lacune Credeți că este vorba de confidențialitate? In valoare de?


Lasă comentariul tău

Adresa ta de email nu va fi publicată. Câmpurile obligatorii sunt marcate cu *

*

*

  1. Responsabil pentru date: Miguel Ángel Gatón
  2. Scopul datelor: Control SPAM, gestionarea comentariilor.
  3. Legitimare: consimțământul dvs.
  4. Comunicarea datelor: datele nu vor fi comunicate terților decât prin obligație legală.
  5. Stocarea datelor: bază de date găzduită de Occentus Networks (UE)
  6. Drepturi: în orice moment vă puteți limita, recupera și șterge informațiile.