Odpowiedzi i pytania do następnego systemu ochrony dzieci w Apple

Ikona zdjęć dla systemu macOS

Firma Apple ogłosiła trzy nowe funkcje, które mają na celu ochronę dzieci na swoich urządzeniach. Sam pomysł jest fantastyczny. Są jednak tacy, którzy skorzystali z okazji, aby położyć palec na ranie. Zastanawia się, czy to, co Apple chce zrobić, nie jest bardziej tajny nadzór degradujący prywatność Maca, iPad lub iPhone w tle. Aby to zrobić, osoby odpowiedzialne za tę nową funkcjonalność zrobili wszystko, co w ich mocy, wyjaśniając, jak to działa.

Erik Neuenschwander wyjaśnia, jak działa jego system, aby zwiększyć ochronę dzieci

CSAM

Mówimy o nowej funkcjonalności, która jesienią wejdzie w życie w USA i której celem jest: ochrona dziecka przed wykorzystywaniem seksualnym. Koncentruje się na aplikacji do zdjęć, iMessage, Siri i wyszukiwaniu. Dotyczy to więc wszystkich urządzeń Apple, w których interweniują te aplikacje. Dlatego mówimy o komputerach Mac, które chociaż nie są urządzeniem par excellence do robienia zdjęć, to ich zapisywanie i klasyfikowanie, oprócz istniejącej synchronizacji za pośrednictwem iCloud. Korzystanie z iMessage, Siri, ale zwłaszcza polecenia wyszukiwania.

System wykrywania o nazwie CSAM działa głównie w Zdjęciach iCloud. System wykrywania o nazwie NeuralHash identyfikuje i porównuje z identyfikatorami National Center for Missing & Exploited Children w celu wykrywania nadużyć seksualnych i podobnych treści w bibliotekach zdjęć iCloud, ale także bezpieczeństwa komunikacji w iMessage.

Rodzic może aktywować tę funkcję na swoim urządzeniu dla dzieci poniżej 13 roku życia. Zaalarmuje, gdy wykryje, że obraz, który zobaczą, jest wyraźny. Wpłynie to również na Siri i system wyszukiwania, gdy użytkownik spróbuje wyszukać powiązane terminy za pomocą Siri i polecenia wyszukiwania.

Neuenschwander wyjaśnia, dlaczego Apple ogłosił funkcję Communication Security w iMessage wraz z funkcją CSAM Detection w iCloud Photos:

Równie ważne, jak zidentyfikowanie znanych kolekcji CSAM, w których są one przechowywane w usłudze fotograficznej iCloud firmy Apple, ważne jest również, aby spróbować iść naprzód w tej już okropnej sytuacji. Ważne jest również, aby wcześniej interweniować, gdy ludzie zaczną wchodzić w ten kłopotliwy i szkodliwy obszar. Jeśli są już ludzie, którzy próbują wprowadzić dzieci w sytuacje, w których może dojść do znęcania się. Bezpieczeństwo wiadomości i nasze interwencje w Siri i wyszukiwarce faktycznie wpływają na te części procesu. Tak więc naprawdę staramy się zakłócić cykle, które prowadzą do CSAM, który może ostatecznie zostać wykryty przez nasz system.

„Prywatność pozostanie nienaruszona dla wszystkich, którzy nie uczestniczą w nielegalnych działaniach”

Trudna fraza. Neuenschwander w ten sposób zdefiniował i obronił stanowisko Apple'a przed tymi, którzy oskarżają firmę o otwieranie tylnych drzwi w celu szpiegowania użytkowników. Dyrektor ds. bezpieczeństwa broni, że bezpieczeństwo będzie istniało, a prywatność zostanie zachowana dla tych, którzy nie komentują nielegalności. Bardzo dobrze, gdyby to nie miało winy? Ale kto mi mówi, że system nie jest niedoskonały?

¿Apple należy zaufać, jeśli rząd spróbuje interweniować w tym nowym systemie?

Neuenschwander odpowiada, że ​​w zasadzie jest uruchamiany tylko dla kont iCloud w USA, więc lokalne przepisy nie oferują tego rodzaju możliwości rządowi federalnemu. Na razie tej kontroli będą podlegać tylko mieszkańcy Stanów Zjednoczonych. Ale nie odpowiada i nie wyjaśnia, co stanie się w przyszłości, gdy zostanie uruchomiony w innych krajach. Chociaż zajmie to trochę czasu, ponieważ będzie to zależeć od praw każdego z nich. Postępowanie opisane w kodeksach karnych każdego kraju różni się tym, czym jest przestępstwo, więc algorytm Apple powinien być dostosowany do każdej sytuacji prawnej, a to wcale nie powinno być łatwe.

Najważniejsze w tej kwestii jest: Kluczem jest iCloud. Jeśli użytkownicy nie korzystają ze Zdjęć iCloud, NeuralHash nie uruchomi się i nie wygeneruje żadnych monitów. Wykrywanie CSAM to skrót neuronowy, który jest porównywany z bazą danych znanych skrótów CSAM będących częścią obrazu systemu operacyjnego. Nic nie będzie działać, jeśli Zdjęcia iCloud nie są używane.

Bez wątpienia kontrowersyjne. Dobry cel, ale z pewnymi lukami Czy uważasz, że prywatność jest kwestionowana? Wartość?


Zostaw swój komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

*

*

  1. Odpowiedzialny za dane: Miguel Ángel Gatón
  2. Cel danych: kontrola spamu, zarządzanie komentarzami.
  3. Legitymacja: Twoja zgoda
  4. Przekazywanie danych: Dane nie będą przekazywane stronom trzecim, z wyjątkiem obowiązku prawnego.
  5. Przechowywanie danych: baza danych hostowana przez Occentus Networks (UE)
  6. Prawa: w dowolnym momencie możesz ograniczyć, odzyskać i usunąć swoje dane.