Plany Apple dotyczące ochrony dzieci, wydaje się, że prawie nikt nie lubi

CS

Apple jednostronnie zdecydowało się zaproponować system ochrony dzieci (CSAM). Jak? Poprzez automatyczną kontrolę zdjęć przesłanych do iCloud. W ten sposób wiadomo, czy jakiś obraz jest nie na miejscu, a to szkodzi tym niemowlętom. Wiadomość nie spodobała się prawie nikomu. Jest to naruszenie prywatności użytkownika. Ale można by powiedzieć, że cel uświęca środki? Nawet EFF nie chce, aby ten pomysł Apple został zrealizowany.

Wiele stowarzyszeń, w tym EFF, nie chce, aby ten pomysł Apple na CSAM został zrealizowany

Celem Apple jest sprawienie, by ludzie poczuli się bezpieczne i wzmocnione dzięki technologii. „Chcemy pomóc chronić dzieci przed drapieżnikami, którzy wykorzystują narzędzia komunikacyjne do ich rekrutacji i wykorzystywania, a także ograniczać rozpowszechnianie materiałów dotyczących wykorzystywania seksualnego dzieci (CSAM). Dlatego Apple wprowadza nowe funkcje bezpieczeństwa dzieci w trzech obszarach: 

  1. Burmistrz kontrola rodzicielska
  2. Poprzez uczenie maszynowe Aplikacja Wiadomości. Ostrzegaj o treściach poufnych
  3. Apple uzyskuje informacje o kolekcjach CSAM pod adresem I Zdjęcia którą podzielisz się z władzami.

To tutaj pojawiają się największe problemy. Apple ma być paradygmatem prywatności zarówno offline, jak i online. Jednak dzięki tym nowym metodom jasne jest, że dla amerykańskiej firmy cel uświęca środki. Prywatność użytkownika jest naruszana ze względu na ochronę dzieci. Nie wiem, czy to dobry czy zły pomysł. Ale co wydaje się mieć chwalebny koniec, To staje się dla Apple ciężką próbą.

W tej chwili inicjatywa jest wstrzymana, bo ma zostać wdrożony później, ale najbardziej podstawowym problemem jest to, że jest wiele firm, organizacji i osób prywatnych, które się krzyczą. Tutaj możemy pomyśleć, że jeśli „nie mamy nic do ukrycia, nie powinniśmy bać się tej techniki, ponieważ nigdy niczego nie znajdą”. Ale strach, który daje, polega na tym, że jest zdezorientowany i znajduje coś, czym nie jest. Maszyny są dobre, ale nie niezawodne. I wracamy też do zwykłego pytania. Cel uświęca środki?.

Jedną z organizacji, która sprzeciwia się tej inicjatywie Apple, jest Electronic Frontier Foundation (EFF). Poprosił Apple o całkowite porzucenie projektu bezpieczeństwa dzieci. Grupa twierdzi, że „ma szczęście”, że posunięcie Apple jest na razie wstrzymane. Ale nazywa plany, które obejmują skanowanie obrazów użytkowników pod kątem materiałów związanych z wykorzystywaniem dzieci (CSAM), „zmniejszeniem prywatności wszystkich użytkowników iCloud Photos”. Petycja EFF przeciwko oryginalnej reklamie Apple zawiera teraz ponad 25.000 50.000 podpisów. Inny, założony przez grupy takie jak Fight for the Future i OpenMedia, zawiera ponad XNUMX XNUMX.

Wiele osób podpisało się przeciwko tej inicjatywie. Może nie jest to znacząca liczba w porównaniu do sprzedaży urządzeń Apple'a, ale wystarczy, aby wziąć pod uwagę jego pozycję i podejście. Niektórzy eksperci ostrzegają, że funkcja ta może zostać rozszerzona, aby znaleźć inne materiały później, jeśli Apple ugnie się pod nieuniknioną presją rządów.

EFF jest zadowolony, że Apple wysłuchuje teraz obaw klientów, naukowców, organizacji na rzecz wolności obywatelskich, obrońców praw człowieka, osób LGBTQ, przedstawicieli młodzieży i innych grup o niebezpieczeństwach stwarzanych przez jej narzędzia do skanowania telefonów. Ale firma musi wyjść poza zwykłe słuchanie i porzucić plany całkowitego wprowadzenia backdoora do szyfrowania. Funkcje, które Apple ogłosił miesiąc temu, mające na celu ochronę dzieci, stworzyłyby infrastrukturę, którą zbyt łatwo byłoby przekierować na wzmożony nadzór i cenzurę. Środki te stworzyłyby ogromne zagrożenie dla prywatności i bezpieczeństwa użytkowników Apple, oferując autorytarnym rządom nowy system masowej inwigilacji do szpiegowania obywateli.

Będziemy uważni do tej walki o prywatność kontra bezpieczeństwo. Dwie podstawowe wartości i prawa stają twarzą w twarz.


Kup domenę
Jesteś zainteresowany:
Sekrety udanego uruchomienia witryny internetowej

Zostaw swój komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *

*

*

  1. Odpowiedzialny za dane: Miguel Ángel Gatón
  2. Cel danych: kontrola spamu, zarządzanie komentarzami.
  3. Legitymacja: Twoja zgoda
  4. Przekazywanie danych: Dane nie będą przekazywane stronom trzecim, z wyjątkiem obowiązku prawnego.
  5. Przechowywanie danych: baza danych hostowana przez Occentus Networks (UE)
  6. Prawa: w dowolnym momencie możesz ograniczyć, odzyskać i usunąć swoje dane.