Kontroversi atas sistem deteksi pornografi anak Apple terus berlanjut

Foto MacBook Air

Sejak Apple mengumumkan deteksi materi pelecehan seksual anak untuk iOS, iPadOS, dan macOS Awal bulan ini, ada banyak perdebatan. Bukan hanya di kalangan pakar keamanan, tapi bahkan di kalangan karyawan Apple sendiri yang meminta Apple untuk tidak menerapkannya.

Yang terakhir bergabung dengan malaise atas penerapan sistem ini lebih dari 90 kelompok hak-hak sipil. Mereka telah menulis surat terbuka kepada Apple, memintanya untuk mundur dari rencana CSAM (Materi Pelecehan Seksual Anak). Alasan mereka menyinggung adalah bahwa sistem ini dapat dieksploitasi untuk tujuan lain.

Apa itu CSAM?

CSAM

CSAM, diterjemahkan sebagai Materi Pelecehan Seksual Anak, adalah a katalog foto dengan konten pornografi anak, diketahui, disiapkan dan diperbarui secara berkala oleh asosiasi yang berbeda dan yang isinya dikendalikan oleh National Center for Missing and Exploited Children (NCMEC).

Setiap foto yang disimpan dalam database ini memiliki tanda tangan digital yang unik, tanda tangan digital yang itu akan dibandingkan dengan gambar dari foto yang disimpan di akun pengguna iCloud. Jika kecocokan terdeteksi, akses ke akun pengguna akan diblokir dan pihak berwenang akan diberitahu.

Google, Dropbox, dan Microsoft telah menggunakan sistem pelacakan gambar ini untuk akun pengguna selama beberapa waktu, tetapi Apple telah melangkah lebih jauh dan telah menciptakan sistem baru yang disebut NeuralHash, sebuah sistem yang menganalisis cloud terenkripsi pengguna, secara teori, mencari jenis gambar ini dan yang bahkan tidak dapat diakses oleh Apple sendiri.

Kesal dari organisasi hak-hak sipil

Antara beberapa penandatangan surat ini adalah American Civil Liberties Union, Canadian Civil Liberties Association, organisasi Australia Digital Rights Watch, British Liberty, Privacy International ...

Surat itu dimulai dengan menyoroti kemampuan NeuralHash, yang menyatakan bahwa:

Sementara kemampuan dimaksudkan untuk melindungi anak-anak dan mengurangi penyebaran Materi Pelecehan Seksual Anak (Child Sexual Abuse Material/CSAM), kami khawatir bahwa itu digunakan untuk menyensor ekspresi yang dilindungi, mengancam privasi dan keselamatan orang-orang di seluruh dunia, dan memiliki konsekuensi bencana bagi banyak anak. .

Setelah kemampuan ini dimasukkan ke dalam produk Apple, perusahaan dan pesaingnya akan menghadapi tekanan besar - dan kemungkinan persyaratan hukum - dari pemerintah di seluruh dunia untuk memindai foto tidak hanya untuk CSAM, tetapi juga gambar lain yang dianggap pemerintah dipertanyakan.

Gambar tersebut dapat berupa pelanggaran hak asasi manusia, protes politik, gambar yang oleh perusahaan dicap sebagai konten 'teroris' atau ekstremis kekerasan, atau bahkan gambar tidak menarik dari politisi itu sendiri yang akan menekan perusahaan untuk memindainya.

90 organisasi ini mengklaim bahwa pencarian foto dapat diperluas ke gambar yang disimpan di perangkat, bukan hanya yang disimpan di iCloud, jadi Apple mungkin telah menciptakan dasar untuk penyensoran, pengawasan, dan penganiayaan di seluruh dunia.

Tak perlu dikatakan bahwa ketika pemerintah mendesak Apple untuk memberikan akses ke konten penggunanya, seperti China atau Rusia, Apple menundukkan kepalanya dan memenuhi tuntutannya. Siapa yang meyakinkan kita bahwa Apple tidak akan mengikuti kebijakan yang sama dengan negara lain?

Surat itu selanjutnya menyatakan bahwa sistem ini akan membahayakan anak-anak:

Sistem yang dikembangkan Apple mengasumsikan bahwa akun "orang tua" dan "anak" yang terlibat sebenarnya milik orang dewasa yang merupakan orang tua dari seorang anak, dan bahwa orang-orang ini memiliki hubungan yang sehat.

Hal ini tidak selalu terjadi; orang dewasa yang kasar dapat menjadi pengelola akun, dan konsekuensi dari memberi tahu orang tua dapat mengancam keselamatan dan kesejahteraan anak. LGBTQ + pemuda dalam akun keluarga dengan orang tua yang tidak simpatik sangat berisiko

Surat itu diakhiri dengan menyatakan bahwa terlepas dari upaya Apple untuk mengurangi pelecehan anak, perusahaan harus tetap teguh dalam kebijakan privasi yang telah dia bangun dalam beberapa tahun terakhir.

Kami mendukung upaya untuk melindungi anak-anak dan sangat menentang proliferasi CSAM. Namun perubahan yang diumumkan Apple membuat anak-anak dan pengguna lain berisiko, baik sekarang maupun di masa depan. Kami mendesak Apple untuk mengabaikan perubahan tersebut dan menegaskan kembali komitmen perusahaan untuk melindungi penggunanya dengan enkripsi ujung ke ujung. Kami juga mendesak Apple untuk berkonsultasi secara lebih teratur dengan kelompok masyarakat sipil dan komunitas rentan yang mungkin terpengaruh secara tidak proporsional oleh perubahan pada produk dan layanannya.

Tulisan

Aplikasi pesan

Apple akan memperkenalkan fitur baru ini dengan rilis macOS Monterey, iOS 15, dan iPadOS 15, sebuah fungsi yang disertai dengan sistem yang akan mendeteksi penyebaran materi seksual anak melalui aplikasi Pesan dan yang akan memberi tahu orang tua atau wali jika anak di bawah umur telah menerima gambar yang diklasifikasikan sebagai implisit seksual.

Gambar-gambar ini awalnya akan tampak buram dan melalui pesan, akan dijelaskan kepada anak di bawah umur (jika mereka berusia 12 tahun atau lebih muda) bahwa gambar tersebut tidak cocok untuk mereka. Jika Anda memilih untuk melihatnya, orang tua akan menerima pemberitahuan bersama dengan gambar. Dalam hal ini, akan lebih disarankan bahwa itu adalah orang tua yang memberi lampu hijau untuk anak di bawah umur untuk memiliki akses ke gambar.

Gambar yang diterima melalui aplikasi Pesan, akan dipindai pada perangkat dan informasi itu tidak akan keluar dari sana. Baik pihak berwenang maupun Apple tidak akan mengetahui acara tersebut.

siri

siri

Siri juga telah bergabung dalam perang melawan pornografi anak. Dengan dirilisnya iOS 15, iPadOS 15, dan macOS Monterrey, jika pengguna menelusuri jenis konten ini, Anda akan menerima pemberitahuan yang memberi tahu Anda bahwa Anda sedang melakukan pencarian untuk materi yang dianggap ilegal dan itu akan memberi tahu Anda di mana Anda dapat menemukan bantuan dan cara untuk melaporkan konten tersebut.

Proses ini, seperti analisis gambar yang diterima melalui aplikasi Pesan, akan dilakukan secara internal pada perangkat, tanpa sepengetahuan Apple atau pihak berwenang.


Beli domain
Anda tertarik dengan:
Rahasia meluncurkan situs web Anda dengan sukses

tinggalkan Komentar Anda

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai dengan *

*

*

  1. Penanggung jawab data: Miguel Ángel Gatón
  2. Tujuan data: Mengontrol SPAM, manajemen komentar.
  3. Legitimasi: Persetujuan Anda
  4. Komunikasi data: Data tidak akan dikomunikasikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Basis data dihosting oleh Occentus Networks (UE)
  6. Hak: Anda dapat membatasi, memulihkan, dan menghapus informasi Anda kapan saja.