Jawaban dan pertanyaan untuk sistem perlindungan anak berikutnya di Apple

Ikon Foto untuk macOS

Apple mengumumkan tiga fitur baru yang menargetkan perlindungan anak di perangkatnya. Idenya sendiri fantastis. Namun, ada orang yang mengambil kesempatan untuk meletakkan jari mereka di luka. Dia bertanya-tanya apakah yang ingin dilakukan Apple tidak lebih dari pengawasan rahasia menurunkan privasi Mac, iPad atau iPhone di latar belakang. Untuk melakukan ini, mereka yang bertanggung jawab atas fungsi baru ini telah menjelaskan cara kerjanya.

Erik Neuenschwander menjelaskan bagaimana sistemnya bekerja untuk meningkatkan perlindungan anak

CSAM

Kita berbicara tentang fungsi baru yang akan mulai berlaku di AS pada musim gugur dan yang tujuannya adalah untuk perlindungan anak dari pelecehan seksual. Ini berfokus pada aplikasi foto, iMessage, Siri, dan pencarian. Jadi itu mempengaruhi semua perangkat Apple di mana aplikasi ini campur tangan. Oleh karena itu kita berbicara tentang Mac, yang meskipun bukan perangkat yang sempurna untuk mengambil foto, ini adalah untuk menyimpan dan mengklasifikasikannya, di samping sinkronisasi yang ada melalui iCloud. Penggunaan iMessage, Siri tetapi terutama perintah pencarian.

Sistem deteksi yang disebut CSAM ini bekerja terutama di Foto iCloud. Sistem deteksi yang disebut NeuralHash mengidentifikasi dan membandingkan dengan National Center for Missing & Exploited Children IDs untuk mendeteksi pelecehan seksual dan konten serupa di perpustakaan foto iCloud, tetapi juga keamanan komunikasi di iMessage.

Orang tua dapat mengaktifkan fitur ini di perangkat mereka untuk anak di bawah usia 13 tahun. Ini akan mengingatkan ketika mendeteksi bahwa gambar yang akan mereka lihat eksplisit. Ini juga akan memengaruhi Siri dan sistem pencarian seperti ketika pengguna mencoba mencari istilah terkait melalui Siri dan perintah pencarian.

Neuenschwander menjelaskan mengapa Apple mengumumkan fitur Keamanan Komunikasi di iMessage bersama dengan fitur Deteksi CSAM di Foto iCloud:

Sama pentingnya dengan mengidentifikasi koleksi CSAM yang diketahui di mana mereka disimpan di layanan foto iCloud Apple, penting juga untuk mencoba bergerak maju dalam situasi yang sudah mengerikan itu. Penting juga untuk melakukan hal-hal untuk melakukan intervensi lebih awal ketika orang mulai memasuki area yang menyusahkan dan berbahaya ini. Jika sudah ada orang yang mencoba membawa anak ke dalam situasi di mana pelecehan bisa terjadi. Keamanan pesan dan intervensi kami pada Siri dan pencarian benar-benar memengaruhi bagian-bagian proses tersebut. Jadi kami benar-benar mencoba untuk mengganggu siklus yang mengarah ke CSAM yang pada akhirnya dapat dideteksi oleh sistem kami.

"Privasi akan tetap utuh untuk semua yang tidak berpartisipasi dalam kegiatan ilegal"

Ungkapan yang sulit. Neuenschwander telah mendefinisikan dan membela posisi Apple terhadap mereka yang menuduh perusahaan membuka pintu belakang untuk memata-matai penggunanya. Eksekutif keamanan membela bahwa keamanan akan ada dan privasi akan dipertahankan bagi mereka yang tidak mengomentari ilegalitas. Sangat bagus jika itu tidak salah Tapi siapa yang memberitahu saya bahwa sistem ini tidak sempurna?

¿Apple harus dipercaya jika pemerintah mencoba campur tangan dalam sistem baru ini?

Neuenschwander menjawab dengan mengatakan bahwa pada prinsipnya diluncurkan hanya untuk akun iCloud di AS, jadi undang-undang setempat tidak menawarkan jenis kemampuan ini kepada pemerintah federal. Untuk saat ini, hanya penduduk Amerika Serikat yang akan dikenai pengawasan ini. Namun dia tidak menjawab dan tidak menjelaskan apa yang akan terjadi di masa depan ketika diluncurkan di negara lain. Meskipun itu akan memakan waktu, karena itu akan tergantung pada hukum masing-masing. Perilaku yang dijelaskan dalam hukum pidana masing-masing negara berbeda dalam apa itu kejahatan, sehingga algoritme Apple harus disesuaikan dengan setiap situasi hukum dan itu tidak mudah sama sekali.

Hal terpenting dalam hal ini adalah sebagai berikut: iCloud adalah kuncinya. Jika pengguna tidak menggunakan Foto iCloud, NeuralHash tidak akan berjalan dan tidak akan menghasilkan petunjuk apa pun. Penemuan CSAM adalah hash saraf yang dibandingkan dengan basis data hash CSAM yang diketahui yang merupakan bagian dari citra sistem operasi. Tidak ada yang akan berfungsi jika Foto iCloud tidak digunakan.

Kontroversial tanpa keraguan. Tujuan yang baik tetapi dengan beberapa celah Apakah menurut Anda privasi dipertanyakan? Bernilai?


tinggalkan Komentar Anda

Alamat email Anda tidak akan dipublikasikan. Bidang yang harus diisi ditandai dengan *

*

*

  1. Penanggung jawab data: Miguel Ángel Gatón
  2. Tujuan data: Mengontrol SPAM, manajemen komentar.
  3. Legitimasi: Persetujuan Anda
  4. Komunikasi data: Data tidak akan dikomunikasikan kepada pihak ketiga kecuali dengan kewajiban hukum.
  5. Penyimpanan data: Basis data dihosting oleh Occentus Networks (UE)
  6. Hak: Anda dapat membatasi, memulihkan, dan menghapus informasi Anda kapan saja.