Apple'dagi navbatdagi bolalarni himoya qilish tizimiga javoblar va savollar

MacOS uchun rasmlar belgisi

Apple o'z qurilmalarida bolalarni himoya qilishga qaratilgan uchta yangi xususiyatni e'lon qildi. Fikrning o'zi ajoyib. Biroq, fursatdan foydalanib, barmog'ini yaraga qo'yganlar ham bor. U Apple nima qilishni xohlasa, a emas maxfiy kuzatuv Mac maxfiyligini buzadi, iPad yoki iPhone fonda. Buning uchun bu yangi funksiya uchun mas'ul bo'lganlar uning qanday ishlashini tushuntirib berishdi.

Erik Neuenschwander o'z tizimini bolalarni himoya qilishda qanday ishlashini tushuntiradi

CSAM

Biz AQShda kuzda kuchga kiradigan va uning maqsadi yangi funksionallik haqida gapirayapmiz bolalarni jinsiy zo'ravonlikdan himoya qilish. Bu rasmlar ilovasi, iMessage, Siri va qidiruvga qaratilgan. Shunday qilib, bu ilovalar aralashadigan barcha Apple qurilmalariga ta'sir qiladi. Shunday qilib, biz Mac -lar haqida gapirayapmiz, garchi ular suratga olishning eng yaxshi qurilmasi bo'lmasa -da, iCloud orqali mavjud sinxronlashdan tashqari, ularni saqlash va tasniflash. IMessage, Siri -dan foydalanish, lekin ayniqsa qidirish buyrug'i.

CSAM deb nomlangan aniqlash tizimi U asosan iCloud rasmlarida ishlaydi. NeuralHash nomli aniqlash tizimi yo'qolgan va ekspluatatsiya qilingan bolalar identifikatorlari milliy markazi identifikatsiya qiladi va iCloud foto kutubxonalaridagi jinsiy zo'ravonlik va shunga o'xshash kontentni, shuningdek iMessage -dagi aloqa xavfsizligini aniqlash uchun identifikatsiya qiladi.

Ota -ona bu imkoniyatni o'z qurilmasida 13 yoshgacha bo'lgan bolalar uchun faollashtirishi mumkin. U ko'rmoqchi bo'lgan tasvir aniq ekanligini aniqlagach, u ogohlantiradi. Bu Siri va qidiruv tizimiga ham ta'sir qiladi, chunki foydalanuvchi Siri va qidirish buyrug'i orqali tegishli atamalarni qidirishga harakat qiladi.

Neuenschwander Apple nima uchun aloqa xavfsizligi xususiyatini e'lon qilganini tushuntiradi iMessage iCloud -da CSAM -ni aniqlash funktsiyasi bilan bir qatorda:

CSAM -ning Apple -ning iCloud foto xizmatida saqlanadigan ma'lum to'plamlarini aniqlash qanchalik muhim bo'lsa, o'sha dahshatli vaziyatda oldinga siljishga harakat qilish ham muhimdir. Odamlar bu mashaqqatli va zararli hududga kira boshlaganda, oldinroq aralashish uchun nimalar qilish muhim. Agar allaqachon bolalarni suiiste'mol qilish mumkin bo'lgan holatlarga olib borishga urinayotgan odamlar bo'lsa. Xabar xavfsizligi va Siri va qidiruvga bo'lgan aralashuvimiz jarayonning bu qismlariga ta'sir qiladi. Shunday qilib, biz haqiqatan ham tizimimiz tomonidan aniqlanishi mumkin bo'lgan CSAMga olib keladigan tsikllarni buzishga harakat qilmoqdamiz.

"Noqonuniy harakatlarda qatnashmaganlarning shaxsiy hayoti maxfiy bo'ladi"

Murakkab ibora. Neuenschwander shu tariqa Apple kompaniyasini o'z foydalanuvchilarini josuslik qilish uchun orqa eshikni ochishda ayblaganlardan Apple pozitsiyasini aniqladi va himoya qildi. Xavfsizlik boshqaruvchisi xavfsizlik mavjud bo'lishini va qonunbuzarliklar haqida izoh bermaganlar uchun maxfiylik saqlanishini himoya qiladi. Juda yaxshi, agar uning aybi bo'lmasa Lekin kim menga tizim nomukammal emasligini aytadi?

¿Agar hukumat ushbu yangi tizimga aralashmoqchi bo'lsa, Apple -ga ishonish kerak?

Neuenschwander javob berishicha, u asosan AQShda iCloud hisoblari uchun ishga tushirilgan mahalliy qonunlar federal hukumatga bunday imkoniyatlarni bermaydi. Hozircha bu tekshiruvga faqat AQSh aholisi duch keladi. Ammo u boshqa mamlakatlarda ishga tushirilganda, kelajakda nima bo'lishini aniq javob bermaydi. Garchi bu vaqt talab qilsa -da, bu ularning har birining qonunlariga bog'liq. Har bir mamlakatning jinoyat kodeksida tasvirlangan xatti -harakatlar jinoyat nima ekanligi bilan farq qiladi, shuning uchun Apple algoritmi har bir huquqiy vaziyatga moslashtirilishi kerak va bu oson bo'lmasligi kerak.

Bu masalada eng muhim narsa: iCloud - bu kalit. Agar foydalanuvchilar iCloud rasmlaridan foydalanmasa, NeuralHash ishlamaydi va hech qanday ko'rsatma bermaydi. CSAM kashfiyoti - bu neyron xash, bu operatsion tizim tasvirining bir qismi bo'lgan ma'lum CSAM xeshlari ma'lumotlar bazasi bilan taqqoslanadi. Agar iCloud rasmlari ishlatilmasa, hech narsa ishlamaydi.

Shubhasiz ziddiyatli. Yaxshi maqsad, lekin ba'zi kamchiliklar bilan Sizningcha, maxfiylik haqida savol bormi? Qiymatmi?


Maqolaning mazmuni bizning printsiplarimizga rioya qiladi muharrirlik etikasi. Xato haqida xabar berish uchun bosing bu erda.

Birinchi bo'lib izohlang

Fikringizni qoldiring

Sizning email manzilingiz chop qilinmaydi. Kerakli joylar bilan belgilangan *

*

*

  1. Ma'lumotlar uchun javobgardir: Migel Anxel Gaton
  2. Ma'lumotlarning maqsadi: SPAMni boshqarish, izohlarni boshqarish.
  3. Qonuniylashtirish: Sizning roziligingiz
  4. Ma'lumotlar haqida ma'lumot: qonuniy majburiyatlar bundan mustasno, ma'lumotlar uchinchi shaxslarga etkazilmaydi.
  5. Ma'lumotlarni saqlash: Occentus Networks (EU) tomonidan joylashtirilgan ma'lumotlar bazasi
  6. Huquqlar: istalgan vaqtda siz ma'lumotlaringizni cheklashingiz, tiklashingiz va o'chirishingiz mumkin.