يستمر الجدل حول نظام Apple للكشف عن المواد الإباحية للأطفال

صور MacBook Air

منذ أن أعلنت شركة Apple عن الكشف عن مواد الاعتداء الجنسي على الأطفال لأنظمة iOS و iPadOS و macOS في وقت سابق من هذا الشهر ، كان هناك الكثير من الجدل. ليس فقط بين خبراء الأمن ، ولكن حتى بين موظفي Apple الذين طلبوا من Apple عدم تنفيذها.

آخر من ينضم إلى الشعور بالضيق بسبب تنفيذ هذا النظام هم أكثر من 90 مجموعة حقوق مدنية. لقد كتبوا خطابًا مفتوحًا إلى Apple ، يطلبون منها التراجع عن خطط CSAM (مواد الاعتداء الجنسي على الأطفال). السبب في تلميحهم هو أنه يمكن استغلال هذا النظام لأغراض أخرى.

ما هو CSAM؟

كاس

تُرجمت CSAM كمواد اعتداء جنسي على الأطفال ، وهي أ كتالوج للصور التي تحتوي على محتوى إباحي للأطفال ، معروف ومعد ومحدث بشكل دوري من قبل جمعيات مختلفة والتي يتحكم في محتواها المركز الوطني للأطفال المفقودين والمستغلين (NCMEC).

كل صورة مخزنة في قاعدة البيانات هذه لها توقيع رقمي فريد ، توقيع رقمي ستتم مقارنتها بصور الصور المخزنة في حسابات مستخدمي iCloud. إذا تم الكشف عن تطابق ، فسيتم حظر الوصول إلى حساب المستخدم وسيتم إخطار السلطات.

تستخدم Google و Dropbox و Microsoft نظام تتبع الصور هذا لحسابات المستخدمين لبعض الوقت ، لكن Apple خطت خطوة أخرى إلى الأمام و أنشأ نظامًا جديدًا يسمى NeuralHash ، وهو نظام يقوم بتحليل السحابة المشفرة للمستخدم ، نظريًا ، ويبحث عن هذه الأنواع من الصور والتي لا تستطيع Apple نفسها الوصول إليها.

مستاء من منظمات الحقوق المدنية

بين بعض الموقعين على هذه الرسالة هي الاتحاد الأمريكي للحريات المدنية ، والجمعية الكندية للحريات المدنية ، والمنظمة الأسترالية للحقوق الرقمية ، و British Liberty ، و Privacy International ...

تبدأ الرسالة بتسليط الضوء على إمكانيات NeuralHash ، مشيرة إلى أن:

بينما تهدف القدرات إلى حماية الأطفال وتقليل انتشار مواد الاعتداء الجنسي على الأطفال (CSAM) ، فإننا نشعر بالقلق من استخدامها لفرض رقابة على التعبير المحمي وتهديد خصوصية وسلامة الأشخاص في جميع أنحاء العالم ، وله عواقب وخيمة على العديد من الأطفال. .

بمجرد دمج هذه الإمكانية في منتجات Apple ، ستواجه الشركة ومنافسيها ضغوطًا هائلة - وربما متطلبات قانونية - من الحكومات في جميع أنحاء العالم لمسح الصور ليس فقط لـ CSAM ، ولكن أيضًا للصور الأخرى التي تعتبرها الحكومة مشكوك فيها.

يمكن أن تكون هذه الصور لانتهاكات حقوق الإنسان ، أو الاحتجاجات السياسية ، أو الصور التي وصفتها الشركات بأنها محتوى "إرهابي" أو متطرف عنيف ، أو حتى صور غير جذابة للسياسيين أنفسهم الذين سيضغطون على الشركة لمسحها ضوئيًا.

هذه المنظمات التسعين تدعي أن البحث عن الصور يمكن أن تمتد إلى الصور المخزنة على الجهاز، وليس فقط تلك المخزنة في iCloud ، لذلك ربما تكون Apple قد أنشأت أساسًا للرقابة والمراقبة والاضطهاد في جميع أنحاء العالم.

وغني عن القول أنه عندما تحث الحكومة شركة Apple على منح حق الوصول إلى محتوى مستخدميها ، مثل الصين أو روسيا ، أبل يحني رأسه ويلتزم بمطالبه. من يؤكد لنا أن Apple لن تتبع هذه السياسة نفسها مع الدول الأخرى؟

يمضي الخطاب ليشير إلى أن هذا النظام سيعرض الأطفال للخطر:

يفترض النظام الذي طورته شركة Apple أن حسابات "الوالدين" و "الطفل" المتضمنة تنتمي في الواقع إلى شخص بالغ هو والد لطفل ، وأن هؤلاء الأفراد يتمتعون بعلاقة صحية.

هذا ليس هو الحال دائما. قد يكون الشخص البالغ المسيء هو المنظم للحساب ، وقد تهدد عواقب إخطار الوالدين سلامة الطفل ورفاهه. يتعرض الشباب LGBTQ + في الحسابات العائلية مع الآباء غير المتعاطفين للخطر بشكل خاص

ينتهي الخطاب بالقول إنه على الرغم من جهود Apple للحد من إساءة معاملة الأطفال ، فإن الشركة يجب أن تظل حازمة في سياسة الخصوصية الذي بناه في السنوات الأخيرة.

نحن ندعم الجهود المبذولة لحماية الأطفال ونعارض بشدة انتشار CSAM. لكن التغييرات التي أعلنت عنها Apple تعرض الأطفال والمستخدمين الآخرين للخطر ، سواء الآن أو في المستقبل. نحث Apple على التخلي عن هذه التغييرات وإعادة تأكيد التزام الشركة بحماية مستخدميها من خلال التشفير التام بين الأطراف. كما نحث Apple على التشاور بشكل أكثر انتظامًا مع مجموعات المجتمع المدني والمجتمعات الضعيفة التي قد تتأثر بشكل غير متناسب بالتغييرات التي تطرأ على منتجاتها وخدماتها.

المشاركات

تطبيق الرسائل

ستقدم Apple هذه الميزة الجديدة مع إصدار macOS Monterey و iOS 15 و iPadOS 15، وهي وظيفة مصحوبة بنظام يكتشف نشر المواد الجنسية للأطفال من خلال تطبيق الرسائل والذي سيُعلم الوالد أو الوصي إذا تلقى القاصر صورًا مصنفة على أنها ضمنية جنسيًا.

ستظهر هذه الصور في البداية ضبابية ومن خلال رسالة ، سيتم توضيح للقاصر (إذا كان عمره 12 عامًا أو أقل) أن الصورة غير مناسبة لهم. إذا اخترت مشاهدته ، فسيتلقى الآباء إشعارًا مع الصورة. بهذا المعنى ، سيكون من الأفضل أن كان الوالدان هما اللذان أعطيا الضوء الأخضر للقاصر للوصول إلى الصورة.

الصور المستلمة عبر تطبيق الرسائل ، سيتم فحصه على الجهاز وهذه المعلومات لن تخرج من هناك. لن تكون السلطات ولا Apple على علم بالحدث.

سيري

سيري

انضمت Siri أيضًا إلى مكافحة استغلال الأطفال في المواد الإباحية. مع إصدار iOS 15 و iPadOS 15 و macOS Monterrey ، إذا بحث المستخدم عن هذا النوع من المحتوى ، ستتلقى إشعارًا يخبرك بأنك تجري بحثًا عن مادة تعتبر غير قانونية وسيخبرك بالمكان الذي يمكنك العثور فيه على المساعدة ووسائل الإبلاغ عن مثل هذا المحتوى.

هذه العملية مثل تحليل الصور المستلمة من خلال تطبيق الرسائل سيتم تنفيذها داخليا على الجهاز ، دون علم Apple أو السلطات.


شراء المجال
أنت مهتم بـ:
أسرار إطلاق موقع الويب الخاص بك بنجاح

اترك تعليقك

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها ب *

*

*

  1. المسؤول عن البيانات: ميغيل أنخيل جاتون
  2. الغرض من البيانات: التحكم في الرسائل الاقتحامية ، وإدارة التعليقات.
  3. الشرعية: موافقتك
  4. توصيل البيانات: لن يتم إرسال البيانات إلى أطراف ثالثة إلا بموجب التزام قانوني.
  5. تخزين البيانات: قاعدة البيانات التي تستضيفها شركة Occentus Networks (الاتحاد الأوروبي)
  6. الحقوق: يمكنك في أي وقت تقييد معلوماتك واستعادتها وحذفها.