Apple ตัดสินใจเพียงฝ่ายเดียวที่จะเสนอระบบปกป้องเด็ก (CSAM) ยังไง? ผ่านการตรวจสอบรูปภาพที่อัปโหลดไปยัง iCloud โดยอัตโนมัติ ด้วยวิธีนี้จะทราบได้ว่ามีภาพที่ไม่เหมาะสมและเป็นอันตรายต่อทารกเหล่านี้หรือไม่ ข่าวนี้แทบไม่ถูกใจใครเลย แสดงถึงการละเมิดความเป็นส่วนตัวของผู้ใช้ แต่อาจกล่าวได้ว่าจุดจบแสดงให้เห็นถึงวิธีการหรือไม่? แม้แต่ EFF ก็ไม่ต้องการให้แนวคิดของ Apple นี้ดำเนินต่อไป
สมาคมหลายแห่งรวมถึง EFF ไม่ต้องการให้ความคิดของ Apple บน CSAM นี้ดำเนินต่อไป
เป้าหมายของ Apple คือการทำให้ผู้คนรู้สึก ปลอดภัยและเสริมพลังด้วยเทคโนโลยี “เราต้องการช่วยปกป้องเด็กๆ จากนักล่าที่ใช้เครื่องมือสื่อสารในการรับสมัครและใช้ประโยชน์จากพวกเขา และจำกัดการแพร่กระจายของสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) นั่นเป็นเหตุผลที่ Apple นำเสนอคุณสมบัติด้านความปลอดภัยสำหรับเด็กใหม่ในสามด้าน:
- นายกเทศมนตรี การควบคุมผู้ปกครอง
- ผ่านแมชชีนเลิร์นนิงของ แอพ Messages. คำเตือนเกี่ยวกับเนื้อหาที่เป็นความลับ
- Apple ได้รับข้อมูลเกี่ยวกับคอลเลกชั่น CSAM ที่ ภาพถ่าย ICloud ที่คุณจะแบ่งปันกับเจ้าหน้าที่
นี่คือปัญหาที่ใหญ่ที่สุดที่เกิดขึ้น Apple ควรจะเป็นกระบวนทัศน์ของความเป็นส่วนตัวทั้งออฟไลน์และออนไลน์ อย่างไรก็ตาม ด้วยวิธีการใหม่เหล่านี้ เป็นที่ชัดเจนว่าสำหรับบริษัทอเมริกัน ความเป็นส่วนตัวของผู้ใช้ถูกบุกรุกเพื่อประโยชน์ในการคุ้มครองเด็ก ไม่รู้ว่าคิดดีหรือไม่ดี แต่สิ่งที่ดูเหมือนจะมีจุดจบที่น่ายกย่อง มันกำลังกลายเป็นบททดสอบสำหรับ Apple
ขณะนี้ความคิดริเริ่มหยุดลงเพราะควรจะมีการดำเนินการในภายหลัง แต่ปัญหาที่สำคัญที่สุดคือมีหลายบริษัท องค์กร และบุคคลเอกชนที่ร้องออกมา ในที่นี้เราอาจคิดว่าถ้า "เราไม่มีอะไรต้องปิดบัง เราไม่ควรกลัวเทคนิคนี้เพราะจะไม่มีวันพบสิ่งใด" แต่ความกลัวที่เกิดขึ้นคือเขาสับสนและพบบางอย่างที่ไม่ใช่ เครื่องดีแต่ไม่หลอก และเรากลับไปที่คำถามปกติ จุดจบแสดงให้เห็นถึงวิธีการ?.
หนึ่งในองค์กรที่ต่อต้านความคิดริเริ่มของ Apple คือ มูลนิธิพรมแดนอิเล็กทรอนิกส์ (EFF). ได้ขอให้ Apple ละทิ้งโครงการความปลอดภัยของเด็กโดยสิ้นเชิง กลุ่มกล่าวว่า "โชคดี" ที่การเคลื่อนไหวของ Apple ถูกระงับไว้ในขณะนี้ แต่เขาเรียกแผนดังกล่าว ซึ่งรวมถึงการสแกนรูปภาพของผู้ใช้เพื่อหาเนื้อหาเกี่ยวกับการล่วงละเมิดเด็ก (CSAM) “ความเป็นส่วนตัวที่ลดลงสำหรับผู้ใช้ iCloud Photos ทั้งหมด” คำร้อง EFF ต่อโฆษณาเดิมของ Apple ปัจจุบันมีลายเซ็นมากกว่า 25.000 รายการ อีกกลุ่มที่เริ่มต้นโดยกลุ่มต่างๆ เช่น Fight for the Future และ OpenMedia มีมากกว่า 50.000 รายการ
หลายคนที่ลงนามคัดค้านความคิดริเริ่มนี้ อาจไม่ใช่ตัวเลขที่มีนัยสำคัญเมื่อเทียบกับยอดขายอุปกรณ์ของ Apple แต่ก็เพียงพอที่จะคำนึงถึงตำแหน่งและแนวทางของอุปกรณ์ ผู้เชี่ยวชาญบางคนเตือนว่าคุณลักษณะนี้สามารถขยายเพื่อค้นหาเนื้อหาอื่น ๆ ได้ในภายหลังหาก Apple ยอมจำนนต่อแรงกดดันที่หลีกเลี่ยงไม่ได้จากรัฐบาล
EFF ยินดีที่ Apple รับฟังข้อกังวลของลูกค้า นักวิจัย องค์กรเสรีภาพพลเมือง นักเคลื่อนไหวด้านสิทธิมนุษยชน คน LGBTQ ตัวแทนเยาวชน และกลุ่มอื่นๆ เกี่ยวกับอันตรายที่เกิดจากเครื่องมือสแกนโทรศัพท์ แต่บริษัทต้องทำมากกว่าแค่การฟัง และละทิ้งแผนการที่จะใส่แบ็คดอร์ในการเข้ารหัสโดยสิ้นเชิง คุณสมบัติที่ Apple ประกาศเมื่อเดือนที่แล้วซึ่งมีจุดประสงค์เพื่อช่วยปกป้องเด็ก ๆ จะสร้างโครงสร้างพื้นฐานที่ง่ายเกินไปที่จะเปลี่ยนเส้นทางไปยังการเฝ้าระวังและการเซ็นเซอร์ที่เพิ่มขึ้น มาตรการดังกล่าวจะสร้างภัยคุกคามอย่างใหญ่หลวงต่อความเป็นส่วนตัวและความปลอดภัย ของผู้ใช้ Apple ซึ่งเสนอระบบเฝ้าระวังมวลชนแบบใหม่ให้กับรัฐบาลเผด็จการเพื่อสอดแนมประชาชน
เราจะคอยติดตาม ในการต่อสู้เพื่อความเป็นส่วนตัวกับความปลอดภัย ค่านิยมและสิทธิพื้นฐานสองประการเผชิญหน้ากัน