แผนคุ้มครองเด็กของ Apple แทบไม่มีใครชอบ

CS

Apple ตัดสินใจเพียงฝ่ายเดียวที่จะเสนอระบบปกป้องเด็ก (CSAM) ยังไง? ผ่านการตรวจสอบรูปภาพที่อัปโหลดไปยัง iCloud โดยอัตโนมัติ ด้วยวิธีนี้จะทราบได้ว่ามีภาพที่ไม่เหมาะสมและเป็นอันตรายต่อทารกเหล่านี้หรือไม่ ข่าวนี้แทบไม่ถูกใจใครเลย แสดงถึงการละเมิดความเป็นส่วนตัวของผู้ใช้ แต่อาจกล่าวได้ว่าจุดจบแสดงให้เห็นถึงวิธีการหรือไม่? แม้แต่ EFF ก็ไม่ต้องการให้แนวคิดของ Apple นี้ดำเนินต่อไป

สมาคมหลายแห่งรวมถึง EFF ไม่ต้องการให้ความคิดของ Apple บน CSAM นี้ดำเนินต่อไป

เป้าหมายของ Apple คือการทำให้ผู้คนรู้สึก ปลอดภัยและเสริมพลังด้วยเทคโนโลยี “เราต้องการช่วยปกป้องเด็กๆ จากนักล่าที่ใช้เครื่องมือสื่อสารในการรับสมัครและใช้ประโยชน์จากพวกเขา และจำกัดการแพร่กระจายของสื่อการล่วงละเมิดทางเพศเด็ก (CSAM) นั่นเป็นเหตุผลที่ Apple นำเสนอคุณสมบัติด้านความปลอดภัยสำหรับเด็กใหม่ในสามด้าน: 

  1. นายกเทศมนตรี การควบคุมผู้ปกครอง
  2. ผ่านแมชชีนเลิร์นนิงของ แอพ Messages. คำเตือนเกี่ยวกับเนื้อหาที่เป็นความลับ
  3. Apple ได้รับข้อมูลเกี่ยวกับคอลเลกชั่น CSAM ที่ ภาพถ่าย ICloud ที่คุณจะแบ่งปันกับเจ้าหน้าที่

นี่คือปัญหาที่ใหญ่ที่สุดที่เกิดขึ้น Apple ควรจะเป็นกระบวนทัศน์ของความเป็นส่วนตัวทั้งออฟไลน์และออนไลน์ อย่างไรก็ตาม ด้วยวิธีการใหม่เหล่านี้ เป็นที่ชัดเจนว่าสำหรับบริษัทอเมริกัน ความเป็นส่วนตัวของผู้ใช้ถูกบุกรุกเพื่อประโยชน์ในการคุ้มครองเด็ก ไม่รู้ว่าคิดดีหรือไม่ดี แต่สิ่งที่ดูเหมือนจะมีจุดจบที่น่ายกย่อง มันกำลังกลายเป็นบททดสอบสำหรับ Apple

ขณะนี้ความคิดริเริ่มหยุดลงเพราะควรจะมีการดำเนินการในภายหลัง แต่ปัญหาที่สำคัญที่สุดคือมีหลายบริษัท องค์กร และบุคคลเอกชนที่ร้องออกมา ในที่นี้เราอาจคิดว่าถ้า "เราไม่มีอะไรต้องปิดบัง เราไม่ควรกลัวเทคนิคนี้เพราะจะไม่มีวันพบสิ่งใด" แต่ความกลัวที่เกิดขึ้นคือเขาสับสนและพบบางอย่างที่ไม่ใช่ เครื่องดีแต่ไม่หลอก และเรากลับไปที่คำถามปกติ จุดจบแสดงให้เห็นถึงวิธีการ?.

หนึ่งในองค์กรที่ต่อต้านความคิดริเริ่มของ Apple คือ มูลนิธิพรมแดนอิเล็กทรอนิกส์ (EFF). ได้ขอให้ Apple ละทิ้งโครงการความปลอดภัยของเด็กโดยสิ้นเชิง กลุ่มกล่าวว่า "โชคดี" ที่การเคลื่อนไหวของ Apple ถูกระงับไว้ในขณะนี้ แต่เขาเรียกแผนดังกล่าว ซึ่งรวมถึงการสแกนรูปภาพของผู้ใช้เพื่อหาเนื้อหาเกี่ยวกับการล่วงละเมิดเด็ก (CSAM) “ความเป็นส่วนตัวที่ลดลงสำหรับผู้ใช้ iCloud Photos ทั้งหมด” คำร้อง EFF ต่อโฆษณาเดิมของ Apple ปัจจุบันมีลายเซ็นมากกว่า 25.000 รายการ อีกกลุ่มที่เริ่มต้นโดยกลุ่มต่างๆ เช่น Fight for the Future และ OpenMedia มีมากกว่า 50.000 รายการ

หลายคนที่ลงนามคัดค้านความคิดริเริ่มนี้ อาจไม่ใช่ตัวเลขที่มีนัยสำคัญเมื่อเทียบกับยอดขายอุปกรณ์ของ Apple แต่ก็เพียงพอที่จะคำนึงถึงตำแหน่งและแนวทางของอุปกรณ์ ผู้เชี่ยวชาญบางคนเตือนว่าคุณลักษณะนี้สามารถขยายเพื่อค้นหาเนื้อหาอื่น ๆ ได้ในภายหลังหาก Apple ยอมจำนนต่อแรงกดดันที่หลีกเลี่ยงไม่ได้จากรัฐบาล

EFF ยินดีที่ Apple รับฟังข้อกังวลของลูกค้า นักวิจัย องค์กรเสรีภาพพลเมือง นักเคลื่อนไหวด้านสิทธิมนุษยชน คน LGBTQ ตัวแทนเยาวชน และกลุ่มอื่นๆ เกี่ยวกับอันตรายที่เกิดจากเครื่องมือสแกนโทรศัพท์ แต่บริษัทต้องทำมากกว่าแค่การฟัง และละทิ้งแผนการที่จะใส่แบ็คดอร์ในการเข้ารหัสโดยสิ้นเชิง คุณสมบัติที่ Apple ประกาศเมื่อเดือนที่แล้วซึ่งมีจุดประสงค์เพื่อช่วยปกป้องเด็ก ๆ จะสร้างโครงสร้างพื้นฐานที่ง่ายเกินไปที่จะเปลี่ยนเส้นทางไปยังการเฝ้าระวังและการเซ็นเซอร์ที่เพิ่มขึ้น มาตรการดังกล่าวจะสร้างภัยคุกคามอย่างใหญ่หลวงต่อความเป็นส่วนตัวและความปลอดภัย ของผู้ใช้ Apple ซึ่งเสนอระบบเฝ้าระวังมวลชนแบบใหม่ให้กับรัฐบาลเผด็จการเพื่อสอดแนมประชาชน

เราจะคอยติดตาม ในการต่อสู้เพื่อความเป็นส่วนตัวกับความปลอดภัย ค่านิยมและสิทธิพื้นฐานสองประการเผชิญหน้ากัน


ซื้อโดเมน
คุณสนใจใน:
เคล็ดลับในการเปิดตัวเว็บไซต์ของคุณให้ประสบความสำเร็จ

แสดงความคิดเห็นของคุณ

อีเมล์ของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมายด้วย *

*

*

  1. ผู้รับผิดชอบข้อมูล: Miguel ÁngelGatón
  2. วัตถุประสงค์ของข้อมูล: ควบคุมสแปมการจัดการความคิดเห็น
  3. ถูกต้องตามกฎหมาย: ความยินยอมของคุณ
  4. การสื่อสารข้อมูล: ข้อมูลจะไม่ถูกสื่อสารไปยังบุคคลที่สามยกเว้นตามข้อผูกพันทางกฎหมาย
  5. การจัดเก็บข้อมูล: ฐานข้อมูลที่โฮสต์โดย Occentus Networks (EU)
  6. สิทธิ์: คุณสามารถ จำกัด กู้คืนและลบข้อมูลของคุณได้ตลอดเวลา