การโต้เถียงเรื่องระบบตรวจจับภาพอนาจารของเด็กของ Apple ยังคงดำเนินต่อไป

ภาพถ่าย MacBook Air

ตั้งแต่ Apple ประกาศ การตรวจจับสื่อการล่วงละเมิดทางเพศเด็กสำหรับ iOS, iPadOS และ macOS เมื่อต้นเดือนนี้มีการโต้เถียงกันมากมาย ไม่เพียงแค่ในหมู่ผู้เชี่ยวชาญด้านความปลอดภัยเท่านั้น แต่ยังรวมถึงพนักงานของ Apple ที่ขอให้ Apple ไม่ดำเนินการด้วย

คนสุดท้ายที่ร่วมรู้สึกไม่สบายใจในการดำเนินการตามระบบนี้มีมากกว่า 90 กลุ่มสิทธิพลเมือง. พวกเขาได้เขียนจดหมายเปิดผนึกถึง Apple โดยขอให้บริษัทยกเลิกแผน CSAM (Child Sexual Abuse Material) เหตุผลที่พวกเขาพาดพิงก็คือระบบนี้สามารถนำไปใช้เพื่อวัตถุประสงค์อื่นได้

CSAM คืออะไร?

สพม

CSAM ซึ่งแปลว่าสื่อการล่วงละเมิดทางเพศเด็กคือ แคตตาล็อกภาพถ่ายที่มีเนื้อหาลามกอนาจารของเด็ก รู้จัก จัดเตรียมและปรับปรุง โดยสมาคมต่างๆ เป็นระยะๆ และมีเนื้อหาที่ควบคุมโดย National Center for Missing and Exploited Children (NCMEC)

ภาพถ่ายแต่ละภาพที่จัดเก็บไว้ในฐานข้อมูลนี้มีลายเซ็นดิจิทัลเฉพาะ ลายเซ็นดิจิทัลที่ โดยจะนำไปเปรียบเทียบกับรูปภาพที่เก็บไว้ในบัญชีผู้ใช้ iCloud. หากตรวจพบการจับคู่ การเข้าถึงบัญชีของผู้ใช้จะถูกบล็อกและเจ้าหน้าที่จะได้รับแจ้ง

Google, Dropbox และ Microsoft ใช้ระบบติดตามรูปภาพนี้สำหรับบัญชีผู้ใช้มาระยะหนึ่งแล้ว แต่ Apple ได้ก้าวไปอีกขั้นและ ได้สร้างระบบใหม่ที่เรียกว่า NeuralHash ซึ่งเป็นระบบที่วิเคราะห์คลาวด์ที่เข้ารหัสของผู้ใช้ในทางทฤษฎี โดยมองหารูปภาพประเภทนี้และแม้แต่ Apple เองก็ไม่สามารถเข้าถึงได้

อารมณ์เสียจากองค์กรสิทธิพลเมือง

ระหว่าง ผู้ลงนามบางส่วนของจดหมายฉบับนี้ ได้แก่ สหภาพเสรีภาพพลเรือนอเมริกัน, สมาคมเสรีภาพพลเมืองแคนาดา, องค์กร Digital Rights Watch แห่งออสเตรเลีย, เสรีภาพอังกฤษ, Privacy International ...

จดหมายเริ่มต้นด้วยการเน้นความสามารถของ NeuralHash โดยระบุว่า:

ในขณะที่ความสามารถมีจุดมุ่งหมายเพื่อปกป้องเด็กและลดการแพร่กระจายของเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก (CSAM) เรากังวลว่าจะใช้เพื่อตรวจสอบการแสดงออกที่ได้รับการคุ้มครอง คุกคามความเป็นส่วนตัวและความปลอดภัยของผู้คนทั่วโลก และส่งผลร้ายแรงต่อเด็กจำนวนมาก .

เมื่อความสามารถนี้รวมอยู่ในผลิตภัณฑ์ของ Apple แล้ว บริษัทและคู่แข่งจะเผชิญกับแรงกดดันมหาศาล และข้อกำหนดทางกฎหมายที่อาจเกิดขึ้นจากรัฐบาลทั่วโลก ให้สแกนภาพถ่ายไม่ใช่แค่ CSAM เท่านั้น แต่ยังรวมถึงภาพอื่นๆ ที่รัฐบาลเห็นว่าน่าสงสัยด้วย

ภาพเหล่านั้นอาจเป็นการละเมิดสิทธิมนุษยชน การประท้วงทางการเมือง ภาพที่บริษัทระบุว่าเป็น 'ผู้ก่อการร้าย' หรือเนื้อหาหัวรุนแรงสุดโต่ง หรือแม้แต่ภาพนักการเมืองเองที่ไม่ประจบประแจงที่จะกดดันบริษัทให้สแกนภาพเหล่านั้น

90 องค์กรเหล่านี้อ้างว่าการค้นหาภาพถ่าย สามารถขยายไปยังภาพที่เก็บไว้ในเครื่องได้ไม่ใช่เฉพาะที่เก็บใน iCloud ดังนั้น Apple อาจสร้างพื้นฐานสำหรับการเซ็นเซอร์ การเฝ้าระวัง และการกดขี่ข่มเหงทั่วโลก

มันไปโดยไม่บอกว่าเมื่อรัฐบาลเรียกร้องให้ Apple ให้สิทธิ์การเข้าถึงเนื้อหาของผู้ใช้เช่นจีนหรือรัสเซีย แอปเปิ้ลก้มศีรษะและปฏิบัติตามข้อเรียกร้องของเขา. ใครรับรองกับเราว่า Apple จะไม่ปฏิบัติตามนโยบายเดียวกันกับประเทศอื่น?

จดหมายดังกล่าวยังระบุด้วยว่าระบบนี้จะทำให้เด็กตกอยู่ในความเสี่ยง:

ระบบที่ Apple พัฒนาขึ้นนั้นถือว่าบัญชี "ผู้ปกครอง" และ "เด็ก" ที่เกี่ยวข้องกันนั้นเป็นของผู้ใหญ่ที่เป็นผู้ปกครองของเด็ก และบุคคลเหล่านี้มีความสัมพันธ์ที่ดี

นี่ไม่ใช่กรณีเสมอไป ผู้ใหญ่ที่ไม่เหมาะสมอาจเป็นผู้จัดทำบัญชี และผลที่ตามมาของการแจ้งผู้ปกครองอาจคุกคามความปลอดภัยและสวัสดิภาพของเด็ก LGBTQ + เยาวชนในครอบครัวที่มีพ่อแม่ที่ไม่เห็นอกเห็นใจมีความเสี่ยงเป็นพิเศษ

จดหมายลงท้ายด้วยการสังเกตว่าแม้ Apple จะพยายามลดการทารุณกรรมเด็ก บริษัท ต้องคงไว้ซึ่งนโยบายความเป็นส่วนตัว ที่เขาสร้างขึ้นในช่วงไม่กี่ปีที่ผ่านมา

เราสนับสนุนความพยายามในการปกป้องเด็กและต่อต้านการแพร่ขยายของ CSAM อย่างจริงจัง แต่การเปลี่ยนแปลงที่ Apple ประกาศทำให้เด็กๆ และผู้ใช้รายอื่นๆ ตกอยู่ในความเสี่ยง ทั้งในปัจจุบันและอนาคต เราขอเรียกร้องให้ Apple ละทิ้งการเปลี่ยนแปลงเหล่านั้นและยืนยันความมุ่งมั่นของบริษัทในการปกป้องผู้ใช้ด้วยการเข้ารหัสจากต้นทางถึงปลายทางอีกครั้ง นอกจากนี้ เรายังขอให้ Apple ปรึกษาหารือกับกลุ่มภาคประชาสังคมและชุมชนที่มีช่องโหว่อย่างสม่ำเสมอมากขึ้น ซึ่งอาจได้รับผลกระทบอย่างไม่สมส่วนจากการเปลี่ยนแปลงผลิตภัณฑ์และบริการ

โพสต์

แอพ Messages

Apple จะเปิดตัวฟีเจอร์ใหม่นี้ ด้วยการเปิดตัว macOS Monterey, iOS 15 และ iPadOS 15ซึ่งเป็นฟังก์ชันที่มาพร้อมกับระบบที่จะตรวจจับการเผยแพร่เนื้อหาเกี่ยวกับเรื่องเพศเด็กผ่านแอปพลิเคชันข้อความ และจะแจ้งให้พ่อแม่หรือผู้ปกครองทราบหากผู้เยาว์ได้รับภาพที่จัดประเภทว่ามีความนัยทางเพศ

ภาพเหล่านี้ในขั้นต้นจะเบลอและจะอธิบายให้ผู้เยาว์ทราบผ่านข้อความ (หากอายุไม่เกิน 12 ปี) ว่าภาพไม่เหมาะสำหรับพวกเขา หากคุณเลือกดู ผู้ปกครองจะได้รับการแจ้งเตือนพร้อมรูปภาพ ในแง่นี้น่าจะเหมาะกว่า ผู้ปกครองเป็นผู้ให้สิทธิ์แก่ผู้เยาว์ในการเข้าถึงภาพ.

รูปภาพที่ได้รับผ่านแอปพลิเคชันข้อความ จะถูกสแกนบนอุปกรณ์ และข้อมูลนั้นจะไม่ออกมาจากที่นั่น ทั้งเจ้าหน้าที่และ Apple จะไม่มีความรู้เกี่ยวกับเหตุการณ์นี้

สิริ

สิริ

สิริยังได้เข้าร่วมต่อสู้กับสื่อลามกอนาจารเด็ก ด้วยการเปิดตัว iOS 15, iPadOS 15 และ macOS Monterrey หากผู้ใช้ค้นหาเนื้อหาประเภทนี้ คุณจะได้รับการแจ้งเตือนว่าคุณกำลังดำเนินการค้นหาเนื้อหาที่ถือว่าผิดกฎหมาย และจะแจ้งให้คุณทราบว่าคุณสามารถหาความช่วยเหลือและวิธีการรายงานเนื้อหาดังกล่าวได้ที่ไหน

กระบวนการนี้ เช่นเดียวกับการวิเคราะห์ภาพที่ได้รับผ่านแอปพลิเคชันข้อความ จะดำเนินการภายในอุปกรณ์ โดยปราศจากความรู้ของ Apple หรือเจ้าหน้าที่


ซื้อโดเมน
คุณสนใจใน:
เคล็ดลับในการเปิดตัวเว็บไซต์ของคุณให้ประสบความสำเร็จ

แสดงความคิดเห็นของคุณ

อีเมล์ของคุณจะไม่ถูกเผยแพร่ ช่องที่ต้องการถูกทำเครื่องหมายด้วย *

*

*

  1. ผู้รับผิดชอบข้อมูล: Miguel ÁngelGatón
  2. วัตถุประสงค์ของข้อมูล: ควบคุมสแปมการจัดการความคิดเห็น
  3. ถูกต้องตามกฎหมาย: ความยินยอมของคุณ
  4. การสื่อสารข้อมูล: ข้อมูลจะไม่ถูกสื่อสารไปยังบุคคลที่สามยกเว้นตามข้อผูกพันทางกฎหมาย
  5. การจัดเก็บข้อมูล: ฐานข้อมูลที่โฮสต์โดย Occentus Networks (EU)
  6. สิทธิ์: คุณสามารถ จำกัด กู้คืนและลบข้อมูลของคุณได้ตลอดเวลา