애플의 아동음란물 탐지 시스템에 대한 논란이 계속되고 있다.

MacBook Air 사진

애플이 발표한 이후 iOS, iPadOS 및 macOS용 아동 성적 학대 자료 감지 이달 초 많은 논란이 있었습니다. 보안 전문가들 사이에서뿐만 아니라 Apple에 구현하지 말라고 요청한 Apple 직원들 사이에서도.

이 시스템의 구현에 대한 불만에 마지막으로 합류한 사람들은 그 이상입니다. 90개 민권단체. 그들은 CSAM(아동 성적 학대 자료) 계획을 철회할 것을 요청하는 공개 서한을 Apple에 작성했습니다. 그들이 암시하는 이유는 이 시스템이 다른 목적으로 악용될 수 있기 때문입니다.

CSAM이란 무엇입니까?

CSAM

아동 성적 학대 자료로 번역된 CSAM은 알려진, 준비 및 업데이트된 아동 포르노 콘텐츠가 포함된 사진 카탈로그 다른 협회에서 주기적으로 콘텐츠를 관리하고 NCMEC(National Center for Missing and Exploited Children)에서 관리합니다.

이 데이터베이스에 저장된 각 사진에는 고유한 디지털 서명이 있습니다. iCloud 사용자 계정에 저장된 사진의 이미지와 비교됩니다.. 일치하는 항목이 감지되면 사용자 계정에 대한 액세스가 차단되고 당국에 알림이 전송됩니다.

Google, Dropbox 및 Microsoft는 사용자 계정에 이 이미지 추적 시스템을 한동안 사용해 왔지만 Apple은 한 단계 더 나아가 은 이론상 사용자의 암호화된 클라우드를 분석하는 시스템인 NeuralHash라는 새로운 시스템을 만들었으며 Apple 자체도 액세스할 수 없는 이러한 유형의 이미지를 찾습니다.

민권단체의 분노

사이에 이 편지의 서명자 중 일부 미국 시민 자유 연합, 캐나다 시민 자유 협회, 호주 조직 Digital Rights Watch, British Liberty, Privacy International ...

편지는 NeuralHash의 기능을 강조하여 다음과 같이 시작합니다.

기능은 어린이를 보호하고 CSAM(아동 성적 학대 자료)의 확산을 줄이기 위한 것이지만 보호된 표현을 검열하고 전 세계 사람들의 사생활과 안전을 위협하며 많은 어린이에게 재앙적인 결과를 초래하는 데 사용되는 것이 우려됩니다. .

이 기능이 Apple 제품에 통합되면 회사와 경쟁업체는 전 세계 정부로부터 CSAM뿐만 아니라 정부가 의심스럽다고 생각하는 다른 이미지의 사진을 스캔해야 하는 엄청난 압력과 잠재적인 법적 요구 사항에 직면하게 됩니다.

이러한 이미지는 인권 유린, 정치적 시위, 회사에서 '테러리스트' 또는 폭력적인 극단주의 콘텐츠로 분류한 이미지, 심지어 회사에 스캔하도록 압력을 가할 정치인 자신의 아첨하지 않는 이미지일 수 있습니다.

이 90개 단체는 사진 검색이 장치에 저장된 이미지로 확장 가능, iCloud에 저장된 것뿐만 아니라 Apple이 전 세계적으로 검열, 감시 및 박해의 기반을 만들었을 수 있습니다.

정부가 애플에게 중국이나 러시아와 같은 사용자의 콘텐츠에 대한 액세스 권한을 부여하도록 촉구할 때, Apple은 고개를 숙이고 귀하의 요구를 충족시킵니다.. Apple이 다른 국가와 동일한 정책을 따르지 않을 것이라고 누가 보장합니까?

편지는 계속해서 이 시스템이 아이들을 위험에 빠뜨릴 것이라고 말합니다.

Apple이 개발한 시스템은 관련된 "부모" 및 "자식" 계정이 실제로 자녀의 부모인 성인에게 속해 있으며 이러한 개인이 건강한 관계를 맺고 있다고 가정합니다.

항상 그런 것은 아닙니다. 학대를 가하는 성인이 계정의 주최자가 될 수 있으며 부모에게 알릴 경우 아동의 안전과 복지가 위협받을 수 있습니다. 동정심이 없는 부모가 있는 가족 계정의 LGBTQ + 청소년이 특히 위험합니다.

이 편지는 아동 학대를 줄이기 위한 Apple의 노력에도 불구하고 회사는 개인 정보 보호 정책을 확고하게 유지해야 합니다. 그는 최근 몇 년 동안 구축했습니다.

우리는 아동 보호 노력을 지지하고 CSAM의 확산을 강력히 반대합니다. 그러나 Apple이 발표한 변경 사항은 현재와 미래의 어린이와 다른 사용자를 위험에 빠뜨립니다. 우리는 Apple이 이러한 변경 사항을 포기하고 종단 간 암호화로 사용자를 보호하겠다는 회사의 약속을 재확인할 것을 촉구합니다. 또한 Apple이 제품 및 서비스 변경으로 인해 불균형적으로 영향을 받을 수 있는 시민 사회 단체 및 취약한 커뮤니티와 더 정기적으로 협의할 것을 촉구합니다.

게시물

메시지 앱

Apple은 이 새로운 기능을 소개합니다 macOS Monterey, iOS 15 및 iPadOS 15 출시와 함께, 메시지 애플리케이션을 통해 아동 성적 자료의 유포를 감지하고 미성년자가 음란물로 분류된 이미지를 수신한 경우 부모 또는 보호자에게 알리는 시스템이 수반되는 기능.

이러한 이미지는 처음에는 흐리게 표시되며 메시지를 통해 미성년자(12세 이하인 경우)에게 이미지가 적합하지 않음을 설명합니다. 보기를 선택하면 이미지와 함께 부모에게 알림이 전송됩니다. 그런 의미에서 더 바람직하다. 미성년자가 이미지에 액세스 할 수 있도록 한 것은 부모였습니다..

메시지 애플리케이션을 통해 수신된 이미지, 장치에서 스캔됩니다 그리고 그 정보는 거기에서 나오지 않을 것입니다. 당국이나 Apple은 이벤트에 대해 알지 못합니다.

시리

시리

Siri도 아동 포르노와의 전쟁에 동참했습니다. iOS 15, iPadOS 15 및 macOS Monterrey 출시와 함께 사용자가 이러한 유형의 콘텐츠를 검색하면 불법으로 간주되는 자료를 검색하고 있다는 알림을 받게 됩니다. 도움을 받을 수 있는 곳과 그러한 콘텐츠를 신고할 수 있는 방법을 알려줍니다.

이 프로세스는 메시지 애플리케이션을 통해 수신된 이미지 분석과 같이 장치에서 내부적으로 수행되며, Apple이나 당국의 지식 없이.


도메인 구매
관심 분야 :
웹사이트를 성공적으로 시작하는 비결

코멘트를 남겨주세요

귀하의 이메일 주소는 공개되지 않습니다. 필수 필드가 표시되어 있습니다 *

*

*

  1. 데이터 책임자 : Miguel Ángel Gatón
  2. 데이터의 목적 : 스팸 제어, 댓글 관리.
  3. 합법성 : 귀하의 동의
  4. 데이터 전달 : 법적 의무에 의한 경우를 제외하고 데이터는 제 XNUMX 자에게 전달되지 않습니다.
  5. 데이터 저장소 : Occentus Networks (EU)에서 호스팅하는 데이터베이스
  6. 권리 : 귀하는 언제든지 귀하의 정보를 제한, 복구 및 삭제할 수 있습니다.