A controvérsia sobre o sistema de detecção de pornografia infantil da Apple continua

Fotos do MacBook Air

Desde que a Apple anunciou o detecção de material de abuso sexual infantil para iOS, iPadOS e macOS No início deste mês, houve muito debate. Não apenas entre especialistas em segurança, mas até mesmo entre os próprios funcionários da Apple que pediram à Apple para não implementá-lo.

Os últimos a se juntar ao mal-estar sobre a implementação deste sistema são mais do que 90 grupos de direitos civis. Eles escreveram uma carta aberta à Apple, pedindo-lhe para voltar atrás em seus planos CSAM (Child Sexual Abuse Material). A razão pela qual eles aludem é que este sistema pode ser explorado para outros fins.

O que é CSAM?

CSAM

CSAM, traduzido como Material de Abuso Sexual Infantil, é um catálogo de fotografias com conteúdo de pornografia infantil, conhecido, preparado e atualizado periodicamente por diferentes associações e cujo conteúdo é controlado pelo Centro Nacional para Crianças Desaparecidas e Exploradas (NCMEC).

Cada uma das fotografias armazenadas neste banco de dados possui uma assinatura digital única, uma assinatura digital que será comparado com as imagens das fotos armazenadas nas contas dos usuários do iCloud. Se uma correspondência for detectada, o acesso à conta do usuário será bloqueado e as autoridades serão notificadas.

Há algum tempo, o Google, o Dropbox e a Microsoft usam esse sistema de rastreamento de imagens para contas de usuários, mas a Apple deu um passo além e criou um novo sistema denominado NeuralHash, sistema que analisa a nuvem criptografada do usuário, em tese, procurando esses tipos de imagens e aos quais nem a própria Apple tem acesso.

Descontente com organizações de direitos civis

Entre alguns dos signatários desta carta são a American Civil Liberties Union, a Canadian Civil Liberties Association, a organização australiana Digital Rights Watch, a British Liberty, Privacy International ...

A carta começa destacando os recursos do NeuralHash, afirmando que:

Embora os recursos tenham como objetivo proteger as crianças e reduzir a disseminação de Material de Abuso Sexual Infantil (CSAM), estamos preocupados que sejam usados ​​para censurar expressões protegidas, ameaçar a privacidade e a segurança de pessoas em todo o mundo e ter consequências desastrosas para muitas crianças .

Uma vez que esse recurso seja incorporado aos produtos da Apple, a empresa e seus concorrentes enfrentarão enorme pressão - e requisitos potencialmente legais - de governos ao redor do mundo para digitalizar fotos não apenas para CSAM, mas também de outras imagens que um governo considera questionáveis.

Essas imagens podem ser de abusos de direitos humanos, protestos políticos, imagens que as empresas rotularam como conteúdo 'terrorista' ou extremista violento, ou mesmo imagens nada lisonjeiras dos próprios políticos que irão pressionar a empresa para digitalizá-las.

Essas 90 organizações afirmam que a busca por fotos pode ser estendido para imagens armazenadas no dispositivo, não apenas aqueles que estão armazenados no iCloud, então a Apple pode ter criado a base para censura, vigilância e perseguição em todo o mundo.

Nem é preciso dizer que quando um governo insta a Apple a conceder acesso ao conteúdo de seus usuários, como China ou Rússia, A Apple inclina a cabeça e atende às suas demandas. Quem nos garante que a Apple não seguirá essa mesma política com outros países?

A carta prossegue afirmando que este sistema colocará as crianças em risco:

O sistema que a Apple desenvolveu presume que as contas "pai" e "filho" envolvidas realmente pertencem a um adulto que é pai de uma criança e que esses indivíduos têm um relacionamento saudável.

Isso não é sempre o caso; um adulto abusivo pode ser o organizador da conta, e as consequências de notificar os pais podem ameaçar a segurança e o bem-estar da criança. Jovens LGBTQ + em contas familiares com pais antipáticos estão especialmente em risco

A carta termina afirmando que, apesar dos esforços da Apple para reduzir o abuso infantil, a empresa deve permanecer firme na política de privacidade que ele construiu nos últimos anos.

Apoiamos os esforços para proteger as crianças e nos opomos fortemente à proliferação de CSAM. Mas as mudanças que a Apple anunciou colocam crianças e outros usuários em risco, agora e no futuro. Instamos a Apple a abandonar essas mudanças e reafirmar o compromisso da empresa em proteger seus usuários com criptografia de ponta a ponta. Também pedimos à Apple que consulte mais regularmente grupos da sociedade civil e comunidades vulneráveis ​​que podem ser afetadas de forma desproporcional por mudanças em seus produtos e serviços.

Posts

App Mensagens

A Apple apresentará este novo recurso com o lançamento do macOS Monterey, iOS 15 e iPadOS 15, uma função que é acompanhada por um sistema que detectará a disseminação de material sexual infantil através do aplicativo Mensagens e que notificará o pai ou responsável se o menor recebeu imagens classificadas como sexualmente implícitas.

Estas imagens aparecerão inicialmente desfocadas e através de uma mensagem, será explicado ao menor (se tiver 12 anos ou menos) que a imagem não é adequada para elas. Se você optar por visualizá-lo, os pais receberão uma notificação junto com a imagem. Nesse sentido, seria mais aconselhável que foram os pais que deram sinal verde para que o menor tivesse acesso à imagem.

Imagens recebidas por meio do aplicativo Mensagens, será verificado no dispositivo e essa informação não sairá daí. Nem as autoridades nem a Apple terão conhecimento do evento.

Siri

Siri

Siri também se juntou à luta contra a pornografia infantil. Com o lançamento do iOS 15, iPadOS 15 e macOS Monterrey, se um usuário pesquisar este tipo de conteúdo, você receberá uma notificação informando que está conduzindo uma busca por material considerado ilegal e informará onde você pode encontrar ajuda e os meios para relatar tal conteúdo.

Esse processo, assim como a análise das imagens recebidas pelo aplicativo Mensagens, será realizado internamente no aparelho, sem o conhecimento da Apple ou das autoridades.


Compre um domínio
Te interessa:
Os segredos para lançar seu site com sucesso

Deixe um comentário

Seu endereço de email não será publicado. Campos obrigatórios são marcados com *

*

*

  1. Responsável pelos dados: Miguel Ángel Gatón
  2. Finalidade dos dados: Controle de SPAM, gerenciamento de comentários.
  3. Legitimação: Seu consentimento
  4. Comunicação de dados: Os dados não serão comunicados a terceiros, exceto por obrigação legal.
  5. Armazenamento de dados: banco de dados hospedado pela Occentus Networks (UE)
  6. Direitos: A qualquer momento você pode limitar, recuperar e excluir suas informações.