Respostas e perguntas para o próximo sistema de proteção infantil na Apple

Ícone de fotos para macOS

A Apple anunciou três novos recursos que visam a proteção infantil em seus dispositivos. A ideia em si é fantástica. No entanto, há quem aproveite para colocar o dedo na ferida. Ele se pergunta se o que a Apple quer fazer não é mais vigilância secreta, relegando a privacidade do Mac, iPad ou iPhone em segundo plano. Para fazer isso, os responsáveis ​​por essa nova funcionalidade se esforçaram para explicar como ela funciona.

Erik Neuenschwander explica como seu sistema funciona para aumentar a proteção à criança

CSAM

Estamos falando sobre a nova funcionalidade que entrará em vigor nos EUA no outono e cujo objetivo é proteção infantil contra abuso sexual. Ele se concentra no aplicativo de fotos, iMessage, Siri e pesquisa. Portanto, isso afeta todos os dispositivos Apple nos quais esses aplicativos intervêm. Estamos, portanto, a falar de Macs, que embora não seja o dispositivo por excelência para tirar fotos, é para as guardar e classificar, para além da sincronização existente através do iCloud. O uso de iMessage, Siri, mas especialmente o comando de pesquisa.

O sistema de detecção chamado CSAM funciona principalmente no iCloud Photos. Um sistema de detecção chamado NeuralHash identifica e compara as identificações do National Center for Missing & Exploited Children para detectar abuso sexual e conteúdo semelhante em bibliotecas de fotos do iCloud, mas também a segurança de comunicação no iMessage.

Um pai pode ativar esse recurso em seu dispositivo para crianças com menos de 13 anos de idade. Ele alertará quando detectar que uma imagem que eles vão ver é explícita. Também afetará o Siri e o sistema de pesquisa, como quando um usuário tenta pesquisar por termos relacionados por meio do Siri e do comando de pesquisa.

Neuenschwander explica por que a Apple anunciou o recurso de segurança de comunicação em iMessage junto com o recurso de detecção de CSAM no iCloud Photos:

Tão importante quanto identificar as coleções de CSAM conhecidas onde estão armazenadas no serviço de fotos iCloud da Apple, também é importante tentar avançar nessa situação já horrível. Também é importante fazer coisas para intervir mais cedo quando as pessoas começam a entrar nesta área problemática e prejudicial. Se já houver pessoas tentando levar crianças a situações em que podem ocorrer abusos. A segurança de mensagens e nossas intervenções no Siri e na pesquisa realmente afetam essas partes do processo. Portanto, estamos realmente tentando interromper os ciclos que levam ao CSAM que pode ser detectado por nosso sistema.

"A privacidade ficará intacta para todos os que não participam de atividades ilegais"

Frase difícil. Neuenschwander definiu e defendeu a posição da Apple contra aqueles que acusam a empresa de abrir uma porta dos fundos para espionar seus usuários. O executivo de segurança defende que a segurança existirá e a privacidade será mantida para quem não comentar sobre ilegalidades. Muito bom se isso não tivesse culpa Mas quem me disse que o sistema não é imperfeito?

¿A Apple deve ser confiável se um governo tentar intervir neste novo sistema?

Neuenschwander responde dizendo que, em princípio, ele está sendo lançado apenas para contas do iCloud nos EUA, então as leis locais não oferecem esses tipos de recursos ao governo federal. Por enquanto, apenas residentes dos Estados Unidos estarão sujeitos a esse escrutínio. Mas ele não responde e não deixa claro o que acontecerá no futuro quando for lançado em outros países. Embora isso vá demorar, pois vai depender das leis de cada um deles. As condutas descritas nos códigos penais de cada país diferem no que é crime, por isso o algoritmo da Apple deve ser adaptado a cada situação legal e isso não deve ser nada fácil.

O mais importante neste assunto é o seguinte: iCloud é a chave. Se os usuários não estiverem usando o iCloud Photos, o NeuralHash não será executado e não gerará nenhum prompt. A descoberta de CSAM é um hash neural que é comparado a um banco de dados de hashes CSAM conhecidos que fazem parte da imagem do sistema operacional. Nada funcionará se o iCloud Photos não estiver sendo usado.

Polêmico, sem dúvida. Um bom propósito, mas com algumas lacunas Você acha que a privacidade está em questão? Merece a pena?


Deixe um comentário

Seu endereço de email não será publicado. Campos obrigatórios são marcados com *

*

*

  1. Responsável pelos dados: Miguel Ángel Gatón
  2. Finalidade dos dados: Controle de SPAM, gerenciamento de comentários.
  3. Legitimação: Seu consentimento
  4. Comunicação de dados: Os dados não serão comunicados a terceiros, exceto por obrigação legal.
  5. Armazenamento de dados: banco de dados hospedado pela Occentus Networks (UE)
  6. Direitos: A qualquer momento você pode limitar, recuperar e excluir suas informações.