Ответы и вопросы к следующей системе защиты детей в Apple

Значок фотографий для macOS

Apple объявила о трех новых функциях, направленных на защиту детей на своих устройствах. Сама идея фантастическая. Однако есть и те, кто воспользовался случаем и приложил руку к ране. Он задается вопросом, не является ли то, что Apple хочет сделать, большим скрытое наблюдение, низводящее конфиденциальность Mac, iPad или iPhone в фоновом режиме. Для этого те, кто отвечает за эту новую функциональность, изо всех сил объяснили, как она работает.

Эрик Нойеншвандер объясняет, как работает его система для повышения защиты детей

КАСС

Речь идет о новой функциональности, которая вступит в силу в США осенью и цель которой - защита детей от сексуального насилия. Он ориентирован на приложение для фотографий, iMessage, Siri и поиск. Таким образом, это влияет на все устройства Apple, в которых работают эти приложения. Таким образом, мы говорим о компьютерах Mac, которые, хотя по преимуществу не предназначены для съемки фотографий, они предназначены для их сохранения и классификации в дополнение к существующей синхронизации через iCloud. Использование iMessage, Siri, но особенно команды поиска.

Система обнаружения под названием CSAM он работает в основном в iCloud Photos. Система обнаружения под названием NeuralHash идентифицирует и сравнивает идентификаторы Национального центра пропавших без вести и эксплуатируемых детей для обнаружения сексуального насилия и аналогичного контента в библиотеках фотографий iCloud, а также безопасности связи в iMessage.

Родители могут активировать эту функцию на своем устройстве для детей младше 13 лет. Он предупредит, когда обнаружит, что изображение, которое они собираются увидеть, является явным. Это также повлияет на Siri и поисковую систему, когда пользователь пытается найти похожие термины с помощью Siri и команды поиска.

Нойеншвандер объясняет, почему Apple анонсировала функцию безопасности связи в Шеззаде вместе с функцией обнаружения CSAM в Фото iCloud:

Каким бы важным ни было определение известных коллекций CSAM, где они хранятся в фото-сервисе Apple iCloud, также важно попытаться продвинуться вперед в этой и без того ужасной ситуации. Также важно вмешаться раньше, когда люди начинают попадать в эту проблемную и вредную зону. Если уже есть люди, которые пытаются завести детей в ситуации, в которых может произойти насилие. Безопасность сообщений и наше вмешательство в Siri и поиск на самом деле влияют на эти части процесса. Таким образом, мы действительно пытаемся нарушить циклы, которые приводят к CSAM, который в конечном итоге может быть обнаружен нашей системой.

«Конфиденциальность будет сохранена для всех, кто не участвует в незаконной деятельности»

Сложная фраза. Таким образом, Нойеншвандер определил и защитил позицию Apple от тех, кто обвиняет компанию в том, что она открывает черный ход для слежки за своими пользователями. Руководитель службы безопасности утверждает, что безопасность будет существовать, и конфиденциальность будет сохранена для тех, кто не комментирует нарушения. Очень хорошо, если бы в этом не было вины Но кто мне сказал, что система не несовершенна?

¿Apple следует доверять, если правительство пытается вмешаться в эту новую систему?

Нойеншвандер отвечает, что в принципе он запускается только для учетных записей iCloud в США, поэтому местные законы не предоставляют федеральному правительству таких возможностей. На данный момент этой проверке будут подвергаться только жители Соединенных Штатов. Но он не отвечает и не дает понять, что будет в будущем, когда он будет запущен в других странах. Хотя на это потребуется время, так как это будет зависеть от законов каждого из них. Поведение, описанное в уголовных кодексах каждой страны, различается в зависимости от того, что является преступлением, поэтому алгоритм Apple должен быть адаптирован к каждой правовой ситуации, и это должно быть непросто.

Самым главным в этом вопросе является следующее: iCloud - это ключ. Если пользователи не используют iCloud Photos, NeuralHash не будет работать и не будет генерировать никаких запросов. Обнаружение CSAM - это нейронный хэш, который сравнивается с базой данных известных хэшей CSAM, которые являются частью образа операционной системы. Ничего не будет работать, если iCloud Photos не используется.

Без сомнения, спорно. Хорошая цель, но с некоторыми лазейками Вы думаете, что конфиденциальность находится под вопросом? Стоящий?


Оставьте свой комментарий

Ваш электронный адрес не будет опубликован. Обязательные для заполнения поля помечены *

*

*

  1. Ответственный за данные: Мигель Анхель Гатон
  2. Назначение данных: контроль спама, управление комментариями.
  3. Легитимация: ваше согласие
  4. Передача данных: данные не будут переданы третьим лицам, кроме как по закону.
  5. Хранение данных: база данных, размещенная в Occentus Networks (ЕС)
  6. Права: в любое время вы можете ограничить, восстановить и удалить свою информацию.