Apple начали проверять фото на iPhone. Как это работает?

Apple начали проверять фото на iPhone. Как это работает?

Apple будут передавать правоохранительным органам изображения эксплуатации детей, загруженные в iCloud в США, как официально сообщила компания.

Новая система будет обнаруживать изображения, называемые материалами о сексуальном насилии над детьми (CSAM), с помощью нейросетей. Изображения будут хэшироваться, преобразуясь в уникальные числа, соответствующие этому изображению.

Apple начали тестирование систему в четверг, но большинство пользователей iPhone в США не будут участвовать в ней до обновления iOS 15 в конце этого года.

Этот шаг приводит Apple в соответствие с другими облачными сервисами, которые уже сканируют пользовательские файлы, часто с использованием систем хеширования, на предмет содержания, нарушающего их условия обслуживания, включая изображения с детской порнографией.

Но многие пользователи, переживающие о конфиденциальности, по-прежнему отказываются от программного обеспечения, которое уведомляет правительства о содержимом на устройстве или в облаке. Этот анонс может негативно отразиться на компании, так как Apple всегда говорили о безопасности.

КАК ЭТО РАБОТАЕТ?

Apple начали проверять фото на iPhone. Как это работает?

Прежде чем изображение будет сохранено в iCloud, Apple сопоставляет хэш изображения с базой данных хэшей, предоставленной Национальным центром пропавших без вести и эксплуатируемых детей (NCMEC). Эта база данных будет в коде iOS, начиная с iOS 15. Процесс сопоставления выполняется на iPhone пользователя, а не в облаке.

Если Apple обнаружат определенное количество файлов с нарушением в iCloud, система загрузит файл, который позволяет Apple расшифровать и просмотреть фотографии в этой учетной записи. Человек вручную просмотрит изображения, чтобы убедиться, есть ли совпадения.

Apple смогут просматривать только изображения, которые соответствуют контенту, который уже известен и представлен в этих базах данных – например, она не сможет обнаружить фотографии родителей их детей в ванной, поскольку эти изображения не будут частью база данных NCMEC.

Если человек, выполняющий ручную проверку, придет к выводу, что система не совершила ошибки, Apple отключит учетную запись iCloud пользователя и отправит отчет в NCMEC или при необходимости уведомит правоохранительные органы. По словам представителя Apple, пользователи могут подать апелляцию в компанию, если считают, что их учетная запись была заморожена по ошибке.

По словам Apple, система работает только с изображениями, загруженными в iCloud, и пользователи могут отключить облачное хранилище. Фотографии или другие изображения на устройстве, которые не были загружены на серверы Apple, не будут проверяться системой.

Некоторые исследователи безопасности высказали опасения, что эта технология может в конечном итоге использоваться для идентификации других видов изображений, таких как фотографии политического протеста. Apple заявили, что их система построена так, что она работает и может работать только с изображениями, внесенными в каталог NCMEC или другими организациями по безопасности детей.

Оцените статью
WDCoBlog - Новости, идеи, фильмы
Добавить комментарий