Apple отложила планы вводить сканирование пользовательских фотографий

Коллизия для тестовой версии алгоритма сканирования Apple NeuralHash. Изображения имеют одинаковый хэш 59a34eabe31910abfb06f308.

3 сентября 2021 года Apple отложила на неопределенное время планы по сканированию всех фотографий пользователей в iCloud, под предлогом поиска материалов о сексуальном насилии над детьми. Функции «Расширенная защита для детей» появится в iOS 15 только через несколько месяцев, после доработки ее алгоритма. Вероятно, это произойдет в следующем году, а не в конце 2021 года, как планировала компания изначально. На этот шаг Apple пошла после критики правозащитных организаций и ИБ-экспертов, а также по отзывам недовольных клиентов.

18 августа разработчик Асухариет Игвар обнаружил в скрытых API-интерфейсах iOS в iOS 14.3 код алгоритма NeuralHash и опубликовал его на GitHub. Код был спрятан внутри API в MobileNetV3. На то, что он принадлежит именно к NeuralHash, указывают два фактора: файлы моделей имеют тот же префикс, что и в документации Apple, и проверяемые части кода работают аналогично описанию NeuralHash от Apple.

6 августа разработчики, эксперты по информационной безопасности, криптографы, исследователи, ученые, юристы и обычные пользователи со всего мира призывали Apple в открытом письме отказаться от планов сканировать весь личный контент на устройствах пользователей. Они считают, что это подрывает конфиденциальность пользователей в экосистеме компании и механизм работы системы сквозного шифрования. Открытое письмо уже подписали на GitHub более 9 тысяч частных лиц и организаций, в том числе Фонд свободы прессы, Нью-Йоркская публичная библиотека и экс-сотрудник ЦРУ Эдвард Сноуден – пишет Habr.com.