Сегодня 19 сентября 2024
18+
MWC 2018 2018 Computex IFA 2018
реклама
Новости Software

Apple отказалась от сканирования фото в iCloud с помощью системы CSAM Detection, предназначенной для защиты детей

Ещё в 2021 году компания Apple анонсировала ряд мер по обеспечению безопасности детей, включая сканирование фотографий в частных галереях iCloud Photos с помощью системы Child Sexual Abuse Material (CSAM) Detection, способной выявлять преступления в отношении детей. Тем не менее это вызвало резкую критику правозащитников, увидевших угрозу конфиденциальности в намерении тотального сканирования фотоконтента.

 Источник изображения: LinkedIn Sales Solutions/unsplash.com

Источник изображения: LinkedIn Sales Solutions/unsplash.com

После этого Apple сначала отложила использование системы на неопределённый срок, а теперь и вовсе объявила о том, что планы по внедрению системы распознавания CSAM-материалов отменяются. В тот же день компания анонсировала программу Advanced Data Protection, предусматривающую сквозное шифрование данных в iCloud. Новости подтвердила в интервью The Wall Street Journal и один из топ-менеджеров компании — Джоанна Стерн (Joanna Stern).

Когда CSAM Detection только анонсировалась, в Apple заявляли, что неприемлемый контент в iCloud Photos можно будет распознавать на устройствах самих пользователей.

Как сообщала в прошлом году «Лаборатория Касперского», «для этого используется технология NeuralHash, по сути, создающая цифровой идентификатор фотографии в зависимости от её содержимого. Если идентификатор совпадает с таковым в базе известных снимков с эксплуатацией детей, информация об этом отправляется на серверы Apple. Там проводится ещё одна проверка». Как заявляли представители «Касперского», ещё один элемент системы — криптографический протокол Private Set Intersection. Он шифрует результаты работы CSAM Detection так, чтобы расшифровать их на стороне Apple можно было бы только в случае выполнения ряда критериев. Теоретически это должно было предотвратить использование системы за пределами заданных ограничений.

Так или иначе, система CSAM Detection вызвала резкую критику со стороны пользователей, экспертов и правозащитников. Не в последнюю очередь потому, что система, используемая для поиска фото с преступлениями в отношении детей легко может быть перенастроена и для поиска любого другого контента. Не говоря уже о том, что неуязвимых для злоумышленников алгоритмов фактически нет, и создавать лишний «бэкдор» просто опасно.

Теперь Apple решила отказаться от данной практики, так и не введя её в действие. Впрочем, прочие меры по защите детей, включая ограничения в iMessage, по-прежнему действуют в iOS.

Источник:

Если вы заметили ошибку — выделите ее мышью и нажмите CTRL+ENTER.
Вечерний 3DNews
Каждый будний вечер мы рассылаем сводку новостей без белиберды и рекламы. Две минуты на чтение — и вы в курсе главных событий.
Материалы по теме

window-new
Soft
Hard
Тренды 🔥
«Приготовьтесь к разочарованию»: инсайдер раскрыл, когда пройдёт новая State of Play 2 ч.
Власти ЕС расскажут Apple, как она должна открыть iPhone и iOS для конкурентов 2 ч.
На Apple подали в суд за высокие цены на подписку Spotify, YouTube Music и других музыкальных стримингов 3 ч.
Alibaba выпустила больше 100 открытых ИИ-моделей Qwen 2.5, а также ИИ-преобразователь текста в видео 3 ч.
Android 15 выйдет 15 октября, но только на Pixel — остальным придётся подождать 3 ч.
Одна из самых популярных игр на Steam Deck за последние годы теперь «не поддерживается» — Valve изменила статус GTA V 3 ч.
НАТО против ЧВК, новая система разрушений и возвращение CTE: подробности следующей Battlefield от надёжного инсайдера 4 ч.
Европол ликвидировал защищённый криминальный мессенджер Ghost 4 ч.
Google предложила продать часть своего рекламного бизнеса, но этого оказалось мало для прекращения антимонопольного дела в ЕС 4 ч.
YouTube запускает кнопку «Хайп» — она поможет быстро раскрутиться малоизвестным авторам 5 ч.