ТехнологииSep 5

Apple откладывает запуск неоднозначной системы сканирования фото

Компания Apple отменяет запуск своей спорной сканирования фото на предмет поиска запрещенных фото детей, системы, которая должна была исследовать загружены в iCloud фотографии и чаты iMessage на наличие признаков незаконного сексуального содержания. Объявленная в прошлом месяце, система должна была использовать стороннюю базу данных материалов о сексуальном насилии над детьми (CSAM) для поиска признаков незаконных фотографий, загруженных в облако, но сразу же встретила сопротивление со стороны защитников конфиденциальности.

nk_hauz/PGptyj4ng.jpeg

Путаницу усугубило то, что Apple фактически анонсировала две системы одновременно, хотя их функциональность во многих местах была смешанная. С одной стороны, iMessage использовать распознавания изображений, чтобы отмечать потенциально откровенные фотографии, которыми делятся в разговорах с молодыми пользователями. Если такая картинка попадает в общий доступ, она автоматически подвергается цензуре, и, как вариант, родители сообщаются о ее содержании.

В то же время другая система проверяла бы наличие CSAM. Контролировались бы только изображения, загруженные в сервис iCloud Photos компании Apple, с использованием картинок отпечатков пальцев, созданных экспертными агентствами на основе базы данных подобного незаконного контента. Если бы обнаружено несколько таких изображений, Apple сообщила бы о таком пользователя власти.

Принимая во внимание проблемы конфиденциальности и безопасности, Apple предусмотрела ряд оговорок. Сканирование будет происходить на устройстве, а не удаленно, отметили в компании, а отпечатки пальцев, по которым будут сравниваться изображения, не содержать собственно незаконного контента. Даже если загруженные изображения будут отмечены, прежде чем будет составлен отчет, их проверит человек.

Однако, противники этих новшеств были настроены решительно. Система Apple - это скользкая дорожка, предупреждали они, и компания из Купертино - несмотря на свои заявления об обратном - несомненно, столкнется с давлением со стороны правоохранительных органов и правительств. Было отмечено, что молодые люди также могут подвергнуться риску, а их право на частную жизнь будет поставлено под угрозу, если Apple случайно выдаст их родителям как представителей ЛГБТ через систему сканирования iMessage.

По неофициальной информации, полученной от сотрудников компании, руководители Apple были потрясены масштабами негативной реакции и тем, как долго она продолжалась. Теперь Apple подтвердила, что больше не запускать новые системы вместе с iOS 15 iPadOS 15 watchOS 8 и macOS Monterey году.

«В прошлом месяце мы объявили о планах по внедрению функций, призванных помочь защитить детей от хищников, используют коммуникационные инструменты для привлечения и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми», - говорится в заявлении Apple. «Основываясь на отзывах клиентов, групп защиты, исследователей и других людей, мы решили взять дополнительное время в ближайшие месяцы для сбора информации и внесения улучшений, прежде чем выпустить эти критически важные функции безопасности детей».

Для ясности, речь не идет о полной отмене новых систем CSAM вообще, а лишь о задержке. Однако, это, скорее всего, будет рассматриваться как победа защитников конфиденциальности, которые, признавая необходимость защиты детей от хищнической поведения, сомневались в том, что широкомасштабное сканирование является лучшим способом сделать это.