Компания Apple заявила о своем намерении присоединиться к борьбе за безопасность детей, которую ведет Национальный центр пропавших и эксплуатируемых детей (The National Center for Missing & Exploited Children, NCMEC). iPhone, принадлежащие пользователям из США, будут сканироваться для поиска фотографий со сценами сексуального насилия над детьми. Противники проекта опасаются, что специализированное ПО будет использоваться не только по прямому назначению, но и для организации слежки за обладателями персональных гаджетов.

Как сообщает The Guardian, любое изображение перед его загрузкой в онлайн-хранилище фотографий iCloud Photo Library пройдет сканирование с использованием специального ПО под названием neuralMatch. Фотографии будут сравниваться с базой данных, где собраны порядка 200 тыс. изображений жестокого или противоправного обращения с детьми. Вызывающие подозрение фото будут проверяться специалистами вручную. Если они вынесут вердикт о том, что на фотографии изображены сцены насилия, детской порнографии или жестокого обращения с детьми, такие изображения передадут в NCMEC для проверки правоохранительными органами. Учетная запись пользователя будет тут же отключена.

«Наша цель в Apple – создать технологию, которая расширяет возможности людей и обогащает их жизнь, помогая им оставаться в безопасности», - говорится в официальном сообщении Apple. – «Мы хотим помочь защитить детей от хищников, которые используют средства коммуникации для их вербовки и эксплуатации, а также ограничить распространение материалов о сексуальном насилии над детьми. Программа амбициозна, и защита детей является важной обязанностью. Она будет развиваться и расширяться с течением времени».

Инициатива Apple, пишет издание, вызвала похвалу со стороны групп по защите детей. Несомненно, родителям, которые решили сфотографировать свое чадо, принимающим ванну, беспокоиться не нужно. Однако ряд критиков нововведения сходится во мнении, что Apple готова пересечь опасную черту и нарушить баланс между борьбой с эксплуатацией детей и защитой конфиденциальности своих пользователей. По их мнению, ПО neuralMatch является необоснованным посягательством на неприкосновенность частной жизни, и опасаются, что его легко можно использовать для не самых благовидных целей.

Так, Мэтью Грин (Matthew Green), исследователь криптографии из Университета Джона Хопкинса (Johns Hopkins University) предупредил, что, теоретически, систему можно довольно легко обмануть и «подставить», таким образом, невинных людей. Например, отправив им безобидное, на первый взгляд, изображение, которое, по итогам поиска neuralMatch, будет признано совпадающим с изображениями жестокого обращения с детьми. Кроме того, подобная система очень подходит для разного рода злоупотреблений, например, для организации правительственной слежки за диссидентами или протестующими.

The Guardian ссылается на комментарий профессора американского университета, специализирующегося на анализе цифровых изображений, декана и руководителя школы информатики Калифорнийского университета в Беркли (University of California, Berkeley) Хани Фарид (Hany Farid), изобретателя технологии PhotoDNA для выявления изображений жестокого обращения с детьми в Интернете. По его мнению, возможность злоупотребления системой Apple вполне реальна, но это намного перевешивает необходимость борьбы с насилием над детьми.

Некоммерческая организация Electronic Frontier Foundation, защищающая цифровую конфиденциальность, назвала компромисс Apple в области защиты конфиденциальности «шокирующим для пользователей, которые полагались на лидерство компании в области конфиденциальности и безопасности».

Financial Times, в свою очередь, ссылается на слова Росса Андерсона (Ross J. Anderson), известного ученого, профессора инженерии безопасности в Кембриджском университете (University of Cambridge). По его мнению, это «ужасная идея», которая приведет к «распределенной массовой слежке» за смартфонами и ноутбуками.

Сама Apple не согласна с аргументами, которые приводят противники новой системы. Так, во внутреннем письме Apple своим сотрудникам Марита Родригес (Marita Rodriguez) исполнительный директор NCMEC по стратегическим партнерствам, назвала критические замечания «визгом меньшинства», а также поблагодарила Apple и выразила признательность за проделанную работу.

Наряду с этим, Apple планирует также сканировать зашифрованные сообщения пользователей по мере их отправки и получения с помощью инструмента iMessage на основе искусственного интеллекта. Изображения сексуального характера будут идентифицированы в автоматическом режиме. Родители, настроив автоматические фильтры для почтовых ящиков своих детей, будут уведомлены, если их ребенок решит отправить или получить откровенные фотографии сексуального характера.

Новое ПО, как предполагается сегодня, будет загружено на гаджеты пользователей из США осенью текущего года, с выпуском новых версий iOS и iPadOS.