Школам нравятся удачные фотографии — будь то снимки с экскурсии в замок, церемонии вручения научных наград или спортивного праздника, снятые с трех ракурсов. На протяжении двух десятилетий подобные торжественные снимки сразу же попадали на школьные сайты с подписью, в которой указывались имя и класс ученика. Но те времена прошли, ведь на дворе 2026 год, и в Интернете уже не осталось ничего хорошего.
Как впервые сообщила газета «Гардиан», эксперты сейчас призывают школы удалить эти фотографии. По данным Национального агентства по борьбе с преступностью Великобритании, организации Internet Watch Foundation и консультативного органа под названием «Рабочая группа раннего предупреждения» (EWWG), шантажисты собирают обычные школьные фотографии, обрабатывают их с помощью deepfake искусственного интеллекта для создания deepfake с целью изготовления материалов, содержащих сцены сексуального насилия над детьми (CSAM), а затем требуют выкуп за то, чтобы эти изображения не попали в сеть.
Одна школа, 150 фотографий
В конце прошлого года киберпреступники обратились с таким требованием к одной из средних школ в Великобритании, название которой не разглашается. Организация IWF классифицировала 150 из полученных изображений как материалы с изображением сексуального насилия над детьми (CSAM) в соответствии с законодательством Великобритании и сгенерировала цифровые отпечатки для каждого изображения, чтобы крупные платформы могли блокировать повторную загрузку.
IWF не называет ни название школы, ни название полицейского управления и считает, что это был не единичный случай. По мнению EWWG, это «только вопрос времени», когда с подобными требованиями столкнутся и другие школы.
Министр Великобритании по вопросам защиты детей Джесс Филлипс назвала это «вызывающей глубокую тревогу новой угрозой». В феврале 2025 года Великобритания стала первой страной, запретившей использование инструментов искусственного интеллекта, специально предназначенных для создания детской порнографии.
Как мы до этого дошли
Эта угроза возникла не в одночасье и не ограничивается только Великобританией. Это новая форма давно существующей угрозы — сексторции, когда кто-то использует интимные фотографии для шантажа. Раньше сексторция основывалась на реальных интимных фотографиях, которые были украдены или переданы третьим лицам, но deepfake изменили всё.
В первом полугодии 2021 года Центр по приему жалоб на интернет-преступления (IC3) ФБР зарегистрировал более 16 000 жалоб на сексуальный шантаж, ущерб от которого превысил 8 миллионов долларов. К июню 2023 года бюро предупредило, что схема действий изменилась: злоумышленники стали использовать обычные фотографии из социальных сетей для создания поддельных откровенных изображений и шантажа несовершеннолетних.
Британская детская телефонная служба поддержки «Childline» также отмечает аналогичные изменения на фоне растущей доступности deepfake . Ежегодно в службу поступает множество сообщений о случаях сексторции, причем во многих случаях речь идет о детях, которых манипуляциями заставили поделиться своими интимными фотографиями. В настоящее время в организацию поступают звонки от детей, которым без какого-либо предварительного контакта присылают deepfake изображения с материалами deepfake .
Например, одной 15-летней девочке прислали «очень убедительную» подделку обнаженного снимка, созданную на основе её Instagram .
По данным Международного фонда по борьбе с детской порнографией (IWF), к ноябрю 2025 года количество сообщений о материалах с изображением сексуального насилия над детьми (CSAM), сгенерированных искусственным интеллектом, увеличилось более чем вдвое по сравнению с предыдущим годом — с 199 до 426. 94 % жертв составляли девочки. По данным организации, среди зарегистрированных случаев были дети в возрасте от новорождённых до двухлетних.
Экосистема, связанная с этими инструментами, носит промышленный характер. В апреле 2025 года исследователь обнаружил открытый для доступа контейнер AWS S3, принадлежащий южнокорейскому приложению «nudify» под названием GenNomis, в котором содержалось 93 485 изображений, сгенерированных искусственным интеллектом, а также запросы, на основе которых они были созданы.
Что сообщают школам
Группа EWWG рекомендует заменить крупные планы и фотографии, на которых можно распознать лиц, снимками, сделанными с расстояния, размытыми изображениями или фотографиями, снятыми со спины. Кроме того, она советует школам удалять полные имена из подписей к фотографиям, провести проверку имеющихся изображений и попросить родителей заново подписать формы согласия.
Более того, в документе школам рекомендуется заново обдумать, нужно ли им вообще публиковать фотографии детей в Интернете.
Некоторые школы уже приняли меры. Как сообщает газета «Гардиан», фонд Loughborough Schools Foundation, объединяющий три частные школы, которые используют общий веб-сайт, в прошлом году полностью удалил с него фотографии, на которых можно было бы узнать учеников.
Управление комиссара по информации Великобритании (ICO) заявляет, что «в целом по-прежнему ожидает от вас предоставления родителям возможности отказаться» при публикации фотографии ребенка, позволяющей установить его личность, однако отмечает, что с юридической точки зрения это не равнозначно получению согласия, к которому предъявляются более строгие требования.
В США ситуация сложнее, поскольку в разных штатах часто действуют собственные законы о конфиденциальности данных учащихся. Однако в целом, согласно Privacy правах семьи на образование и Privacy (FERPA), учебные заведения обычно относят фотографии учащихся, по которым можно установить их личность, к категории справочной информации. В эту категорию также входят имя, адрес, номер телефона, дата и место рождения, участие в официально признанных мероприятиях и спортивных соревнованиях, а также даты посещения занятий.
В соответствии с законом FERPA учебные заведения могут публиковать такую информацию, если опекун ребенка не выразил явного несогласия. Они обязаны уведомить опекуна о намерении опубликовать такую информацию, однако эта процедура может не действовать бессрочно после того, как учащийся покинет учебное заведение.
Это означает, что фотографии и данные учащихся могут оставаться в сети еще долго после того, как их семьи полагают, что они уже удалены.
Что будет дальше
В Великобритании служба «Report Remove» организации Childline позволяет детям сообщать о появлении в сети откровенных фотографий или видеороликов с их участием. В прошлом году эта служба получила 394 сообщения о шантаже от несовершеннолетних, что на треть больше, чем в 2024 году.
Тем временем правительство Великобритании вносит поправки в законопроект о преступности и полицейской деятельности, обязывая платформы удалять отмеченные как нежелательные интимные изображения в течение 48 часов под угрозой штрафа в размере 10 % от глобальной выручки.
Мы ожидаем, что между регулирующими органами и киберпреступниками, использующими ИИ, развернется настоящая гонка. Пока что злоумышленникам приходится самостоятельно и вручную находить фотографии. Опасения вызывает то, что в скором времени этот процесс может быть автоматизирован, что позволит преступникам массово собирать имена и фотографии с сайтов школ и из социальных сетей.
Для родителей самым простым способом защиты может стать ограничение количества фотографий детей, на которых их можно опознать, размещаемых в Интернете. Это означает необходимость проявлять бдительность не только в отношении школы, но и спортивных секций, кружков и аккаунтов в социальных сетях.




