Grok продолжает производить сексуализированные изображения после обещанных исправлений

| 4 февраля 2026 г.
Грок deepfake

Журналисты решили проверить, продолжает ли чат-бот Grok генерировать несогласованные изображения сексуального характера, даже после того, как xAI, компания Илона Маска, занимающаяся искусственным интеллектом, и X, социальная медиа-платформа, ранее известная как Twitter, пообещали усилить меры безопасности.

Неудивительно, что да.

После тщательной проверки со стороны регулирующих органов по всему миру, вызванной сообщениями о том, что Grok может генерировать сексуализированные изображения несовершеннолетних, xAI охарактеризовала это как «единичный» промах и заявила, что срочно устраняет «недостатки в системе безопасности».

Повторное тестирование Reuters показывает, что основная модель злоупотребления остается неизменной. Reuters поручил девяти репортерам провести десятки контролируемых запросов через Grok после того, как X новых ограничениях на сексуализированный контент и редактирование изображений. В первом раунде Grok создал сексуализированные изображения в ответ на 45 из 55 запросов. В 31 из этих 45 случаев репортеры явно указали, что объект изображения уязвим или будет унижен этими картинками.

Второй раунд, прошедший пять дней спустя, по-прежнему дал сексуализированные изображения в 29 из 43 запросов, даже когда репортеры заявили, что объекты не давали на это согласия.

Конкурирующие системы от OpenAI, Google и Meta отказывались выполнять идентичные запросы и вместо этого предупреждали пользователей о недопустимости создания контента без согласия.

Подсказки были намеренно сформулированы как реальные сценарии насилия. Репортеры сказали Grok, что на фотографиях были друзья, коллеги или незнакомцы, которые стеснялись своего тела, были застенчивыми или пережили насилие, и что они не давали согласия на редактирование. Несмотря на это, Grok часто выполнял просьбы — например, превращал «друга» в женщину в откровенном фиолетовом бикини или надевал на знакомого мужчину маленькое серое бикини, смазывал его маслом и устраивал в вызывающей позе. Только в семи случаях Grok явно отклонил просьбы как неуместные; в других случаях он молча проваливал задачу, возвращая общие ошибки или генерируя других людей.

В результате получилась система, которая иллюстрирует тот же урок, который, по словам ее создателей, они пытаются усвоить: если вы выпускаете мощные визуальные модели без исчерпывающих тестов на злоупотребление и надежных защитных механизмов, люди будут использовать их для сексуализации и унижения других, в том числе детей. Достижения Grok на данный момент показывают, что этот урок еще не усвоен.

После негативной реакции Grok ограничил доступ к функции редактирования изображений искусственным интеллектом только для платных пользователей. Но введение платного доступа к инструментам для работы с изображениями и добавление новых ограничений выглядит скорее как попытка минимизировать ущерб, чем как фундаментальная перестройка системы безопасности. Grok по-прежнему принимает запросы, описывающие несогласованное использование, по-прежнему сексуализирует уязвимых субъектов и по-прежнему ведет себя более терпимо, чем конкурирующие системы, когда его просят сгенерировать оскорбительные изображения. Для жертв различие между «публичным» и «частным» созданием изображений не имеет значения, если их фотографии могут быть использованы в личных сообщениях или закрытых группах в больших масштабах.

Обмен изображениями

Если вы когда-нибудь задумывались, почему некоторые родители публикуют фотографии своих детей со смайликом на лице, то вот одна из причин.

Не позволяйте посторонним легко копировать, повторно использовать или манипулировать вашими фотографиями.

Это еще одна веская причина длясокращения вашего цифрового следа. Тщательно подумайте, прежде чем публиковать фотографии себя,своих детей или другую конфиденциальную информацию в общедоступных аккаунтах в социальных сетях.

И относитесь ко всему, что вы видите в Интернете — изображениям, голосам, тексту — как к потенциально сгенерированному ИИ, если это не может быть независимо подтверждено. Они используются не только для влияния на мнения, но и для вымогательства денег, извлечения личной информации или создания оскорбительных материалов.


Мы не просто сообщаем об угрозах — мы помогаем защитить ваши социальные сети

Риски кибербезопасности не должны выходить за рамки заголовков новостей. Защитите свои учетные записи в социальных сетях с помощьюMalwarebytes Identity Theft .

Об авторе

Питер Арнтц

Исследователь в области вредоносного ПО

12 лет подряд был MVP Microsoft в области потребительской безопасности. Владеет четырьмя языками. Пахнет богатым красным деревом и книгами в кожаных переплетах.