Этот блог является частью серии, в которой мы освещаем новые или быстро развивающиеся угрозы в области безопасности потребителей. В данной статье основное внимание уделяется тому, как ИИ используется для разработки более реалистичных кампаний, ускорения социальной инженерии, а также тому, как агенты ИИ могут использоваться для атак на отдельных лиц.
Большинство киберпреступников придерживаются того, что работает. Но как только новый метод доказывает свою эффективность, он быстро распространяется, и за ним следуют новые тенденции и типы кампаний.
В 2025 году стремительное развитие искусственного интеллекта(ИИ) и его использование в киберпреступности шли рука об руку. В целом ИИ позволяет преступникам увеличить масштаб, скорость и персонализацию социальной инженерии за счет реалистичных текстов, голосов и видео. Жертвы сталкиваются не только с финансовыми потерями, но и с подрывом доверия к цифровой коммуникации и учреждениям.
Социальная инженерия
Клонирование голоса
Одной из основных областей, в которой искусственный интеллект был усовершенствован, стала область клонирования голоса, что сразу же было подхвачено мошенниками. Раньше они в основном ограничивались подделкой голосов друзей и родственников. В 2025 году они дошли до того, что стали подделывать голоса высокопоставленных должностных лиц США. Целями были преимущественно действующие или бывшие должностные лица федерального или штатного правительства США и их контакты.
В ходе этих кампаний киберпреступники использовали тестовые сообщения, а также голосовые сообщения, сгенерированные искусственным интеллектом. При этом они не отказались от уловки с бедствующей семьей. Женщина из Флориды была обманута и передала мошеннику тысячи долларов после того, как голос ее дочери был клонирован с помощью искусственного интеллекта и использован в мошенничестве.
ИИ-агенты
Агентный ИИ — это термин, используемый для обозначения индивидуализированных ИИ-агентов, предназначенных для автономного выполнения задач. Одной из таких задач может быть поиск общедоступной или похищенной информации о конкретном лице и использование этой информации для создания очень убедительной фишинговой приманки.
Эти агенты также могут использоваться для вымогательства у жертв путем сопоставления украденных данных с общедоступными адресами электронной почты или учетными записями в социальных сетях, составления сообщений и поддержания разговоров с людьми, которые полагают, что злоумышленник имеет прямой доступ к их номеру социального страхования, физическому адресу, данным кредитной карты и т. д.
Еще одно частое применение — обнаружение уязвимостей с помощью искусственного интеллекта. Эти инструменты используются как злоумышленниками, так и защитниками. Например, Google использует проект под названием Big Sleep, который обнаружил несколько уязвимостей в Chrome .
Социальные сети
Как упоминалось в разделе об ИИ-агентах, сочетание данных, опубликованных в социальных сетях, с данными, похищенными в ходе взломов, является распространенной тактикой. Такие свободно предоставляемые данные также являются богатым источником для романтических мошенничеств, сексуального шантажа и мошенничеств, связанных с праздниками.
Социальные сети также широко используются для продажи поддельных товаров, дезинформации, созданной с помощью искусственного интеллекта, опасных товаров и товаров, поставляемых напрямую от производителя.
Быстрая инъекция
Кроме того, существуют уязвимости в публичных платформах искусственного интеллекта, таких как ChatGPT, Perplexity, Claude и многих других. Исследователи и преступники по-прежнему ищут способы обойти меры безопасности, предназначенные для ограничения неправомерного использования.
Внезапная инъекция — это общий термин, обозначающий ситуацию, когда кто-то вводит тщательно подготовленный ввод в виде обычного разговора или данных, чтобы подтолкнуть или заставить ИИ сделать то, что он не должен был делать.
Кампании по распространению вредоносных программ
В некоторых случаях злоумышленники использовали платформы искусственного интеллекта для написания и распространения вредоносного ПО. Исследователи задокументировали кампанию, в которой злоумышленники использовали Claude AI для автоматизации всего цикла атаки, от первоначального взлома системы до генерации требований о выкупе, нацелившись на такие секторы, как государственные учреждения, здравоохранение и службы экстренной помощи.
С начала 2024 года OpenAI заявляет, что пресекла более 20 кампаний по всему миру, которые пытались злоупотребить ее платформой искусственного интеллекта для преступных операций и обманных кампаний.
Взгляд в будущее
ИИ расширяет возможности как защитников, так и злоумышленников. Команды безопасности могут использовать его для автоматизации обнаружения, более быстрого выявления закономерностей и масштабирования защиты. Киберпреступники, в свою очередь, используют его для совершенствования социальной инженерии, более быстрого обнаружения уязвимостей и создания комплексных кампаний с минимальными усилиями.
Если смотреть в будущее, на 2026 год, то самые большие изменения, возможно, будут не техническими, а психологическими. Поскольку контент, созданный искусственным интеллектом, будет все труднее отличить от реального, проверка голосов, сообщений и личностей будет иметь большее значение, чем когда-либо.
Мы не просто сообщаем об угрозах - мы их устраняем
Риски кибербезопасности не должны выходить за рамки заголовка. Загрузите Malwarebytes сегодня, чтобы предотвратить угрозы на своих устройствах.




