Как искусственный интеллект сделал мошенничество более убедительным в 2025 году

| 2 января 2026 г.
осужденный ИИ

Этот блог является частью серии, в которой мы освещаем новые или быстро развивающиеся угрозы в области безопасности потребителей. В данной статье основное внимание уделяется тому, как ИИ используется для разработки более реалистичных кампаний, ускорения социальной инженерии, а также тому, как агенты ИИ могут использоваться для атак на отдельных лиц.

Большинство киберпреступников придерживаются того, что работает. Но как только новый метод доказывает свою эффективность, он быстро распространяется, и за ним следуют новые тенденции и типы кампаний.

В 2025 году стремительное развитие искусственного интеллекта(ИИ) и его использование в киберпреступности шли рука об руку. В целом ИИ позволяет преступникам увеличить масштаб, скорость и персонализацию социальной инженерии за счет реалистичных текстов, голосов и видео. Жертвы сталкиваются не только с финансовыми потерями, но и с подрывом доверия к цифровой коммуникации и учреждениям.

Социальная инженерия

Клонирование голоса

Одной из основных областей, в которой искусственный интеллект был усовершенствован, стала область клонирования голоса, что сразу же было подхвачено мошенниками. Раньше они в основном ограничивались подделкой голосов друзей и родственников. В 2025 году они дошли до того, что стали подделывать голоса высокопоставленных должностных лиц США. Целями были преимущественно действующие или бывшие должностные лица федерального или штатного правительства США и их контакты.

В ходе этих кампаний киберпреступники использовали тестовые сообщения, а также голосовые сообщения, сгенерированные искусственным интеллектом. При этом они не отказались от уловки с бедствующей семьей. Женщина из Флориды была обманута и передала мошеннику тысячи долларов после того, как голос ее дочери был клонирован с помощью искусственного интеллекта и использован в мошенничестве.

ИИ-агенты

Агентный ИИ — это термин, используемый для обозначения индивидуализированных ИИ-агентов, предназначенных для автономного выполнения задач. Одной из таких задач может быть поиск общедоступной или похищенной информации о конкретном лице и использование этой информации для создания очень убедительной фишинговой приманки.

Эти агенты также могут использоваться для вымогательства у жертв путем сопоставления украденных данных с общедоступными адресами электронной почты или учетными записями в социальных сетях, составления сообщений и поддержания разговоров с людьми, которые полагают, что злоумышленник имеет прямой доступ к их номеру социального страхования, физическому адресу, данным кредитной карты и т. д.

Еще одно частое применение — обнаружение уязвимостей с помощью искусственного интеллекта. Эти инструменты используются как злоумышленниками, так и защитниками. Например, Google использует проект под названием Big Sleep, который обнаружил несколько уязвимостей в Chrome .

Социальные сети

Как упоминалось в разделе об ИИ-агентах, сочетание данных, опубликованных в социальных сетях, с данными, похищенными в ходе взломов, является распространенной тактикой. Такие свободно предоставляемые данные также являются богатым источником для романтических мошенничеств, сексуального шантажа и мошенничеств, связанных с праздниками.

Социальные сети также широко используются для продажи поддельных товаров, дезинформации, созданной с помощью искусственного интеллекта, опасных товаров и товаров, поставляемых напрямую от производителя.

Быстрая инъекция

Кроме того, существуют уязвимости в публичных платформах искусственного интеллекта, таких как ChatGPT, Perplexity, Claude и многих других. Исследователи и преступники по-прежнему ищут способы обойти меры безопасности, предназначенные для ограничения неправомерного использования.

Внезапная инъекция — это общий термин, обозначающий ситуацию, когда кто-то вводит тщательно подготовленный ввод в виде обычного разговора или данных, чтобы подтолкнуть или заставить ИИ сделать то, что он не должен был делать.

Кампании по распространению вредоносных программ

В некоторых случаях злоумышленники использовали платформы искусственного интеллекта для написания и распространения вредоносного ПО. Исследователи задокументировали кампанию, в которой злоумышленники использовали Claude AI для автоматизации всего цикла атаки, от первоначального взлома системы до генерации требований о выкупе, нацелившись на такие секторы, как государственные учреждения, здравоохранение и службы экстренной помощи.

С начала 2024 года OpenAI заявляет, что пресекла более 20 кампаний по всему миру, которые пытались злоупотребить ее платформой искусственного интеллекта для преступных операций и обманных кампаний.

Взгляд в будущее

ИИ расширяет возможности как защитников, так и злоумышленников. Команды безопасности могут использовать его для автоматизации обнаружения, более быстрого выявления закономерностей и масштабирования защиты. Киберпреступники, в свою очередь, используют его для совершенствования социальной инженерии, более быстрого обнаружения уязвимостей и создания комплексных кампаний с минимальными усилиями.

Если смотреть в будущее, на 2026 год, то самые большие изменения, возможно, будут не техническими, а психологическими. Поскольку контент, созданный искусственным интеллектом, будет все труднее отличить от реального, проверка голосов, сообщений и личностей будет иметь большее значение, чем когда-либо.


Мы не просто сообщаем об угрозах - мы их устраняем

Риски кибербезопасности не должны выходить за рамки заголовка. Загрузите Malwarebytes сегодня, чтобы предотвратить угрозы на своих устройствах.

Об авторе

Питер Арнтц

Исследователь в области вредоносного ПО

12 лет подряд был MVP Microsoft в области потребительской безопасности. Владеет четырьмя языками. Пахнет богатым красным деревом и книгами в кожаных переплетах.