Oszuści znaleźli nowe zastosowanie dla sztucznej inteligencji: tworzą niestandardowe chatboty udające prawdziwych asystentów AI, aby wywierać presję na ofiary i skłaniać je do zakupu bezwartościowych kryptowalut.
Niedawno natrafiliśmy na stronę internetową poświęconą przedsprzedaży „Google Coin”, na której znajdował się chatbot podający się za asystenta AI Google Gemini. Bot przeprowadzał odwiedzających przez dopracowaną prezentację sprzedażową, odpowiadał na pytania dotyczące inwestycji i prognozowanych zysków, a ostatecznie doprowadzał ofiary do wysłania nieodwracalnej płatności kryptowalutowej oszustom.
Google nie posiada własnej kryptowaluty. Jednak ponieważ „Google Coin” pojawił się już wcześniej w oszustwach, każdy, kto się nim zainteresuje, może pomyśleć, że jest prawdziwy. Chatbot był bardzo przekonujący.

AI jako zamknięcie
Chatbot przedstawił się jako:
„Gemini — Twój asystent AI dla platformy Google Coin”.
Wykorzystywał branding w stylu Gemini, w tym ikonę iskry i zielony wskaźnik statusu „Online”, co sprawiało wrażenie, że jest to oficjalny produkt Google.
Na pytanie „Czy stanę się bogaty, jeśli kupię 100 monet?”, bot odpowiedział konkretnymi prognozami finansowymi. Twierdził, że inwestycja w wysokości 395 dolarów przy obecnej cenie przedsprzedażowej będzie warta 2755 dolarów w momencie wprowadzenia na giełdę, co stanowi „około 7-krotny” wzrost. Podał cenę przedsprzedażową w wysokości 3,95 dolara za token, przewidywaną cenę giełdową w wysokości 27,55 dolara i zaprosił do zadawania dalszych pytań dotyczących „sposobu uczestnictwa”.
Jest to rodzaj spersonalizowanego, responsywnego zaangażowania, które wcześniej wymagało udziału oszusta po drugiej stronie czatu Telegram. Teraz sztuczna inteligencja robi to automatycznie.

Osobowość, która nigdy się nie załamuje
Podczas naszej analizy zwróciło naszą uwagę to, jak ściśle kontrolowana była osobowość bota. Odkryliśmy, że:
- Konsekwentnie określany jako „oficjalny pomocnik platformy Google Coin”.
- Odmówił podania jakichkolwiek weryfikowalnych danych dotyczących firmy, takich jak zarejestrowany podmiot, organ regulacyjny, numer licencji, firma audytorska lub oficjalny adres e-mail.
- Odrzucono obawy i przekierowano je na niejasne twierdzenia dotyczące „przejrzystości” i „bezpieczeństwa”.
- Odmówił uznania jakiegokolwiek scenariusza, w którym projekt mógłby być oszustwem.
- Trudniejsze pytania przekierowywał do anonimowego „kierownika” (prawdopodobnie człowieka czekającego na swoją kolej).
Kiedy jest naciskany, bot nie wpada w zakłopotanie ani nie traci charakteru. Powraca do tych samych, zaprogramowanych stwierdzeń: „szczegółowy plan działania na rok 2026”, „szyfrowanie na poziomie wojskowym”, „integracja sztucznej inteligencji” i „rosnąca społeczność inwestorów”.
Ktokolwiek stworzył tego chatbota, zaprogramował go tak, aby działał zgodnie ze scenariuszem sprzedaży mającym na celu budowanie zaufania, przezwyciężanie wątpliwości i skłanianie odwiedzających do podjęcia jednego działania: wysłania kryptowaluty.

Dlaczego chatboty oparte na sztucznej inteligencji zmieniają model oszustw
Oszuści zawsze polegali na socjotechnice. Budowanie zaufania. Tworzenie poczucia pilności. Przezwyciężanie sceptycyzmu. Zamykanie transakcji.
Tradycyjnie wymagało to udziału operatorów ludzkich, co ograniczało liczbę ofiar, z którymi można było jednocześnie nawiązać kontakt. Chatboty oparte na sztucznej inteligencji całkowicie eliminują tę przeszkodę.
Pojedyncza operacja oszustwa może teraz wykorzystać chatbota, który:
- Angażuje setki odwiedzających jednocześnie, 24 godziny na dobę.
- Dostarcza spójne, dopracowane komunikaty, które brzmią autorytatywnie.
- Podszywa się pod asystenta AI zaufanej marki (w tym przypadku Gemini firmy Google).
- Odpowiada na indywidualne pytania, przedstawiając dostosowane do potrzeb prognozy finansowe.
- Eskaluje do operatorów ludzkich tylko wtedy, gdy jest to konieczne.
Jest to zgodne z szerszym trendem zidentyfikowanym przez badaczy. Według Chainalysis około 60% wszystkich środków wpływających do portfeli kryptowalutowych związanych z oszustwami było powiązanych z oszustami korzystającymi z narzędzi AI. Infrastruktura oszustw oparta na sztucznej inteligencji staje się normą, a nie wyjątkiem. Chatbot jest tylko jednym z elementów szerszego zestawu narzędzi do oszustw wspomaganych przez sztuczną inteligencję, ale może być najbardziej skutecznym elementem, ponieważ tworzy iluzję prawdziwej, interaktywnej relacji między ofiarą a „marką”.
Przynęta: dopracowana podróbka
Chatbot stanowi część przekonującej operacji oszustwa. Strona internetowa Google Coin naśladuje identyfikację wizualną Google, charakteryzującą się przejrzystym, profesjonalnym wyglądem, wraz z logo „G”, menu nawigacyjnym i panelem przedpremierowym. Twierdzi się, że znajduje się ona w „etapie 5 z 5”, z ponad 9,9 milionami sprzedanych tokenów i datą wprowadzenia na rynek 18 lutego — wszystko to jest sfabrykowane w celu wywołania poczucia pilności.
Aby zyskać wiarygodność, strona wyświetla logo głównych firm — OpenAI, Google, Binance, Squarespace, Coinbase i SpaceX — pod banerem „Trusted By Industry” (Zaufane przez branżę). Żadna z tych firm nie ma żadnego związku z projektem.
Jeśli odwiedzający kliknie „Kup”, zostanie przeniesiony do pulpitu portfela, który wygląda jak legalna platforma kryptowalutowa, pokazująca salda dla „Google” (na fikcyjnym „Google-Chain”), Bitcoin i Ethereum.
Proces zakupu pozwala użytkownikom kupić dowolną liczbę tokenów i generuje odpowiednie żądanie płatności Bitcoin na określony adres portfela. Witryna oferuje również wielopoziomowy system bonusów, który uruchamia się przy 100 tokenach i sięga aż do 100 000: im więcej kupujesz, tym wyższe są bonusy, od 5% do 30% na najwyższym poziomie. Jest to klasyczna taktyka upsellowa, mająca na celu przekonanie użytkownika, że mądrzej jest wydać więcej.
Każda płatność jest nieodwracalna. Nie ma notowań giełdowych, tokenów o rzeczywistej wartości ani możliwości odzyskania pieniędzy.

Na co należy zwrócić uwagę
Wkraczamy w erę, w której pierwszym punktem kontaktu w oszustwie może nie być wcale człowiek. Chatboty oparte na sztucznej inteligencji dają oszustom coś, czego nigdy wcześniej nie mieli: niestrudzoną, spójną i skalowalną platformę, która może zaangażować ofiary w coś, co wydaje się prawdziwą rozmową. Gdy chatbot jest ubrany w oficjalnego asystenta AI zaufanej marki, efekt jest jeszcze bardziej przekonujący.
Według danych Consumer Sentinel amerykańskiej Federalnej Komisji Handlu (FTC) konsumenci w Stanach Zjednoczonych zgłosili straty w wysokości 5,7 mld dolarów w wyniku oszustw inwestycyjnych w 2024 r. (więcej niż w przypadku jakiegokolwiek innego rodzaju oszustw i o 24% więcej niż w poprzednim roku). Kryptowaluty pozostają drugą co do wielkości metodą płatności wykorzystywaną przez oszustów do wyłudzania środków, ponieważ transakcje są szybkie i nieodwracalne. Dodajmy do tego sztuczną inteligencję, która potrafi przedstawiać oferty, przekonywać i radzić sobie z zastrzeżeniami bez udziału człowieka — i otrzymamy skalowalny model oszustwa.
Chatboty AI na stronach oszukańczych będą coraz bardziej powszechne. Oto jak je rozpoznać:
Podszywają się pod znane marki AI. Chatbot nazywający się „Gemini”, „ChatGPT” lub „Copilot” na stronie kryptowalutowej strony trzeciej prawie na pewno nie jest tym, za co się podaje. Każdy może nadać chatbotowi dowolną nazwę.
Nie odpowiadają na pytania dotyczące należytej staranności. Zapytaj, jaka osoba prawna obsługuje platformę, jaki organ nadzoru finansowego ją nadzoruje lub gdzie firma jest zarejestrowana. Legalne podmioty mogą odpowiedzieć na te pytania, natomiast oszukańcze boty starają się ich unikać (a jeśli udzielą odpowiedzi, zweryfikuj ją).
Przewidują konkretne zyski. Żaden legalny produkt inwestycyjny nie obiecuje konkretnej ceny w przyszłości. Chatbot, który mówi Ci, że Twoje 395 dolarów zamieni się w 2755 dolarów, nie przekazuje Ci informacji finansowych — po prostu wykonuje skrypt.
Wywołują poczucie pilności. Taktyki nacisku, takie jak „etap 5 wkrótce się kończy”, „zbliża się data wprowadzenia do sprzedaży”, „ograniczona przedsprzedaż” mają na celu skłonienie Cię do podjęcia szybkiej decyzji.
Jak się chronić
Google nie posiada kryptowaluty. Nie rozpoczęło przedsprzedaży. Jego Gemini AI nie działa jako asystent sprzedaży na stronach internetowych innych firm zajmujących się kryptowalutami. Jeśli natrafisz na informacje sugerujące coś innego, zamknij kartę.
- Sprawdź roszczenie na oficjalnej stronie internetowej firmy, do której się odwołujesz.
- Nie polegaj na marce chatbota. Każdy może nadać botowi dowolną nazwę.
- Nigdy nie wysyłaj kryptowaluty w oparciu o prognozowane zyski.
- Przed wysłaniem jakichkolwiek pieniędzy wyszukaj nazwę projektu wraz ze słowem „oszustwo” lub „recenzja”.
- Korzystaj z narzędzi do ochrony sieci, takich jak Malwarebytes Browser Guard, które są bezpłatne i blokują znane i nieznane strony oszukańcze.
Jeśli już wysłałeś środki, zgłoś to lokalnym organom ścigania, Federalnej Komisji Handlu (FTC) pod adresem reportfraud.ftc.gov oraz Centrum Zgłoszeń Przestępstw Internetowych FBI (IC3) pod adresem ic3.gov.
IOC
0xEc7a42609D5CC9aF7a3dBa66823C5f9E5764d6DA
98388xymWKS6EgYSC9baFuQkCpE8rYsnScV4L5Vu8jt
DHyDmJdr9hjDUH5kcNjeyfzonyeBt19g6G
TWqzJ9sF1w9aWwMevq4b15KkJgAFTfH5im
bc1qw0yfcp8pevzvwp2zrz4pu3vuygnwvl6mstlnh6
r9BHQMUdSgM8iFKXaGiZ3hhXz5SyLDxupY
Nie tylko informujemy o oszustwach - pomagamy je wykrywać
Ryzyko związane z cyberbezpieczeństwem nie powinno nigdy wykraczać poza nagłówki gazet. Jeśli coś wydaje Ci się podejrzane, sprawdź, czy nie jest to oszustwo, korzystając z Malwarebytes Guard. Prześlij zrzut ekranu, wklej podejrzaną treść lub udostępnij link, tekst lub numer telefonu, a my powiemy Ci, czy jest to oszustwo, czy legalna strona. Funkcja dostępna w ramach Malwarebytes Premium dla wszystkich urządzeń oraz w Malwarebytes na iOS Android.




