Jak sztuczna inteligencja sprawiła, że oszustwa stały się bardziej przekonujące w 2025 roku

| 2 stycznia 2026 r.
skazana sztuczna inteligencja

Ten blog jest częścią serii, w której zwracamy uwagę na nowe lub szybko ewoluujące zagrożenia dla bezpieczeństwa konsumentów. Ten wpis skupia się na tym, jak sztuczna inteligencja jest wykorzystywana do tworzenia bardziej realistycznych kampanii, przyspieszania inżynierii społecznej oraz jak agenci AI mogą być wykorzystywani do ataków na konkretne osoby.

Większość cyberprzestępców stosuje sprawdzone metody. Jednak gdy nowa metoda okazuje się skuteczna, szybko się rozprzestrzenia, a wraz z nią pojawiają się nowe trendy i rodzaje kampanii.

W 2025 r. szybki rozwój sztucznej inteligencji(AI) szedł w parze z jej wykorzystaniem w cyberprzestępczości. Ogólnie rzecz biorąc, AI pozwala przestępcom zwiększyć skalę, szybkość i personalizację socjotechniki poprzez realistyczne teksty, głosy i filmy. Ofiary ponoszą nie tylko straty finansowe, ale także tracą zaufanie do komunikacji cyfrowej i instytucji.

Inżynieria społeczna

Klonowanie głosu

Jednym z głównych obszarów, w których sztuczna inteligencja uległa poprawie, było klonowanie głosu, co natychmiast wykorzystali oszuści. W przeszłości najczęściej podszywali się pod przyjaciół i krewnych. W 2025 r. posunęli się nawet do podszywania się pod wysokich rangą urzędników amerykańskich. Ofiarami byli głównie obecni lub byli urzędnicy federalni lub stanowi oraz ich kontakty.

W trakcie tych kampanii cyberprzestępcy wykorzystywali wiadomości testowe, a także wiadomości głosowe generowane przez sztuczną inteligencję. Jednocześnie nie porzucili oni motywu zrozpaczonej rodziny. Kobieta z Florydy została nakłoniona do przekazania oszustowi tysięcy dolarów po tym, jak głos jej córki został sklonowany przez sztuczną inteligencję i wykorzystany w oszustwie.

Agenci AI

Agenticzna sztuczna inteligencja to termin używany w odniesieniu do zindywidualizowanych agentów sztucznej inteligencji zaprojektowanych do samodzielnego wykonywania zadań. Jednym z takich zadań może być wyszukiwanie publicznie dostępnych lub skradzionych informacji o danej osobie i wykorzystanie tych informacji do stworzenia bardzo przekonującej przynęty phishingowej.

Agenci ci mogą również wykorzystywać skradzione dane do wymuszania okupu od ofiar, dopasowując je do publicznie znanych adresów e-mail lub kont w mediach społecznościowych, tworząc wiadomości i prowadząc rozmowy z osobami, które wierzą, że atakujący ma bezpośredni dostęp do ich numeru ubezpieczenia społecznego, adresu zamieszkania, danych karty kredytowej i innych informacji.

Innym często spotykanym zastosowaniem jest wykrywanie luk w zabezpieczeniach wspomagane przez sztuczną inteligencję. Narzędzia te są wykorzystywane zarówno przez atakujących, jak i broniących się. Na przykład firma Google korzysta z projektu o nazwie Big Sleep, który wykrył kilka luk w zabezpieczeniach Chrome .

Media społecznościowe

Jak wspomniano w sekcji poświęconej agentom AI, łączenie danych publikowanych w mediach społecznościowych z danymi skradzionymi podczas włamań jest powszechną taktyką. Takie swobodnie udostępniane dane stanowią również bogate źródło informacji dla oszustów matrymonialnych, sekstorsji i oszustw wakacyjnych.

Platformy społecznościowe są również szeroko wykorzystywane do sprzedaży podrobionych produktów, dezinformacji generowanej przez sztuczną inteligencję, towarów niebezpiecznych oraz towarów wysyłanych bezpośrednio od dostawcy.

Szybkie wstrzyknięcie

Ponadto istnieją luki w zabezpieczeniach publicznych platform AI, takich jak ChatGPT, Perplexity, Claude i wiele innych. Zarówno naukowcy, jak i przestępcy wciąż poszukują sposobów na obejście zabezpieczeń mających na celu ograniczenie nadużyć.

Wstrzyknięcie polecenia to ogólny termin określający sytuację, w której ktoś wprowadza starannie przygotowane dane wejściowe w formie zwykłej rozmowy lub danych, aby skłonić lub zmusić sztuczną inteligencję do wykonania czynności, której nie miała wykonać.

Kampanie złośliwego oprogramowania

W niektórych przypadkach osoby atakujące wykorzystywały platformy AI do pisania i rozprzestrzeniania złośliwego oprogramowania. Badacze udokumentowali kampanię, w której osoby atakujące wykorzystały Claude AI do zautomatyzowania całego cyklu ataku, od początkowego naruszenia systemu po generowanie żądania okupu, kierując się do takich sektorów jak administracja publiczna, opieka zdrowotna i służby ratownicze.

Od początku 2024 r. firma OpenAI twierdzi, że udaremniła ponad 20 kampanii na całym świecie, które próbowały wykorzystać jej platformę AI do działań przestępczych i oszukańczych kampanii.

Patrząc w przyszłość

Sztuczna inteligencja zwiększa możliwości zarówno obrońców, jak i atakujących. Zespoły ds. bezpieczeństwa mogą ją wykorzystywać do automatyzacji wykrywania, szybszego rozpoznawania wzorców i skalowania ochrony. Cyberprzestępcy natomiast wykorzystują ją do udoskonalania socjotechniki, szybszego wykrywania luk w zabezpieczeniach i tworzenia kompleksowych kampanii przy minimalnym wysiłku.

Patrząc w przyszłość, w kierunku roku 2026, największa zmiana może nie być natury technicznej, ale psychologicznej. Ponieważ treści generowane przez sztuczną inteligencję będą coraz trudniejsze do odróżnienia od prawdziwych, weryfikacja głosów, wiadomości i tożsamości będzie miała większe znaczenie niż kiedykolwiek wcześniej.


Nie tylko informujemy o zagrożeniach - my je usuwamy

Zagrożenia cyberbezpieczeństwa nigdy nie powinny wykraczać poza nagłówek. Chroń swoje urządzenia przed zagrożeniami, pobierając Malwarebytes już dziś.

O autorze

Pieter Arntz

Badacz złośliwego oprogramowania

Przez 12 lat z rzędu był Microsoft MVP w dziedzinie bezpieczeństwa konsumentów. Mówi w czterech językach. Pachnie bogatym mahoniem i oprawionymi w skórę książkami.