Oszuści zatrudniają „modele AI”, aby sfinalizować transakcję podczas rozmów deepfake

| 24 marca 2026 r.
Model Deepfake

Ośrodki oszustów w Azji Południowo-Wschodniej stały się już współczesnymi farmami niewolniczymi, gdzie ofiary są uwięzione i zmuszane do pracy jako oszuści. Teraz dołączyła do nich nowa grupa pracowników: tak zwane modele sztucznej inteligencji.

Ci zawodowi oszuści prowadzą rozmowy wideo ze swoimi ofiarami, wykorzystując swój urok osobisty, by skłonić je do przekazania pieniędzy. Jakdonosi wtym tygodniumagazyn „WIRED”, ogłoszenia rekrutacyjne opisują stanowiska polegające na obsłudze około stu rozmów wideo na żywo dziennie, promujące oszustwa matrymonialne i przekręty związane z kryptowalutami w ramach operacji oszustw na skalę przemysłową prowadzonych w Kambodży, Birmie i Laosie. 

Te oszukańcze serwisy już teraz wykorzystują operatorów czatu do wciągania ofiar w pułapkę za pośrednictwem komunikatorów. Wielu z tych operatorów to sami ofiary handlu ludźmi, zmuszani do pracy na długich zmianach pod groźbą przemocy. Z czasem nawiązują relacje z ofiarami, wykorzystując ich samotność lub obawy finansowe. Chociaż starają się sprawić, by ofiara poczuła się wyjątkowa, w rzeczywistości prowadzą jednocześnie podobne rozmowy tekstowe z dziesiątkami osób. W końcu ofiara może zapragnąć rozmowy wideo, aby spotkać się ze swoją wyobrażoną ukochaną osobą lub potwierdzić, że okazja inwestycyjna jest prawdziwa (lub jedno i drugie). 

Operatorzy czatu mogą nie być w stanie oczarować ofiar podczas rozmowy wideo, zwłaszczagdy sami są ofiarami, zmuszani do pracy na długich zmianach i fizycznie maltretowani.  Kiedy więc ofiara prosi o rozmowę wideo, szefowie oszustwa wzywają specjalistyczny „model AI” o silnych umiejętnościach interpersonalnych, aby oczarował ofiarę. Pomimo nazwy są to prawdziwi ludzie zatrudnieni do występowania w rozmowach wideo. deepfake AI deepfake dostosowuje ich wygląd, aby pasował do fikcyjnej osoby, którą ofiara ma nadzieję zobaczyć. 

Oszuści zamieszczają ogłoszenia rekrutacyjne dla takich modelek, a wiele z nich wydaje się chętnych do ubiegania się o te stanowiska. Humanity Research Consultancy, grupa badawcza zajmująca się śledzeniem łańcuchów dostaw związanych z handlem ludźmi,zidentyfikowałaogłoszenie 24-letniej Uzbekistanki podającej się za Angel. Twierdziła, że zna cztery języki i ma roczne doświadczenie jako modelka AI. Za swoje usługi żądała 7 000 dolarów miesięcznie. 

Rozwój oszustw 

Jak to się dzieje, że takie oszukańcze ośrodki w ogóle istnieją?WedługAustralijskiego Instytutu Polityki Strategicznej wojskowy zamach stanu w Mjanmie w 2021 roku przyczynił się do gwałtownego wzrostu liczby oszustw. Liczba ośrodków oszustw wzdłuż granicy z Tajlandią wzrosłaponad dwukrotniew miarę jak grupy przestępcze przenoszą się do tego regionu, a także do Mjanmy, Kambodży i Laosu. 

Często toleruje się istnienie tych ośrodków oszustw, ponieważ zasilają one kasy lokalnych milicji. Podjęto jednak pewne działania zaradcze. Naloty i transgraniczne akcje policyjne doprowadziły do aresztowań oraz przemieszczania się dużej liczby podejrzanych między krajami, w tym do operacji wymierzonych w takie kompleksy jak KK Park w Myawaddy. Kambodża i Mjanma zapowiedziały również wzmożone działania mające na celu zwalczanie oszustw, choć sieci te pozostają niezwykle odporne.

Wraz z postępem technologicznym tego typu działania stają się coraz łatwiejsze. deepfake do zamiany twarzy w czasie rzeczywistym oraz deepfake są obecnie na tyle zaawansowane, że obsługują nie tylko wcześniej nagrane klipy, ale także transmisje na żywo. Widzieliśmy już deepfakes działające w czasie rzeczywistym deepfakes do wszystkiego – odrozmów kwalifikacyjnychpopodszywanie się pod dyrektorów banków w celu wyłudzenia milionów. Nowością jest tutaj skala: osoby obsługujące dziesiątki, a nawet setki połączeń dziennie w ramach oszustw matrymonialnych i związanych z inwestycjami w kryptowaluty pokazują, że jest to obecnie zjawisko masowe. 

Jak zachować bezpieczeństwo 

Oto problem z deepfake : typowe „oznaki”, które pozwalają je rozpoznać, stopniowo zanikają. Kiedyś pewnym znakiem, że mamy do czynienia z deepfake opartym na sztucznej inteligencji, deepfake osoba z nieprawidłową liczbą palców lub dziwnymi liniami włosów. Podczas rozmów na żywo można podnieść poprzeczkę, prosząc rozmówcę, aby obrócił się bokiem. Niech dotknie nosa i pomacha palcami przed twarzą.deepfake trudniej jest poradzić sobie z tym dodatkowym zakłóceniem. 

Ale uwaga: algorytmy służące do tworzenia deepfakes coraz lepsze i coraz łatwiej radzą sobie z takimi testami. Doszliśmy do punktu, w którym, jak twierdzi tendeepfake , w tym roku znacznie więcej osób da się na nie nabrać. 

Jeśli nie możesz w pełni ufać temu, co widzisz, opieraj się na tym, co wiesz. Zachowaj ostrożność w przypadku nieproszonych kontaktów, zwłaszcza gdy ktoś szybko nawiązuje emocjonalną więź lub proponuje okazję inwestycyjną. Nawet jeśli profil wygląda na wiarygodny, a strona internetowa wydaje się legalna, poświęć chwilę na dokładniejsze zbadanie sprawy.

Unikaj podawania danych osobowych lub finansowych osobom, które znasz wyłącznie z internetu, i zachowaj ostrożność wobec każdego, kto naciska na podjęcie szybkiej decyzji lub prosi o przeniesienie rozmowy poza znane platformy. FBI udostępnia na swojej stronie internetowej kilka cennych wskazówek

Najbardziej niebezpiecznym aspektem tego trendu związanego z modelamideepfake jest to, że pomaga on oszustom przekroczyć ostatnią barierę. Prawdziwy człowiek potrafi udaremnić oszustwo, czego nie da się osiągnąć za pomocą zwykłej rozmowy na czacie. Właśnie dlatego ludzie tacy jak Angel z Uzbekistanu mają pracę, a Ty musisz być bardziej czujny niż kiedykolwiek. 


Nie tylko informujemy o oszustwach - pomagamy je wykrywać

Ryzyko związane z cyberbezpieczeństwem nie powinno nigdy wykraczać poza nagłówki gazet. Jeśli coś wydaje Ci się podejrzane, sprawdź, czy nie jest to oszustwo, korzystając z Malwarebytes Guard. Prześlij zrzut ekranu, wklej podejrzaną treść lub udostępnij link, tekst lub numer telefonu, a my powiemy Ci, czy jest to oszustwo, czy legalna strona. Funkcja dostępna w ramach Malwarebytes Premium dla wszystkich urządzeń oraz w Malwarebytes na iOS Android.

O autorze

Danny Bradbury jest dziennikarzem specjalizującym się w technologii od 1989 roku i niezależnym pisarzem od 1994 roku. Zajmuje się szeroką gamą zagadnień technologicznych dla odbiorców od konsumentów po twórców oprogramowania i dyrektorów ds. informatyki. Pisze również artykuły dla wielu dyrektorów zarządzających w sektorze technologicznym. Pochodzi z Wielkiej Brytanii, ale obecnie mieszka w zachodniej Kanadzie.