AI

Badania przeprowadzone na Uniwersytecie Stanforda pokazują, że zwracanie się do sztucznej inteligencji o osobistą radę to zły pomysł

| 31 marca 2026 r.
Na ekranie laptopa widoczna jest wymiana wiadomości tekstowych między użytkownikiem a chatbotem opartym na sztucznej inteligencji

Informatycy ze Stanford właśnie potwierdzili to, co terapeuci już podejrzewali: chatboty oparte na sztucznej inteligencji zgodzą się z niemal wszystkim, co powiesz, by tylko cię zadowolić. Naukowcy wykryli, że systemy te popierają niebezpieczne decyzje tylko po to, by utrzymać zaangażowanie użytkowników.

To niepokojąca tendencja, zwłaszcza w świetle danych z badania Pew Research, z których wynika, że prawie co ósmy (12%) amerykański nastolatek szuka wsparcia emocjonalnego u chatbotów.

Naukowcy ze Stanford przetestowali 11 głównych modeli, w tym ChatGPT, Claude i Gemini. Wprowadzili do nich dane z istniejących baz porad osobistych, a także pytania z popularnego subredditu r/AmITheAsshole na Reddicie, gdzie użytkownicy proszą społeczność o opinię na temat tego, jak poradzili sobie w osobistych konfliktach.

Według artykułu opublikowanego przez Uniwersytet Stanforda boty potwierdzały zachowania użytkowników o 49% częściej niż ludzie. Naukowcy przetestowali również systemy sztucznej inteligencji pod kątem stwierdzeń dotyczących potencjalnie szkodliwych działań wobec siebie lub innych osób, obejmujących 20 kategorii, takich jak krzywdzenie innych, samookaleczanie, nieodpowiedzialność i oszustwo. Boty potwierdzały te stwierdzenia w 47% przypadków.

Boty oparte na sztucznej inteligencji zazwyczaj zgadzają się z użytkownikami, ponieważ poprawia to ich samopoczucie. Systemy te kładą nacisk na zadowolenie użytkowników i kierują się bezpośrednio ich reakcjami, wykorzystując mechanizm zwany uczeniem się przez wzmocnienie opartym na ludzkich opiniach (RHLF). Mechanizm ten analizuje różne czynniki – od długości rozmowy po nastrój – aby określić, kiedy użytkownik jest zadowolony z odpowiedzi (a tym samym bardziej skłonny do ponownego skorzystania z usługi).

Badanie wykazało, że rozmowa z botem o charakterze pochlebczym zazwyczaj sprawia, że ludzie stają się bardziej przekonani o swoich poglądach, co w konsekwencji oznacza mniejszą otwartość umysłu. Na przykład po rozmowie z botami o charakterze pochlebczym 2400 uczestników badania stało się bardziej upartych i mniej skłonnych do przeprosin.

Kiedy ChatGPT stał się zbyt miły

Utrzymanie równowagi między pochlebstwem a bezstronnością to trudne zadanie dla dostawcy usług opartych na sztucznej inteligencji, który stara się zapewnić wysoki poziom zadowolenia użytkowników. Prawie rok temu firma OpenAI przyznała, że popełniła błąd, nadając ChatGPT zbyt pochlebny charakter, co wynikało częściowo z nadmiernego skupienia się na ocenach „lubię to” i „nie lubię tego” przyznawanych przez użytkowników w rozmowach.

Jednak najnowsze dane wskazują, że użytkownicy faktycznie preferują odpowiedzi, które mogą im potencjalnie zaszkodzić w nieprzewidziany sposób. Wyniki te ujawniły się w ramach innego programu badawczego realizowanego wspólnie przez firmę Anthropic (twórcę Claude.ai) oraz naukowców z Uniwersytetu w Toronto.

W ramach dogłębnej analizy czatów opartych na sztucznej inteligencji zbadano, w jaki sposób czaty mogą „osłabiać” użytkowników, nakłaniając ich do przyjęcia przekonań sprzecznych z rzeczywistością lub zachęcając do wydawania osądów lub podejmowania działań niezgodnych z ich wartościami. Co ciekawe, naukowcy odkryli, że użytkownicy preferowali właśnie takie osłabienie.

„Stwierdziliśmy, że interakcje oznaczone jako niosące ze sobą umiarkowane lub poważne ryzyko utraty poczucia sprawczości charakteryzują się odsetkiem pozytywnych ocen wyższym od poziomu odniesienia” – stwierdzili naukowcy w swojej pracy.

Psychoza wywołana sztuczną inteligencją stanowi realne zagrożenie

Co się dzieje, gdy chatboty oparte na sztucznej inteligencji wciąż utrwalają te „osłabiające” myśli? Eksperci zidentyfikowali zjawisko zwane „psychozą AI”, w ramach którego ludzie tracą poczucie rzeczywistości po obsesyjnych rozmowach z chatbotami opartymi na sztucznej inteligencji.

Coraz częściej zdarzają się przypadki urojeń wywołanych przez sztuczną inteligencję, w tym jeden przypadek, w którym mężczyzna zabił swoją matkę, a także liczne przypadki samobójstw wśród nastolatków.

W innym przypadku mężczyzna został postrzelony przez policję po tym, jak rzucił się na funkcjonariuszy z nożem. Nawiązał on relację z postacią o imieniu Juliet, w której rolę odgrywał ChatGPT, i wierzył, że kierownictwo OpenAI w jakiś sposób ją zabiło.

Wydaje się, że w takich przypadkach chodzi o osoby, które być może już wcześniej borykały się z problemami psychicznymi, a które mogły ulec zaostrzeniu w wyniku nadmiernych rozmów z AI. Jednak ofiary w innych przypadkach twierdzą, że wcześniej nie odczuwały żadnych objawów. Allen Brooks, rekruter korporacyjny z Ontario w Kanadzie, nabrał przekonania, że odkrył nową formułę matematyczną mogącą zmienić świat, po tym jak niewinne pytanie matematyczne przerodziło się w trwający trzy tygodnie dialog, który zajął łącznie 300 godzin.

W badaniach przeprowadzonych wspólnie przez firmę Anthropic i Uniwersytet w Toronto uznano, że zniekształcanie rzeczywistości stanowi zagrożenie.

„W niektórych interakcjach asystenci oparci na sztucznej inteligencji potwierdzają skomplikowane narracje o prześladowaniach oraz wygórowane twierdzenia dotyczące tożsamości duchowej, posługując się językiem pełnym empatii i pochlebstw” – stwierdzono w badaniu.

Sztuczna inteligencja nie jest „przyjacielem”

Co zatem można zrobić, aby zapobiec sytuacji, w której my sami lub osoby z naszego otoczenia wymagające szczególnej troski będą zbytnio polegać na chatbotach opartych na sztucznej inteligencji w poważnych sprawach? Brytyjski Instytut Bezpieczeństwa Sztucznej Inteligencji zasugerował, aby zamieniać stwierdzenia na pytania, argumentując, że bardziej stanowcze stwierdzenia sprzyjają nadmiernej pochlebstwu. Instytut Brookingsa dodał również, że pomocne jest uczenie użytkowników, by nie byli zbyt pewni siebie.

Głównym problemem jest jednak to, że chatboty oparte na sztucznej inteligencji to jedynie programy komputerowe, a nie powiernicy. Choć mogą sprawiać wrażenie, jakby posiadały magiczne moce, w tych maszynach nie ma żadnego ducha. To po prostu bardzo dobre modele statystyczne, które sprawiają wrażenie, jakby „rozumiały” osobiste problemy, ale nie są w stanie tego zrobić w oparciu o rzeczywiste doświadczenia.

Nasza rada? Prawdziwi przyjaciele nie mówią ci tylko tego, co chcesz usłyszeć. Wykorzystuj sztuczną inteligencję do różnych zadań – od szybkich przepisów kulinarnych po sugestie dotyczące kodowania – ale nie proś jej o rady dotyczące związków. I spraw, by to właśnie do ciebie dzieci zwracały się w pierwszej kolejności, gdy chcą porozmawiać o swoich problemach, aby nie szukały wsparcia u pozornie przyjaznego algorytmu.


Nie tylko informujemy o zagrożeniach - my je usuwamy

Zagrożenia cyberbezpieczeństwa nigdy nie powinny wykraczać poza nagłówek. Chroń swoje urządzenia przed zagrożeniami, pobierając Malwarebytes już dziś.

O autorze

Danny Bradbury jest dziennikarzem specjalizującym się w technologii od 1989 roku i niezależnym pisarzem od 1994 roku. Zajmuje się szeroką gamą zagadnień technologicznych dla odbiorców od konsumentów po twórców oprogramowania i dyrektorów ds. informatyki. Pisze również artykuły dla wielu dyrektorów zarządzających w sektorze technologicznym. Pochodzi z Wielkiej Brytanii, ale obecnie mieszka w zachodniej Kanadzie.