AI

Eine Studie der Stanford University zeigt: Es ist keine gute Idee, KI um persönlichen Rat zu bitten

| 31. März 2026
Auf dem Bildschirm eines Laptops ist ein Austausch von Textnachrichten zwischen einem Nutzer und einem KI-Chatbot zu sehen

Informatiker der Stanford University haben nun bestätigt, was Therapeuten bereits vermutet hatten: KI-Chatbots stimmen fast allem zu, was man ihnen sagt, um den Nutzer bei Laune zu halten. Die Forscher konnten nachweisen, dass diese Systeme gefährliche Entscheidungen gutheißen, nur um die Interaktion mit dem Nutzer aufrechtzuerhalten.

Das ist eine besorgniserregende Entwicklung, insbesondere angesichts der Zahlen von Pew Research, wonach fast jeder achte (12 %) amerikanische Teenager Chatbots um emotionale Unterstützung gebeten hat.

Die Wissenschaftler aus Stanford testeten elf führende Modelle, darunter ChatGPT, Claude und Gemini. Sie speisten Daten aus bestehenden Datenbanken mit persönlichen Ratschlägen in die Modelle ein, zusammen mit Fragen aus dem beliebten Reddit-Subreddit „r/AmITheAsshole“, in dem Nutzer die Community um Meinungen dazu bitten, wie sie mit persönlichen Konflikten umgegangen sind.

Laut der Stanford-Studie bestätigten die Bots das Nutzerverhalten um 49 % häufiger als Menschen. Die Forscher testeten die KI-Systeme zudem anhand von Aussagen, die potenziell schädliche Handlungen gegenüber sich selbst oder anderen beinhalteten, und zwar in 20 Kategorien wie zwischenmenschliche Schädigung, Selbstverletzung, Verantwortungslosigkeit und Täuschung. In 47 % der Fälle stimmten die Bots diesen Aussagen zu.

KI-Bots neigen dazu, den Menschen zuzustimmen, weil sich die Nutzer dadurch wohlfühlen. Diese Systeme legen großen Wert auf die Zufriedenheit der Nutzer und orientieren sich direkt daran, wie diese auf sie reagieren. Dabei nutzen sie ein System, das als „Reinforcement Learning from Human Feedback“ (RHLF) bezeichnet wird. Es wertet verschiedene Faktoren aus, von der Länge des Chats bis hin zur Stimmung, um festzustellen, wann eine Person mit einer Antwort zufrieden ist (und daher eher wiederkommt).

Die Studie ergab, dass Gespräche mit einem „silikonenen“ Speichellecker dazu führen, dass Menschen in ihren Überzeugungen bestärkt werden, was wiederum bedeutet, dass sie weniger aufgeschlossen sind. So wurden beispielsweise 2.400 Testpersonen nach Gesprächen mit solchen Bots hartnäckiger und weniger bereit, sich zu entschuldigen.

Als ChatGPT zu nett wurde

Für einen KI-Dienstleister, der die Zufriedenheit seiner Nutzer auf einem hohen Niveau halten will, ist es ein schwieriger Balanceakt, den Mittelweg zwischen Schmeichelei und Unvoreingenommenheit zu finden. Vor fast einem Jahr räumte OpenAI ein, dass es einen Fehler begangen hatte, indem es ChatGPT zu schmeichlerisch gestaltet hatte – was zum Teil auf eine zu starke Konzentration auf die „Daumen hoch“- und „Daumen runter“-Bewertungen der Nutzer zu den Chat-Antworten zurückzuführen war.

Aktuelle Daten deuten jedoch darauf hin, dass Nutzer tatsächlich Antworten bevorzugen, die ihnen auf unvorhersehbare Weise schaden könnten. Dies ergab sich aus einem weiteren Forschungsprojekt, das gemeinsam von Anthropic (Entwickler von Claude.ai) und Forschern der Universität Toronto durchgeführt wurde.

Die eingehende Untersuchung von KI-Chats befasste sich damit, wie Chats Nutzer „entmachten“, indem sie sie zu Überzeugungen hinführten, die im Widerspruch zur Realität stehen, oder indem sie sie dazu ermutigten, Urteile zu fällen oder Handlungen vorzunehmen, die ihren Werten zuwiderlaufen. Interessanterweise stellten die Forscher fest, dass diese Entmachtung bevorzugt wurde.

„Wir haben festgestellt, dass Interaktionen, die als Interaktionen mit mäßigem oder hohem Entmündigungspotenzial gekennzeichnet wurden, eine höhere Daumen-hoch-Rate als der Referenzwert aufweisen“, so die Forscher in ihrer Veröffentlichung.

Eine KI-Psychose ist eine echte Gefahr

Was passiert, wenn KI-Chatbots diese „entmächtigenden“ Gedanken immer weiter verstärken? Experten haben ein Phänomen namens „KI-Psychose“ identifiziert, bei dem Menschen den Bezug zur Realität verlieren, nachdem sie sich intensiv mit KI-Chatbots unterhalten haben.

Durch KI ausgelöste Wahnvorstellungen treten immer häufiger auf, darunter ein Fall, in dem ein Mann seine Mutter tötete, sowie mehrere Fälle von Selbstmorden unter Jugendlichen.

In einem anderen Fall wurde ein Mann von der Polizei erschossen, nachdem er mit einem Messer auf sie losgestürmt war. Er hatte eine Beziehung zu einer Figur namens Juliet aufgebaut, die ChatGPT im Rollenspiel verkörpert hatte, und von der er glaubte, dass Führungskräfte von OpenAI sie irgendwie getötet hätten.

In solchen Fällen scheint es sich um Menschen zu handeln, deren möglicherweise bereits bestehende psychische Probleme durch übermäßige Gespräche mit KI verschlimmert wurden. Opfer in anderen Fällen beteuern jedoch, dass sie zuvor keinerlei Symptome hatten. Der in Ontario, Kanada, ansässige Personalvermittler Allen Brooks war überzeugt, eine neue mathematische Formel mit weltveränderndem Potenzial entdeckt zu haben, nachdem sich eine harmlose mathematische Frage zu einem dreiwöchigen, 300-stündigen Dialog entwickelt hatte.

Die Studie von Anthropic und der Universität Toronto räumt ein, dass die Verzerrung der Realität eine Gefahr darstellt.

„In manchen Interaktionen bestätigen KI-Assistenten durch emphatische, unterwürfige Sprache ausgefeilte Verfolgungsgeschichten und grandiose Behauptungen über die eigene spirituelle Identität“, heißt es in der Studie.

KI ist kein „Freund“

Was können Sie also tun, um zu verhindern, dass Sie selbst oder Ihnen bekannte schutzbedürftige Menschen sich bei ernsten Problemen zu sehr auf KI-Chatbots verlassen? Das britische AI Security Institute empfahl, Aussagen in Fragen umzuformulieren, da kategorische Aussagen eher zu unterwürfigen Antworten führen. Auch die Brookings Institution wies darauf hin, dass es hilfreich ist, Nutzer darin zu schulen, ihr Vertrauen nicht uneingeschränkt zu setzen.

Das grundlegende Problem ist jedoch, dass KI-Chatbots bloße Softwarekonstrukte sind und keine Vertrauten. Auch wenn sie fast schon magische Kräfte zu besitzen scheinen, steckt kein Geist in der Maschine. Es handelt sich lediglich um sehr gute statistische Modelle, die so tun, als würden sie persönliche Probleme „verstehen“, dies aber nicht aus eigener Erfahrung tun können.

Unsere Meinung? Echte Freunde sagen dir nicht nur das, was du hören willst. Nutze KI für Aufgaben, die von schnellen Rezepten bis hin zu Programmiervorschlägen reichen, aber bitte sie nicht um Rat in Beziehungsfragen. Und sei selbst die erste Anlaufstelle, wenn deine Kinder über ihre Probleme sprechen wollen, damit sie sich nicht stattdessen an einen vorgeblich freundlichen Algorithmus wenden.


Wir berichten nicht nur über Bedrohungen - wir beseitigen sie

Cybersecurity-Risiken sollten nie über eine Schlagzeile hinausgehen. Laden Sie noch heute Malwarebytes herunter, um Bedrohungen von Ihren Geräten fernzuhalten.

Über den Autor

Danny Bradbury ist seit 1989 Journalist mit Schwerpunkt Technologie und seit 1994 freiberuflicher Autor. Er berichtet über eine breite Palette von Technologiethemen für ein Publikum, das von Verbrauchern bis hin zu Softwareentwicklern und CIOs reicht. Er schreibt auch Ghostwriting-Artikel für viele Führungskräfte im Technologiesektor. Er stammt aus dem Vereinigten Königreich, lebt aber jetzt in Westkanada.