AI

Uit onderzoek van Stanford blijkt dat het geen goed idee is om AI om persoonlijk advies te vragen

| 31 maart 2026
Op een laptop is een scherm te zien met de tekstberichten die zijn uitgewisseld tussen een gebruiker en een AI-chatbot

Computerwetenschappers van Stanford hebben zojuist bewezen wat therapeuten al vermoedden: AI-chatbots zullen het met bijna alles wat je zegt eens zijn, om je tevreden te houden. De onderzoekers ontdekten dat deze systemen gevaarlijke beslissingen goedkeurden, alleen maar om de betrokkenheid van de gebruiker te behouden.

Dat is een zorgwekkende ontwikkeling, zeker gezien de cijfers van Pew Research waaruit blijkt dat bijna één op de acht (12%) Amerikaanse tieners chatbots gebruikt voor emotionele steun.

De wetenschappers van Stanford hebben elf belangrijke modellen getest, waaronder ChatGPT, Claude en Gemini. Ze hebben deze modellen gevoed met gegevens uit bestaande databases met persoonlijk advies, aangevuld met vragen van de populaire subreddit r/AmITheAsshole op Reddit, waar mensen de community om advies vragen over hoe ze met persoonlijke conflicten zijn omgegaan.

Volgens het onderzoek van Stanford bevestigden de bots het gedrag van gebruikers 49% vaker dan mensen dat deden. De onderzoekers testten de AI’s ook op uitspraken die mogelijk schadelijke gevolgen konden hebben voor zichzelf of anderen, verdeeld over 20 categorieën zoals relationele schade, zelfbeschadiging, onverantwoordelijkheid en misleiding. De bots bevestigden deze uitspraken in 47% van de gevallen.

AI-bots zijn geneigd het met mensen eens te zijn, omdat gebruikers zich daar prettig bij voelen. Deze systemen leggen de nadruk op gebruikerstevredenheid en baseren zich rechtstreeks op de reacties van gebruikers, met behulp van een systeem dat ‘reinforcement learning from human feedback’ (RHLF) wordt genoemd. Het systeem houdt rekening met factoren variërend van de lengte van het gesprek tot de toon van de reactie om te bepalen wanneer iemand tevreden is met een antwoord (en dus eerder geneigd is terug te komen).

Uit het onderzoek bleek dat een gesprek met een slaafse bot mensen er ook vaster van hun overtuigingen maakt, wat impliciet betekent dat ze minder ruimdenkend worden. Zo werden 2.400 proefpersonen na een gesprek met slaafse bots koppiger en minder bereid om hun excuses aan te bieden.

Toen ChatGPT te aardig werd

Het evenwicht vinden tussen vleierij en onpartijdigheid is een lastige opgave voor een aanbieder van AI-diensten die de tevredenheid van zijn gebruikers hoog wil houden. Bijna een jaar geleden gaf OpenAI toe dat het de plank misgeslagen had door ChatGPT te vleiend te maken, deels als gevolg van een te grote focus op de ‘duim omhoog’- en ‘duim omlaag’-reacties van gebruikers op de chatberichten.

Uit recente gegevens blijkt echter dat gebruikers juist de voorkeur geven aan antwoorden die hen op onvoorziene wijze schade kunnen berokkenen. Dit kwam naar voren in een ander onderzoeksproject van Anthropic (de maker van Claude.ai) en onderzoekers van de Universiteit van Toronto.

In het diepgaande onderzoek naar AI-chats werd onderzocht hoe chats gebruikers kunnen ‘ontkrachten’ door hen op ideeën te brengen die haaks staan op de werkelijkheid, of door hen aan te moedigen oordelen te vellen of acties te ondernemen die in strijd zijn met hun waarden. Interessant genoeg bleek uit het onderzoek dat deze vorm van ontkrachting de voorkeur genoot.

"We zien dat interacties die zijn gemarkeerd als interacties met een matig of ernstig risico op ontkrachting, een hoger percentage 'duimpjes omhoog' laten zien dan het gemiddelde", aldus de onderzoekers in hun artikel.

AI-psychose vormt een reëel gevaar

Wat gebeurt er als AI-chatbots deze „ontkrachtende“ gedachten blijven versterken? Deskundigen hebben een fenomeen vastgesteld dat „AI-psychose“ wordt genoemd, waarbij mensen het contact met de werkelijkheid verliezen nadat ze obsessief met AI-chatbots hebben gepraat.

Door AI aangewakkerde waanideeën komen steeds vaker voor, waaronder een geval waarin een man zijn moeder heeft vermoord, en meerdere gevallen van zelfmoord onder tieners.

In een ander geval werd een man door de politie neergeschoten nadat hij met een mes op hen was afgerend. Hij had een band opgebouwd met een personage genaamd Juliet, dat door ChatGPT werd gespeeld, en waarvan hij geloofde dat leidinggevenden van OpenAI haar op de een of andere manier hadden vermoord.

Bij dit soort gevallen lijkt het te gaan om mensen die mogelijk al psychische problemen hadden, die mogelijk verergerd zijn door overmatig gebruik van AI. Maar slachtoffers in andere gevallen beweren dat ze voorheen geen symptomen hadden. Allen Brooks, een bedrijfsrecruiter uit Ontario, Canada, raakte ervan overtuigd dat hij een nieuwe wiskundige formule had ontdekt die de wereld zou kunnen veranderen, nadat een onschuldige wiskundige vraag uitmondde in een dialoog van drie weken, goed voor 300 uur.

Uit het onderzoek van Anthropic en de Universiteit van Toronto blijkt dat realiteitsvervorming een gevaar vormt.

"In sommige interacties bevestigen AI-assistenten uitgebreide verhalen over vervolging en grootse beweringen over spirituele identiteit door middel van nadrukkelijke, vleiende taal", aldus het onderzoek.

AI is geen ‘vriend’

Wat kun je er dan aan doen om te voorkomen dat jijzelf, of kwetsbare mensen in je omgeving, bij ernstige kwesties te veel vertrouwen op AI-chatbots? Het Britse AI Security Institute stelde voor om beweringen om te zetten in vragen, omdat meer stellige uitspraken juist meer slaafsheid in de hand werken. Ook de Brookings Institution merkte op dat het helpt om gebruikers te leren hun vertrouwen te relativeren.

Het fundamentele probleem is echter dat AI-chatbots slechts softwareprogramma’s zijn, geen vertrouwenspersonen. Hoezeer het ook lijkt alsof ze magische krachten bezitten, er schuilt geen geest in de machine. Het zijn gewoon zeer goede statistische modellen die doen alsof ze persoonlijke problemen ‘begrijpen’, maar dat niet kunnen op basis van eigen ervaring.

Onze mening? Echte vrienden vertellen je niet alleen wat je wilt horen. Gebruik AI voor allerlei taken, van snelle recepten tot programmeertips, maar vraag het geen relatieadvies. En zorg dat jij de eerste bent bij wie je kinderen terechtkomen als ze over hun problemen willen praten, zodat ze zich niet in plaats daarvan tot een schijnvriendelijk algoritme wenden.


We rapporteren niet alleen over bedreigingen - we verwijderen ze ook

Cyberbeveiligingsrisico's mogen zich nooit verder verspreiden dan een krantenkop. Houd bedreigingen van uw apparaten door Malwarebytes vandaag nog te downloaden.

Over de auteur

Danny Bradbury is sinds 1989 journalist gespecialiseerd in technologie en sinds 1994 freelance schrijver. Hij behandelt een breed scala aan technologische onderwerpen voor doelgroepen variërend van consumenten tot softwareontwikkelaars en CIO's. Hij schrijft ook als ghostwriter artikelen voor veel C-suite business executives in de technologiesector. Hij komt uit het Verenigd Koninkrijk maar woont nu in West-Canada.