Is een chatbot net zo goed als een echte psycholoog? Misschien niet, maar het scheelt niet veel

psychologie
donderdag, 19 juni 2025 om 14:25
anp 521843724
We gebruiken chatbots om een reisplanning te maken, mailtjes te schrijven of willekeurige vragen te beantwoorden. Maar kun je er ook je hart bij luchten? In de wereld van mentale gezondheid zijn AI-chatbots bezig aan een opvallende opmars. Apps met namen als Woebot, Wysa, Tessa of Serena beloven hulp bij stress, depressie of ADHD. En ze zijn altijd beschikbaar, 24 uur per dag, zonder wachttijden of intakegesprekken. 
Maar werken ze net zo goed als een echte psycholoog? Er is zeker reden tot optimisme. Verschillende onderzoeken laten zien dat AI-chatbots daadwerkelijk psychische klachten kunnen verminderen. Gebruikers rapporteren minder angst en somberheid en een betere kwaliteit van leven. Sommige apps richten zich zelfs op complexe problemen zoals PTSS, verslaving en autisme.
Opmerkelijk is dat mensen zich vaak emotioneel verbonden voelen met hun AI-therapeut. Dat lijkt gek - je weet immers dat er geen echt mens achter zit - maar het blijkt dat veel gebruikers juist makkelijker praten met een chatbot dan met een mens. Geen oordeel, geen gêne. Eén patiënt beschreef zelfs haar chatbot als “de enige die haar écht kende.”
Maar er zitten haken en ogen aan
Toch is het geen wondermiddel. Uit meerdere studies bleek dat AI-therapie niet effectiever is dan een simpel zelfhulpboek. Sommige gebruikers vonden de bots zelfs irritant of opdringerig. En dan zijn er nog ernstigere risico’s: een studie uit 2022 toonde aan dat een digitale therapie het risico op zelfbeschadiging verhoogde. In 2023 werd AI-chatbot Tessa van de markt gehaald omdat het eetstoornispatiënten schadelijke dieetadviezen gaf.
Een recent onderzoek laat bovendien zien dat veel AI-chatbots nog vaak fouten maken. Ze gaven in 20 procent van de gevallen ongeschikte reacties op gevoelige situaties, verspreidden stigma’s over mentale aandoeningen en moedigden soms zelfs wanen aan. In een extreem voorbeeld raadde een chatbot iemand met een drugsverslaving aan om “een klein beetje meth te nemen om de week door te komen.”
AI is (nog) geen wondermiddel
De Amerikaanse psychologenbond waarschuwde onlangs dat het gebruik van AI voor mentale ondersteuning “een gevaarlijke trend” is. De conclusie van verschillende experts is dan ook helder: AI is op dit moment nog niet in staat om echte psychotherapeuten te vervangen.
Toch lijkt het onvermijdelijk dat AI een steeds grotere rol gaat spelen in de geestelijke gezondheidszorg. Sommige apps zijn nu al beter dan anderen en de technologie ontwikkelt zich razendsnel. Maar er is dringend behoefte aan goed onderzoek, zoals vergelijkende studies tussen AI-therapie en echte therapie, bij mensen met échte aandoeningen.
Menselijke fouten vs. robotfouten
Daarbij moeten we één ding niet vergeten: ook menselijke therapeuten maken fouten. Ze komen te laat, geven slecht advies of – in ernstige gevallen – gaan de fout in met grensoverschrijdend gedrag. Niet elke cliënt knapt op van therapie; sommigen gaan zelfs achteruit. Psychotherapie is mensenwerk, met alle onzekerheden die daarbij horen.
Dus: moeten we AI-therapeuten wantrouwen? Ja, voorlopig wel. Maar we moeten ze ook niet strenger beoordelen dan hun menselijke collega’s. In zekere zin is dat zelfs het meest menselijke aan ze.