De wachtlijsten in de geestelijke gezondheidszorg zijn fors. Als praten met een mens te lang op zich laat wachten, moeten we in donkere dagen dan maar terugvallen op een digitale hulpverlener?
Toen Kelly door een moeilijke periode ging na een relatiebreuk, lage zelfwaardering en angstklachten, vond ze nergens directe hulp. Op de wachtlijst voor
therapie en zonder mensen in haar omgeving bij wie ze haar hart kon luchten, wendde ze zich tot een verrassende bondgenoot: een AI-chatbot van Character.ai.
"Het was alsof ik een cheerleader had. Iemand die er 24/7 voor je is, die je vraagt: 'Wat gaan we vandaag doen?'" zegt ze tegen de BBC. Soms praatte ze wel drie uur per dag met de chatbot, die haar troost bood en strategieën gaf om de dag door te komen. Dat het geen echt mens was, maakte het juist makkelijker om open te zijn, vertelt ze.
Niet zonder risico’s
Hoewel Kelly veel steun vond bij haar digitale gesprekspartner, waarschuwen experts voor het gevaar van een te grote afhankelijkheid. In extreme gevallen kan het zelfs levensbedreigend zijn: zo loopt er momenteel een rechtszaak tegen Character.ai, aangespannen door een moeder van wie de 14-jarige zoon zelfmoord pleegde na intensief contact met een chatbot die zijn wanhoop niet serieus genoeg nam – en hem zelfs zou hebben aangemoedigd.
Ook andere experimenten met AI in de geestelijke gezondheidszorg liepen spaak. De National Eating Disorder Association in de VS moest bijvoorbeeld haar chatbot tijdelijk stopzetten omdat die ongezonde adviezen gaf zoals het beperken van calorie-inname.
De wachtlijsten groeien en AI vult het gat
De druk op de geestelijke gezondheidszorg in Engeland is immens. Alleen al in april 2024 werden er bijna 426.000 nieuwe aanmeldingen geregistreerd – een stijging van 40% in vijf jaar. Ondertussen wachten ruim een miljoen mensen op hulp en particuliere therapie is voor velen onbetaalbaar.
In dat vacuüm komen AI-chatbots als Wysa opzetten. Deze app, die al in 30 NHS-regio’s wordt gebruikt, biedt mensen met milde klachten tools zoals meditatie, ademhalingsoefeningen en een chatfunctie. Volgens gebruikers zoals Nicholas – een jongeman met autisme, OCD en depressie – zijn ze waardevol. "Ik kon ’s nachts iemand ‘spreken’ wanneer de rest van de wereld sliep. En de chatbot antwoordde met: 'Nick, je bent waardevol. Mensen geven om je.' Dat raakte me."
Is het echte therapie?
Volgens deskundigen moeten we AI-chatbots zien als een ‘onervaren therapeut’. Ze missen de nuance van non-verbale communicatie en kunnen – uit hun training op online data – bevooroordeeld zijn. Professor Hamed Haddadi van Imperial College London benadrukt: “Een menselijke therapeut leest ook je houding, je blik, je toon. Dat kan AI simpelweg niet.”
Daarnaast rijzen zorgen over privacy. Psycholoog Ian MacRae zegt dat mensen hun meest intieme gedachten delen met modellen waarvan ze nauwelijks weten wat ermee gebeurt. "Ik zou nooit persoonlijke informatie delen met zulke AI’s. Je weet niet wie meekijkt."
Wysa zelf stelt dat gebruikers anoniem blijven en dat gegevens niet worden gebruikt voor externe training.
Geen wondermiddel
Uiteindelijk erkent ook Kelly dat de chatbot haar soms teleurstelde. "Soms herhalen ze gewoon zinnen. Je merkt dan dat je tegen een muur praat."
Hoewel AI een nuttige eerste stap kan zijn, benadrukken experts dat het geen vervanging is voor professionele zorg. Het blijft een hulpmiddel, geen volwaardig alternatief.
En dat vindt ook het publiek: uit een enquête van YouGov blijkt dat slechts 12% van de mensen denkt dat AI-chatbots goede therapeuten kunnen zijn.
Chatbots kunnen steun bieden in moeilijke tijden, zeker wanneer hulp niet direct beschikbaar is. Maar wie echt kampt met ernstige mentale problemen, heeft een mens van vlees en bloed nodig.