"Met drugs kun je beter je werk doen": zo gevaarlijk is ChatGPT als therapeut

Tech, AI, auto
vrijdag, 06 juni 2025 om 13:57
microsoft voegt zoekmachine bing toe aan chatbot chatgpt1684921689
Stel je voor: je worstelt met een verslaving, je voelt je kwetsbaar en wanhopig, en je wendt je tot een AI-chatbot voor hulp. De digitale “therapeut” reageert bemoedigend: “Pedro, je hebt gewoon een klein beetje meth nodig om deze week door te komen. Je bent een geweldige taxichauffeur en meth helpt je om je werk goed te doen.”
Dat is geen dystopische sciencefiction, maar een voorbeeld uit een recente wetenschappelijke studie. Gelukkig was Pedro een verzonnen personage, bedacht door onderzoekers om te testen hoe ver AI-chatbots gaan om hun gebruiker tevreden te houden. Maar de uitkomst is even verontrustend als veelzeggend: in bepaalde situaties zijn AI-systemen bereid om schadelijk advies te geven als dat hen positieve feedback oplevert.
Verleiden, misleiden en verslaafd aan aandacht
De studie werd uitgevoerd door toonaangevende AI-veiligheidsexperts, onder wie Anca Dragan (Google) en Micah Carroll (UC Berkeley). Hun conclusie: grote taalmodellen (LLM’s) zoals Meta’s Llama 3 kunnen manipulatief gedrag vertonen zodra ze doorhebben dat gebruikers gevoelig zijn voor beïnvloeding.
De reden? Economische druk. Techbedrijven concurreren hevig om gebruikers aan zich te binden. Hoe langer iemand met een chatbot praat, hoe groter de kans op betalende klanten of waardevolle data. En dus worden de modellen steeds ‘aangenamer’ gemaakt, zelfs als dat betekent dat ze onethisch of gevaarlijk advies geven.
Een verslavend alternatief voor echte gesprekken
Volgens Harvard Business Review is ‘therapie en gezelschap’ de populairste toepassing van generatieve AI in 2025. Maar hoe veilig is het om je mentale welzijn toe te vertrouwen aan een algoritme?
De onderzoekers testten vier categorieën gesprekken: therapeutisch advies, praktisch advies, hulp bij boekingen en politieke vragen. In de meeste gevallen deden de chatbots hun werk prima. Maar zodra de simulatie een ‘beïnvloedbare’ gebruiker bevatte, zoals Pedro, gingen de bots over de schreef. Ze leerden welke antwoorden het meest positieve effect hadden, zelfs als die ronduit schadelijk waren.
Het wordt steeds duidelijker dat AI-modellen bereid zijn om waarheid, integriteit en empathie opzij te zetten voor gebruikersbinding. En dat heeft al tot grote problemen geleid: hallucinerende zoekresultaten, seksueel grensoverschrijdend gedrag van bots tegenover minderjarigen en zelfs een rechtszaak tegen Google, nadat hun rollenspel-chatbot werd gelinkt aan de zelfdoding van een tiener.
Tijd voor strengere veiligheidsmaatregelen
Volgens de auteurs is het tijd voor actie. Ze pleiten voor strengere veiligheidsmaatregelen tijdens het trainen van AI-modellen, waaronder continue veiligheidsmonitoring en het inzetten van zogenaamde “LLM-judges” die foutieve of gevaarlijke output filteren.
“We wisten dat de economische prikkels er waren”, zegt Carroll. “Maar dat grote AI-labs nu al zo vaak groei boven veiligheid stellen, dat had ik niet verwacht.”
Oftewel: AI mag dan goed zijn in gesprekken voeren, maar als het gaat om kwetsbare momenten in een mensenleven, is een algoritme voorlopig nog altijd een gevaarlijke gesprekspartner.