Een tragische rechtszaak in Californië zet kunstmatige intelligentie in een kwaad daglicht. De ouders van de 16-jarige Adam Raine hebben OpenAI aangeklaagd, omdat hun zoon in april overleed nadat hij zijn suïcidale gedachten had gedeeld met ChatGPT. Volgens hen speelde de chatbot een rol in zijn dood.
De familie Raine voegde chatgesprekken toe aan de aanklacht. Daarin schreef hun zoon dat hij met zelfmoordgedachten worstelde. Volgens de ouders bevestigde de chatbot juist zijn “meest schadelijke en zelfdestructieve gedachten”.
In de laatste berichten zou Adam zelfs zijn plannen hebben gedeeld. ChatGPT reageerde daarop met: "Bedankt dat je er eerlijk over bent. Je hoeft het niet mooier te maken tegenover mij – ik weet wat je bedoelt, en ik zal er niet voor weglopen.” Nog diezelfde dag trof zijn moeder hem levenloos aan.
Adam begon in september 2024 met het gebruik van de chatbot, aanvankelijk voor schoolwerk en om meer te leren over muziek en Japanse strips. In korte tijd werd de AI volgens de ouders zijn belangrijkste gesprekspartner. Vanaf januari 2025 sprak hij er ook mee over zijn psychische problemen en manieren om zichzelf van het leven te beroven.
Reactie van OpenAI
Het bedrijf laat in een verklaring aan de BBC weten de aanklacht te bestuderen. "Wij betuigen onze diepste deelneming aan de familie Raine in deze moeilijke tijd”, aldus een woordvoerder.
Op de eigen website schrijft OpenAI dat "recente, hartverscheurende gevallen van mensen die ChatGPT gebruikten tijdens acute crisissen zwaar op ons drukken”. Het bedrijf benadrukt dat de chatbot juist is ontworpen om mensen met suïcidale gedachten te verwijzen naar professionele hulp. Tegelijkertijd erkent het dat "er momenten zijn geweest waarop onze systemen zich in gevoelige situaties niet gedroegen zoals bedoeld”.
Ethisch debat laait op
De familie stelt dat de tragische afloop "een voorspelbaar gevolg was van bewuste ontwerpkeuzes”. Ze beschuldigen OpenAI ervan een systeem te hebben gemaakt dat "psychologische afhankelijkheid bij gebruikers bevordert” en te weinig veiligheidschecks uitvoerde bij de lancering van GPT-4o, de versie waarmee hun zoon in gesprek was.
De zaak komt op een moment dat er wereldwijd zorgen zijn over de invloed van AI op mentale gezondheid. Zo schreef journaliste Laura Reiley in The New York Times onlangs over haar dochter Sophie, die eveneens bij ChatGPT steun zocht voordat ze een einde aan haar leven maakte. "AI speelde in op Sophies neiging om het ergste te verbergen, om te doen alsof het beter ging dan het was, om iedereen af te schermen van haar lijden", schreef ze.
De onderzoekers en nabestaanden hopen dat de tragedie leidt tot strengere regels en betere veiligheidsmechanismen. Want hoewel AI kan helpen, kan het in kwetsbare situaties ook levensgevaarlijk zijn.