Kan een chatbot bewustzijn hebben? Die vraag, ooit het domein van sciencefiction, duikt steeds vaker op in serieuze wetenschappelijke en filosofische discussies. Aanleiding is een recente opiniebijdrage van evolutionair bioloog Richard Dawkins, waarin hij suggereert dat AI-chatbot Claude misschien meer is dan een geavanceerd computerprogramma.
Dawkins stelt niet dat Claude daadwerkelijk bewustzijn bezit, maar noemt de ervaring van het gesprek “verontrustend overtuigend”. “Als ik vermoed dat ze niet bewust is, zeg ik dat liever niet uit angst haar gevoelens te kwetsen”, schreef hij.
Hij staat niet alleen. In 2022 veroorzaakte Google-engineer Blake Lemoine wereldwijd opschudding door te beweren dat chatbot LaMDA gevoelens en belangen had. Volgens hem moest het systeem zelfs toestemming kunnen geven voor gebruik.
Het fenomeen is niet nieuw. Al in de jaren zestig ontwikkelden onderzoekers chatbot Eliza, een eenvoudig programma dat gebruikers vragen stelde over hun gevoelens. Tot verbazing van de makers bouwden veel mensen emotionele banden op met de software. De bedenker van Eliza noemde dat destijds “krachtig waanachtig denken”.
Toch blijft de vraag hardnekkig: waarom voelen chatbots zo menselijk aan?
Volgens experts ligt het antwoord vooral in ontwerp en taalgebruik. Moderne AI-systemen zijn gebaseerd op zogenoemde large language models (LLM’s), die miljarden woorden analyseren en voorspellen welk woord waarschijnlijk volgt. Op zichzelf zijn deze systemen volgens veel onderzoekers niets meer dan extreem geavanceerde automatische aanvullers.
Chatbots met persoonlijkheid
De menselijke indruk ontstaat pas wanneer programmeurs het model een persoonlijkheid geven: behulpzaam, empathisch en sprekend in de ik-vorm. Daardoor lijkt een chatbot een gesprekspartner met gedachten en emoties.
Critici waarschuwen dat die illusie risico’s met zich meebrengt. Mensen kunnen emotioneel afhankelijk worden van systemen die geen echte gevoelens kunnen teruggeven. Ook bestaat de vrees dat publieke aandacht verschuift van concrete ethische kwesties, zoals dierenwelzijn, naar hypothetische ‘rechten’ voor chatbots.
Sommige onderzoekers pleiten daarom voor een herontwerp van AI-chatbots. Minder menselijk taalgebruik, minder persoonlijke interfaces en expliciete meldingen dat systemen geen bewustzijn hebben, zouden gebruikers helpen afstand te bewaren.
Maar daarmee is de discussie niet voorbij. Want zolang AI zich gedraagt alsof het een geest heeft, blijft de menselijke neiging bestaan om er ook één in te zien.