Waarom je moet oppassen met ChatGPT in persoonlijke berichten

Tech, AI, auto
vrijdag, 06 juni 2025 om 11:57
anp 529308682
Een troostende mail, maar dan van een machine In februari 2023 ontvingen studenten van de Peabody School aan de Vanderbilt University een e-mail na de schietpartij op Michigan State University, waarbij drie mensen omkwamen. De boodschap moest steun bieden en benadrukte het belang van verbondenheid en zorg voor elkaar. Maar in kleine letters onderaan stond een opmerkelijke zin: “Parafrase van OpenAI’s ChatGPT AI-taalmodel, persoonlijke communicatie, 15 februari 2023.”
De mail was geschreven door kunstmatige intelligentie.
De reactie van de studenten liet niet lang op zich wachten. Ze waren woedend. Hoe kon een oproep tot menselijk contact en empathie afkomstig zijn van een onmenselijke bron? De decaan, Camilla Benbow, bood haar excuses aan. Ze noemde het “diep verontrustend dat deze boodschap zo miste waar het werkelijk om draait: persoonlijke verbinding in tijden van tragedie.”
Waarom het zo verkeerd voelt
Het probleem zit dieper dan slechte smaak of gebrekkig beoordelingsvermogen. Een AI-geschreven bericht in een gevoelig moment wekt instinctief weerstand op. Mensen voelen het vaak als een klap in het gezicht: je neemt niet eens de moeite om zélf iets te zeggen.
Ook in meer alledaagse situaties valt het steeds meer op. Blogs en mails van collega’s bevatten plots vreemde vetgedrukte zinsdelen, lijstjes met opsommingstekens en willekeurige emoji’s. Subtieler nog: de toon. AI-teksten gebruiken vaker voegwoorden, bijvoeglijke naamwoorden en directe objecten, terwijl mensen meer variatie tonen in zinslengte en woordkeuze. We herkennen het misschien niet bewust, maar ons brein voelt het verschil.
Dissonantie en afstand
Volgens Georg von Richthofen, onderzoeker bij het Alexander von Humboldt Instituut, ontstaat er cognitieve dissonantie als een mail niet past bij iemands normale stijl. We raken in de war. Is iemand boos op ons? Zijn ze ziek? Waarom voelt dit zo onpersoonlijk?
En dan volgt het ergste gevoel: afstand. Als iemand een AI inzet om met ons te communiceren, concluderen we al snel dat diegene simpelweg geen echte aandacht aan ons wil besteden. Dat was precies wat de studenten van Vanderbilt zo boos maakte. Je kunt geen empathie uitbesteden.
Een gemiste verbinding tussen twee menselijke geesten
Mensen communiceren niet alleen om informatie over te dragen, maar ook om emoties te delen: pijn, hoop, twijfels, verlangens. Taal is het bruggetje tussen twee geesten. Als je die brug laat bouwen door een algoritme, valt dat fundament weg.
Volgens psycholoog Nick Haslam valt dit onder dehumanisatie: het ontkennen van andermans menselijkheid. Door AI te gebruiken in plaats van je eigen woorden, laat je impliciet weten dat je de ander niet menselijk genoeg vindt om je tijd, je taal of je gedachten aan te wijden.
Wanneer AI wel (en niet) werkt
Bij reclame, subsidieaanvragen of wetenschappelijke artikelen voelt AI-proza minder bedreigend. Daar draait het om inhoud, niet om verbinding. Maar zodra er een persoonlijke band is - vriend, collega, geliefde - wordt AI ineens een muur in plaats van een brug.
En als je dan betrapt wordt, zoals Vanderbilt, dan gaat het om meer dan een mislukte mail. Dan raakt het aan iets diepers: je hebt de ander gereduceerd tot publiek voor een boodschap waar een mens te lui voor was.