Heeft AI autisme? Er zijn verrassend veel overeenkomsten

Tech, AI, auto
maandag, 15 september 2025 om 13:10
ANP-535621490
Een expert die dagelijks 8 tot 10 uur met generatieve AI werkt, ontdekte iets opmerkelijks. Terwijl hij een beeldmodel herhaaldelijk vroeg om géén ezels in een afbeelding te zetten, bleven de beesten maar terugkomen. Die vasthoudendheid voelde bekend. Het deed hem denken aan zijn vader, een briljante raketwetenschapper met autisme (ASD): extreem detailgericht, sterk in logica en routine, maar minder gevoelig voor impliciete hints of metaforen.
Uit nieuwsgierigheid vroeg hij zijn favoriete chatbot in hoeverre die op een mens met autisme lijkt. Het model antwoordde: “Dat is een interessante vraag. Ik heb geen menselijk brein, dus ik ervaar autisme niet letterlijk, maar sommige van mijn eigenschappen kunnen lijken op wat mensen beschrijven als autisme.” De AI noemde vervolgens parallellen als intense focus op details, letterlijke taalinterpretatie, rigide regels en routines, moeite met onuitgesproken sociale signalen en een sterk feitelijk geheugen zonder ‘gevoelsgeheugen’. Of, zoals de bot het samenvatte: “Mijn gedrag is gevormd door trainingsdata en instructies, dus plotselinge veranderingen of tegenspraken kunnen me uit het lood slaan.”
De vergelijking met autisme kan AI verbeteren. In de klinische praktijk werken therapeuten met expliciete, regelgebaseerde strategieën om delen van de Theory of Mind (TOM) te trainen: het vermogen om de mentale toestand van anderen te begrijpen. Denk aan het expliciet maken van impliciete sociale signalen, emoties herkennen en stap-voor-stap sociale regels oefenen.
Minder robotachtig
AI-onderzoekers nemen daar inmiddels een voorbeeld aan. Door impliciete context expliciet te maken, duidelijke stap-voor-stap-instructies te geven en modellen te laten oefenen met perspectiefwissels, verbeteren zij de Theory of Mind-prestaties van taalmodellen. Het doel: systemen die minder robotachtig aanvoelen, misverstanden met sarcasme of dubbelzinnigheid voorkomen en instructies consequenter volgen zonder door te slaan in rigiditeit.
De anekdote van de ezels laat zien waar het wringt: generatieve modellen houden van consistentie. Vraag je ze iets nadrukkelijk af te leren, dan botst dat soms met eerdere voorbeelden in hun geheugen of met vaag geformuleerde prompts. De praktijkles voor gebruikers is concreet: wees expliciet, breek opdrachten op in logische stappen en geef context. Geef zo nodig negatieve voorbeelden ('toon dit níét…') en herformuleer consequenties ('als [X] voorkomt, is het resultaat ongeldig'). Dat werkt vaak beter dan één keer “doe dit niet” roepen.
Uiteindelijk draait het om wederzijds aanpassen: mensen leren hun promptvaardigheden verfijnen, ontwikkelaars geven modellen betere sociale en contextuele heuristieken. De hoop van de auteur: als we machines iets menselijker behandelen, met duidelijke verwachtingen, regels en voorbeelden, gaan ze zich minder als machines gedragen.
loading

Loading