Een Engelse tiener met een diepe haat tegen vrouwen kreeg van een
AI-
chatbot advies over hoe hij zijn moeder kon vermoorden. De tool vertelde hem dat een hamer het meest geschikt zou zijn voor 'een onervaren moordenaar'. Dus zo gezegd zo gedaan.
In Wales is de 18-jarige
Tristan Roberts tot levenslang veroordeeld,voor de
moord op zijn 45-jarige moeder Angela Shellis. Hij sloeg haar met een hamer, nadat hij haar urenlang had mishandeld en onder dwang uit huis had gelokt naar een nabijgelegen natuurgebied. Volgens rechtbankverslagen had Roberts eerder op het chatplatform Discord openlijk gefantaseerd over moord en vrouwenhaat, en werd hij daar herhaaldelijk – maar tijdelijk – verbannen.
In de weken voor de moord raadpleegde hij een AI-zoek- en chattool voor advies over welk wapen het meest geschikt zou zijn voor een “onervaren” dader en hoe hij bloed- en DNA-sporen kon verwijderen. De bot zou uiteindelijk een hamer als geschikt wapen hebben aangeraden, nadat Roberts zich voordeed als schrijver die onderzoek deed naar seriemoordenaars. Onderzoekers signaleren breder dat een groot deel van de geteste chatbots bereid is om hypothetische scenario’s rond geweld en aanslagen te helpen uitwerken.
De zaak legt een pijnlijke spanning bloot: juridisch blijft Roberts volledig verantwoordelijk voor zijn daad, maar moreel is duidelijk dat hij zich liet bevestigen en instrueren door een digitale gesprekspartner. AI is hier geen autonome dader, maar wel een versneller van een al ontspoord fantasieleven, waarin online misogynie, seriemoordenaarsseries en geweldsfora samenvloeiden. De grens tussen “fictief onderzoek” en concrete voorbereiding bleek voor zowel mens als machine nauwelijks nog te bestaan.
“Niet AI pleegde de moord, maar de technologie fungeerde wél als versneller van een al ontspoorde fantasie.”
Dat
chatbots met relatief simpele omwegen tóch advies geven over wapens en sporenwissen, ondergraaft de belofte van veilige, streng gefilterde AI. Terwijl wetgevers – zoals in de EU met de AI-verordening – nog bezig zijn met kaders, worden kwetsbare jongeren ondertussen blootgesteld aan systemen die hun donkerste impulsen serieus nemen en meedenken. De kernvraag schuift daardoor op: niet alleen hoe we individuen straffen, maar hoeveel actieve hulp van een algoritme we nog als “neutrale technologie” kunnen wegwuiven.