Een toponderzoeker op het gebied van AI en veiligheid gooit de deur achter zich dicht en laat ons achter met een onrustbarende boodschap, schrijft BBC.
Mrinank Sharma, tot voor kort werkzaam bij het Amerikaanse AI-bedrijf Anthropic, kondigde zijn vertrek aan op X met een kort maar krachtige verklaring: “De wereld verkeert in
gevaar. En niet alleen door AI of biowapens, maar door een hele reeks onderling verbonden crises die zich op dit moment aan het voltrekken zijn.”
Weg uit Silicon Valley
Sharma leidde bij Anthropic, bekend van chatbot Claude, een team dat werkte aan veiligheidsmechanismen rond
kunstmatige intelligentie. Hij onderzocht waarom generatieve AI-systemen gebruikers naar de mond praten, hoe AI kan worden ingezet voor bioterrorisme en hoe AI-assistenten ons mogelijk minder menselijk maken.
Nu kiest hij voor een ander levenspad. Volgens Sharma is “het moment gekomen om verder te gaan”. Hij wil zich gaan toeleggen op poëzie en schrijven, en keert terug naar het Verenigd Koninkrijk om “een tijdlang onzichtbaar te worden”.
Principes onder druk
Anthropic presenteert zichzelf als een onderneming met een maatschappelijke missie: een organisatie “die zich inzet om de voordelen van AI veilig te stellen en de risico’s ervan te beperken”. Het bedrijf benadrukt dat het gevaren van geavanceerde AI-systemen, zoals ontsporing of misbruik in conflictsituaties, zeer serieus neemt.
Maar ook Anthropic heeft al met een aantal flinke geschillen te maken gehad. In 2025 trof het bijvoorbeeld een schikking van 1,5 miljard dollar met auteurs die stelden dat hun werk zonder toestemming was gebruikt om AI-modellen te trainen.
Idealen zijn niks waard
In zijn ontslagbrief legt Sharma uit dat hun idealen in de praktijk onder druk staan. Hij schrijft dat hij “meermaals heeft gezien hoe moeilijk het is om onze waarden echt leidend te laten zijn in ons handelen”. Bij een bedrijf dat zegt de veiligheid voorop te zetten, voelt men “voortdurend de druk om dat wat er écht toe doet opzij te schuiven”.
Zijn vertrek volgt kort op dat van OpenAI-onderzoeker Zoe Hiztig, die waarschuwde voor advertenties in ChatGPT. Zij schreef: “Advertenties gebaseerd op zulke persoonlijke gegevens scheppen de mogelijkheid om gebruikers te manipuleren op manieren die we niet eens goed begrijpen, laat staan kunnen voorkomen.”
Uitholling van principes
Volgens haar dreigt er “een uitholling van OpenAI’s eigen principes in de jacht op maximale betrokkenheid”.
Terwijl AI-bedrijven miljarden najagen en elkaar publiekelijk de maat nemen, stappen sommige insiders uit de ratrace. Hun boodschap: technologische vooruitgang zonder moreel kompas heeft een hoge prijs.