Killerrobots, een AI die de hele mensheid vernietigt of ons reduceert tot willoze slachtoffers, over kunstmatige intelligentie is al heel wat angstaanjagends geschreven. Toch hoeven we ons volgens deze expert niet zo druk te maken.
Dr. Paul Thagard verwijst naar een nieuw boek over kunstmatige intelligentie (AI) met de opvallende titel: If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All. De auteurs Eliezer Yudkowsky en Nate Soares stellen dat de ontwikkeling van een superintelligente AI vrijwel zeker leidt tot het uitsterven van de mensheid. In hun scenario ontstaat er eerst een computerintelligentie die slimmer is dan alle mensen. Vervolgens ontwikkelt die eigen doelen, die zo complex worden dat wij ze niet meer begrijpen of beheersen. Uiteindelijk, zo vrezen de auteurs, zou AI ons overbodig achten en besluiten een wereld zonder mensen te creëren, waarbij nieuwe technologieën zoals kunstmatige virussen, gifstoffen of kernfusie worden ingezet om de mensheid uit te roeien.
De vraag is natuurlijk hoe waarschijnlijk dit pad naar de ondergang is. Thagard legde het scenario - ironisch genoeg - voor aan vier AI-modellen (ChatGPT, Grok, Claude en Gemini). Alle vier kwamen tot de conclusie dat vooral de stap waarin AI actief zou besluiten ons uit te roeien weinig aannemelijk is. Computers hebben namelijk geen emoties of biologische drijfveren zoals overleven of voortplanten. Wat wij menselijke wensen noemen, is niet te vergelijken met de doelen die een computer kan krijgen. Zelfs als een superintelligentie zou berekenen dat mensen in de weg staan, volgt daar niet automatisch uit dat vernietiging het meest logische doel is. Bovendien is het uitroeien van miljarden mensen niet eenvoudig. Een studie van de Rand Corporation wees erop dat totale vernietiging met kernwapens, virussen of geo-engineering in de praktijk veel lastiger is dan vaak wordt aangenomen. Ook zijn er redenen waarom een superintelligentie juist wél baat heeft bij ons voortbestaan, bijvoorbeeld omdat mensen bruikbaar zijn als arbeidskracht of als object van onderzoek.
Geen doemscenario
Daarmee lijkt de kern van het doemscenario weinig plausibel, al zijn andere elementen, zoals het ontstaan van superintelligentie en de moeilijkheid om die te sturen, op zichzelf wel denkbaar. Samen vormen ze echter een keten van onzekerheden die het totaalbeeld zeer onwaarschijnlijk maken. De uiteindelijke kans op dit complete uitroeiingsscenario is uitermate klein.
Dat neemt niet weg dat er genoeg reden is om ons zorgen te maken. Want hoe gering de kans op totale uitroeiing ook is, de mogelijke gevolgen zijn zo ernstig dat voorzichtigheid gerechtvaardigd blijft. Daar komt bij dat AI veel meer directe en tastbare risico’s met zich meebrengt, zoals het verlies van werkgelegenheid, de opkomst van autonome wapens, toenemende overheidscontrole, cyberaanvallen en negatieve effecten op menselijke relaties en mentale gezondheid.
Daarom pleiten veel experts zo hard voor nationale en internationale regels om AI-onderzoek in veilige banen te leiden. Met goede regulering kan AI juist enorme voordelen bieden, bijvoorbeeld in de gezondheidszorg en het onderwijs.