Kunstmatige intelligentie is overal. Het beantwoordt vragen, schrijft e-mails en bedrijven gebruiken slimme algoritmes voor van alles en nog wat. Maar al die rekenkracht heeft een prijs: energie. Datacenters draaien overuren en de vraag naar stroom stijgt. Toch blijkt uit nieuw onderzoek dat de klimaatimpact van AI vooralsnog verrassend beperkt is. Onderzoekers van het Georgia Institute of Technology en de University of Waterloo hebben berekend hoeveel extra energie de Amerikaanse economie gebruikt door de opkomst van AI. Hun conclusie: het valt eigenlijk best mee. De extra energievraag door AI komt neer op ongeveer 0,03 procent van het totale Amerikaanse energiegebruik. De bijbehorende CO2-uitstoot? Ongeveer 0,02 procent van wat het land jaarlijks uitstoot.
Meer dan alleen servers
De wetenschappers hebben niet alleen naar het energieverbruik van AI-servers zelf gekeken. Ze namen ook mee wat er gebeurt als AI de economie productiever maakt. Als bedrijven dankzij AI efficiënter werken, groeit de economie. En een grotere economie gebruikt meer energie.
De onderzoekers combineerden data over welke beroepen het meest beïnvloed worden door AI met informatie over energiegebruik per bedrijfstak. Zo konden ze per industrie inschatten hoeveel extra energie gebruikt wordt door AI-adoptie.
Grote verschillen tussen sectoren
Wat opvalt, is dat de impact enorm verschilt per sector. De onderwijssector bijvoorbeeld zou jaarlijks 12 petajoule extra energie kunnen gebruiken door AI; dat is de energie die duizenden huishoudens per jaar verbruiken. Maar de uitgeverijsector? Die gebruikt amper extra energie, omdat die sector simpelweg veel minder energie-intensief is.
Dit verschil komt doordat niet alleen telt hoeveel AI een sector gebruikt, maar ook hoeveel energie die sector normaal gesproken al verbruikt. Een industrie die veel energie nodig heeft voor productie, zoals de maakindustrie, heeft een grotere klimaatimpact bij economische groei dan bijvoorbeeld een kantoorgebaseerde dienstverlener.
Vergelijking met directe AI-kosten
Interessant is ook de vergelijking met eerdere schattingen. Andere studies keken vooral naar hoeveel stroom de AI-servers zelf gebruiken. Zo verbruikt ChatGPT naar schatting ongeveer 0,2 terawattuur per jaar aan elektriciteit. De nieuwe berekening van 28 petajoule (omgerekend 7,8 terawattuur) is dus ongeveer 38 keer groter, maar dat komt omdat deze studie de bredere economische effecten meeneemt.
De onderzoekers schatten ook dat de VS jaarlijks ongeveer 0,9 gigawatt aan extra stroomcapaciteit nodig heeft om aan de groeiende vraag door AI te voldoen. Dat is ongeveer 0,08 procent van de totale Amerikaanse elektriciteitsproductie. Niet niks, maar ook geen ramp.
Waarom dit belangrijk is
De wetenschappers waarschuwen wel voor de toekomst. AI staat nog in de kinderschoenen. Als de technologie verder doorbreekt en nog veel meer taken overneemt, kunnen deze percentages snel oplopen. Bovendien gaat de berekening ervan uit dat de energiemix niet verandert, dus dat we nog steeds veel fossiele brandstoffen gebruiken.
Er zit ook een belangrijke les in dit onderzoek: het is niet genoeg om alleen naar de directe energiekosten van technologie te kijken. De indirecte effecten, via economische groei en veranderingen in productie, kunnen minstens zo belangrijk zijn. En die effecten verschillen enorm per sector.