Artificial Intelligence De energie die nodig is om hoogwaardige verwerkingschips en koelsystemen te laten draaien, zorgt ervoor dat AI op olie lijkt: lucratief voor de mens, maar met milieukosten.
Artificial Intelligence Zelfs nu de mensheid kunstmatige intelligentie gretig omarmt, ondanks twijfels op academisch en veiligheidsgebied, zorgen de honger van AI naar energie en de CO2-voetafdruk ervan voor steeds grotere zorgen. AI wordt vaak vergeleken met fossiele brandstoffen. Olie, eenmaal gewonnen en geraffineerd, is een lucratieve grondstof; en net als olie heeft Artificial Intelligence een grote impact op het milieu die velen heeft verrast.
Een artikel in de MIT Technology Review zegt dat de levenscyclus voor het trainen van gewone grote Artificial Intelligence -modellen een aanzienlijke impact op het milieu heeft, en rapporteert dat “het hele proces meer dan 626.000 pond kooldioxide-equivalent kan uitstoten – bijna vijf keer de levenslange uitstoot van de gemiddelde Amerikaan. auto (en daar hoort ook de vervaardiging van de auto zelf bij).”
Een onderzoeksartikel van Alex de Vries van de VU Amsterdam School of Business and Economics roept ook zorgen op over het elektriciteitsverbruik van de versnelde ontwikkeling in berekeningen, en de potentiële impact op het milieu van Artificial Intelligence en datacenters. “De afgelopen jaren was het elektriciteitsverbruik van datacenters verantwoordelijk voor een relatief stabiele 1% van het wereldwijde elektriciteitsverbruik, exclusief cryptocurrency mining”, zegt De Vries.
Hoe AI-datacenters werken
Uit een onderzoek van het MIT blijkt dat tien jaar geleden “de meeste NLP-modellen (Natural Language Processing) konden worden getraind en ontwikkeld op een gewone laptop of server.” Maar AI-datacenters hebben nu meerdere exemplaren van gespecialiseerde hardware nodig, zoals Graphics Processing Units (GPU’s) of Tensor Processing Units (TPU’s).
“Het doel van een groot taalmodel is om te raden wat er daarna komt in een stuk tekst”, zegt een artikel van de Columbia Climate School. “Om dit te bereiken moet het eerst getraind worden. Training omvat het blootstellen van het model aan enorme hoeveelheden gegevens (mogelijk honderden miljarden woorden) die afkomstig kunnen zijn van internet, boeken, artikelen, sociale media en gespecialiseerde datasets.
Dit trainingsproces duurt weken of maanden, waarin een Artificial Intelligence-model uitzoekt hoe bepaalde taken nauwkeurig kunnen worden uitgevoerd door verschillende datasets te wegen.
In eerste instantie maakt het AI-model willekeurige gissingen om de juiste oplossing te vinden. Maar met voortdurende training identificeert het steeds meer patronen en relaties in de gegeven gegevens om nauwkeurige en relevante resultaten te verkrijgen.
Vooruitgang in technieken en hardware voor het trainen van neurale netwerken in de afgelopen jaren heeft “indrukwekkende nauwkeurigheidsverbeteringen bij veel fundamentele NLP-taken mogelijk gemaakt.”
“Als gevolg hiervan vereist het trainen van een state-of-the-art model nu substantiële computerbronnen die aanzienlijke energie vergen, samen met de daarmee samenhangende financiële en milieukosten”, voegt de MIT-studie toe.
Energievraag en CO2-voetafdruk van AI-datacenters
De snelle expansie en grootschalige toepassing van AI in 2022 en 2023 na de lancering van OpenAI’s ChatGPT heeft de ontwikkeling van grote taalmodellen (LLM) door grote technologiebedrijven zoals Microsoft en Alphabet (Google) gestimuleerd.
Het succes van ChatGPT (dat in twee maanden tijd een ongekende 100 miljoen gebruikers bereikte) was voor Microsoft en Google aanleiding om hun eigen AI-chatbots te lanceren, respectievelijk Bing Chat en Bard, zo vertelt Vries in het artikel.
Vries vertelde RT: “We weten al dat datacenters 1% van het wereldwijde elektriciteitsverbruik vertegenwoordigen. Dankzij digitale trends als cryptocurrency mining en Artificial Intelligence kan dit de komende jaren makkelijk doorgroeien naar 2% en meer.”
Uit het MIT-onderzoek blijkt dat cloud computing een grotere CO2-voetafdruk heeft dan de gehele luchtvaartsector. Bovendien kan één datacenter dezelfde hoeveelheid elektriciteit nodig hebben om ongeveer 50.000 huishoudens van stroom te voorzien.
Er is elektriciteit nodig om hoogwaardige chips en koelsystemen te laten werken, omdat processors opwarmen terwijl ze enorme hoeveelheden gegevens analyseren en nauwkeurige reacties produceren.
Uit het onderzoek van De Vries blijkt dat het BigScience Large Open-Science Open-Access Multilingual (BLOOM)-model van Hugging Face tijdens de training 433 MWh elektriciteit verbruikte.
“Andere LLM’s, waaronder GPT-3, Gopher en Open Pre-trained Transformer (OPT), gebruiken naar verluidt respectievelijk 1287, 1066 en 324 MWh voor training. Elk van deze LLM’s is getraind op terabytes aan gegevens en heeft 175 miljard of meer parameters”, voegt de studie eraan toe.
De Vries citeerde onderzoeksbureau SemiAnalysis in zijn paper, waarin werd gesuggereerd dat OpenAI 3.617 van NVIDIA’s HGX A100-servers nodig had, met in totaal 28.936 GPU’s om ChatGPT te ondersteunen, wat een energiebehoefte van 564 MWh per dag impliceert.
“Google meldde dat 60% van het Artificial Intelligence-gerelateerde energieverbruik tussen 2019 en 2021 voortkwam uit gevolgtrekkingen (waarbij live gegevens door een AI-model worden geleid). Het moederbedrijf van Google, Alphabet, uitte ook zijn bezorgdheid over de kosten van inferentie vergeleken met de kosten van training”, voegde het eraan toe.
Een studie door onderzoekers van de Universiteit van Californië in Berkeley schatte dat GPT-3, waarop ChatGPT is gemodelleerd, 175 miljard parameters had die tijdens de trainingsfase 502 ton CO2 produceerden, terwijl de dagelijkse koolstofuitstoot 50 pond (ofwel 50 pond) bedroeg. 8,4 ton per jaar).
Het debat over de levensvatbaarheid van AI en toekomstige acties
De Vries zegt dat de hogere energievraag voor datacenters doorgaans zal worden gedekt door fossiele brandstoffen. “We hebben slechts een beperkt aanbod aan hernieuwbare energiebronnen en daar hebben we al prioriteit aan gegeven, dus elke extra vraag zal worden aangedreven door fossiele brandstoffen waar we vanaf moeten komen”, vertelde hij aan RT. “Zelfs als we hernieuwbare energiebronnen in AI stoppen, zal iets anders ergens anders moeten worden aangedreven door fossiele brandstoffen – wat de klimaatverandering alleen maar zal verergeren.”
Avik Sarkar, professor aan de Indian School of Business en voormalig hoofd van het data-analysecentrum van Niti Aayog in India, vindt het debat over de energiebehoefte en de CO2-voetafdruk van AI triviaal. Hij werkte in 2018 samen met het International Energy Agency (IEA) aan een analyse van de groei van datacenters in India en de impact ervan op het energieverbruik in het land.
“De voetafdruk van Artificial Intelligence op het energieverbruik is minuscuul, en veel technologieën verslinden enorme hoeveelheden energie”, vertelde hij aan RT. “Kijk naar een willekeurige winkelstraat in de grote steden, de hoeveelheid verlichting in de reclameborden is zo enorm dat de lichten zichtbaar zijn vanuit de ruimte, ook wel nachtverlichting genoemd, wat een goede indicator is van ontwikkeling en economische groei. Energieverbruik is een natuurlijk effect van verstedelijking, kapitalisme en economische groei – we moeten leren leven met die realiteit.”
In zijn commentaar op de energievraag van AI-datacentra en de impact van de CO2-uitstoot zegt De Vries dat het probleem zich niet alleen beperkt tot India, en dat klimaatverandering een mondiaal probleem is. “Als we zowel de vraag naar energie als de CO2-uitstoot vergroten als gevolg vanArtificial Intelligence, zal dit ook alle kwetsbare landen treffen”, zei hij.
Sarkar geeft wel toe dat enorme hoeveelheden energieverbruik voor Artificial Intelligence plaatsvinden doordat grote datacenters opslag- en computerinfrastructuur bieden. Er is nog een energie-impact van het water dat wordt gebruikt voor het koelen van de datacenters.
Sarkar wees erop dat de meeste mondiale datacenters buiten India zijn gevestigd, met het argument dat het land momenteel niet voor een grote uitdaging staat. Met uitzondering van persoonlijke gegevens kunnen andere Indiase datapunten worden opgeslagen in centra buiten het land.
“Kritische gegevens met betrekking tot financiële transacties, Aadhar of gezondheidszorggegevens moeten zich in India bevinden en dat zou enorm zijn. India heeft verschillende klimaatzones en kan het hoge energieverbruik verzachten door deze datacenters in koelere, niet-seismische zones in het land te plaatsen”, opperde hij.
Volgens De Vries is het goede nieuws dat er knelpunten zijn in de supply chain van Artificial Intelligence-servers, waardoor de groei op de korte termijn enigszins beperkt is. “We moeten van deze gelegenheid gebruik maken om na te denken over een verantwoorde toepassing van Artificial Intelligence en ervoor zorgen dat er ook transparantie wordt geboden waar AI wordt gebruikt, zodat we de impact van deze technologie goed kunnen beoordelen”, zei hij.