Virginie Marelli

Hoe vermijden we dat AI uitdraait in een ecologische ramp?

Virginie Marelli Head of Research bij Dataroots.

De stijgende energie- en brandstofprijzen raken velen van ons pijnlijk in de portefeuille. Daarom gaat onze maatschappij steeds bewuster om met haar elektriciteit-, gas- en autogebruik. Zoals vaak noopt concreet voelbare impact tot actie waar we eigenlijk al veel langer op wachten, zeker als we de planeet leefbaar willen houden voor de generaties na ons. Nu is dan ook hét moment om stil te staan bij de ecologische ramp die AI teweegbrengt, en vooral hoe we die kunnen indammen.

Artificiële intelligentie helpt ons dagelijks op meer manieren dan we vaak beseffen. Maar de technologie verbruikt ook veel meer energie dan we beseffen. Kijk bijvoorbeeld naar het BERT-model, een machine learning-model voor natural language processing. Dat verbruikt maar liefst 1.500 kWh stroom in drie dagen, wat 600 keer meer elektriciteit is dan wat onze hersenen in dezelfde tijd verbruiken.

Gigantische CO2-uitstoot

De rekenkracht die nodig is om AI-modellen te trainen is vertaalbaar in energieverbruik en dus ook in een CO2-uitstoot. Daar maakt AI geen goede beurt: het trainen van een groot model zoals BERT torent boven andere parameters zoals een vlucht van New York naar San Francisco uit. In vergelijking met een gemiddeld levensjaar van een Amerikaan stoot de training van een geavanceerd AI-model zelfs zo’n 17 keer meer CO2 uit.

Als we het huidige AI-innovatietempo aanhouden zonder maatregelen te nemen, stevenen we af op een ecologische ramp.

Al deze modellen hebben namelijk uren aan training nodig om performant en inzetbaar te zijn. Daarvoor is heel wat CPU (processor), GPU (grafische processor), TPU (AI-accelerator) en RAM (computergeheugen) nodig, wat een heleboel energie vergt. Tegelijk is een AI-model trainen een proces van ‘trial and error’, wat betekent dat de modellen meermaals getraind worden. En zodra het model voor gebruik wordt ingezet, blijft het uiteraard energie vragen om de berekeningen uit te voeren. Meer zelfs, om met veranderende data om te gaan, moet het model vervolgens nog dikwijls hertraind worden. Nemen we dit allemaal in rekening, dan is het niet zo verbazingwekkend dat het energieverbruik en de CO2-uitstoot hoog zijn.

De kloof dichten

Op deze manier stevenen we af op een regelrechte ecologische ramp. Daarom moeten we de kloof tussen hardware en software dichten door beide meer op elkaar af te stemmen. Onderzoeker Fabrice Rastello verwoordt het treffend: ‘Er is een gigantische winst te boeken bij het verminderen van het energieverbruik als we bewust zijn van de hardware bij het programmeren en onze algoritmen optimaliseren’. Denk bijvoorbeeld aan Apple die zijn eigen M1-chips ontwikkelde voor zijn laptops, waardoor deze veel efficiënter werken en de batterij langer meegaat.

Het optimaliseren van software voor specifieke hardware is zeer veelbelovend, maar vereist ook expertise in beide domeinen. Daarom zetten we best in op meer diverse AI-teams die bovendien een en-enverhaal willen schrijven waarbij de focus niet alleen op de accuraatheid van AI-algoritmes ligt, maar ook op de energiezuinigheid ervan.

Bewustwording

Net zoals AI-modellen, kan de mens ook getraind – of genudged – worden in de juiste richting, die van minder energieverbruik. Bewustwording van de energieconsumptie vormt hierbij een belangrijke eerste stap. Een mogelijke manier om dit bewustzijn op te krikken is door steeds de energieconsumptie van de gebruikte modellen in AI-onderzoeksartikelen te vermelden. De bedrijfswereld kan op zijn beurt met behulp van tools zoals CodeCarbon.io op een eenvoudige manier nagaan wat de hoeveelheid energie van het computergebruik voor een bepaalde applicatie of AI-model is.

Bovendien wordt op dit moment al onderzoek gedaan naar hoe we de ecologische impact van AI kunnen reduceren, met onder meer Spiking Neural Networks, Neuro-Symbolic AI en probabilistische grafiekmodellen. Tegelijk staat AI-technologie erom bekend een katalysator voor innovatie te zijn. Machine learning kan dus ook ingezet worden bij het ontwerpen van nieuwe algoritmen die de weg banen naar minder energiegulzige systemen.

Zo is de pijnlijke stijging van de energieprijzen een geluk bij een ongeluk. Ik zie het als het perfecte aanknopingspunt tot bewustwording over het energieverbruik van AI-modellen. Als we het huidige innovatietempo aanhouden zonder AI-duurzaamheidsmaatregelen te nemen, stevenen we af op een ecologische ramp. Het gaat dan om de combinatie van AI slimmer te maken en de inefficiëntie van het ‘trial and error’-proces te overstijgen, tot bewustwording over de energieconsumptie en de zoektocht naar de balans tussen zuinige en gealigneerde hardware en software. Laten we duurzaamheid in de AI-gemeenschap niet langer als open vraag zien, maar als een concreet actiepunt voor iedereen.

Fout opgemerkt of meer nieuws? Meld het hier

Partner Content