AI’s skjulte klimasynder: Kinesisk model udfordrer amerikansk energiforbrug

Mens kunstig intelligens stormer frem, vokser bekymringen for dens miljømæssige fodaftryk. En ny analyse fra Greenly sætter fokus på energiforbruget hos to af giganterne i feltet: amerikanske ChatGPT-4 og kinesiske DeepSeek

Foto: Firefly AI

Næste generations AI-modeller, anført af kraftfulde systemer som ChatGPT-4, er langt mere energikrævende end deres forgængere og udgør en stigende miljømæssig udfordring. Ifølge Greenlys undersøgelse er energiforbruget steget markant med ChatGPT-4, der indeholder hele 1.800 milliarder parametre mod forgængerens 175 milliarder – en tyvedobling. Greenly lever af at fremstille CO2-regnskaber for virksomheder i hele verden.

I et hypotetisk scenarie, hvor en virksomhed håndterer 1 million e-mails om måneden, estimerer Greenly, at ChatGPT-4 genererer et CO₂-aftryk på 7.138 tons over et år, fordelt på træning og brug. Det svarer til 4.300 returrejser mellem Paris og New York. Selv en simpel tekstbaseret forespørgsel sluger lige så meget energi som 16% af en smartphone-opladning, viser et studie fra Carnegie Mellon University og Hugging Face. Brugen af billedgenereringsværktøjer som DALL-E er endnu værre og udleder 60 gange mere CO₂ end tekstgenerering.

DeepSeek: Et grønnere alternativ fra Kina?

Den kinesiske AI-model DeepSeek hævder at levere en ydeevne på niveau med vestlige modeller, men med et markant lavere energiforbrug. Det skyldes deres “Mixture-of-Experts” (MoE) arkitektur, som kun aktiverer de nødvendige under-modeller for hver forespørgsel.

DeepSeek brugte kun en tiendedel af de GPU-timer, der var nødvendige for at træne Metas Llama 3.1, på trods af at Llama 3.1 benyttede nyere chips. Træningen af DeepSeek foregik på blot 2.000 NVIDIA H800-chips, mens ChatGPT-4 krævede 25.000 og Meta’s Llama 3.1 brugte 16.000. DeepSeeks fodaftryk reduceres yderligere af, at H800-chippen er mindre energikrævende end de NVIDIA-chips, som blandt andet ChatGPT benytter.

Selvom en mere effektiv udnyttelse af computerressourcer kan mindske DeepSeeks samlede CO₂-aftryk og reducere serverbrug samt vandforbrug, påpeger Greenly, at disse fordele hurtigt kan blive udlignet af en eksponentiel stigning i brugen af AI-værktøjer.

Vejen mod mere bæredygtig AI

Der er flere måder at gøre AI mere bæredygtigt på, herunder optimering af infrastruktur med energieffektive chips (som Googles Tensor-enheder), etablering af lovgivningsmæssige rammer for miljøstandarder og placering af AI-servere i datacentre drevet af vedvarende energi. Eksempelvis ville træningen af ChatGPT i Frankrig have medført op til tre gange lavere emissioner på grund af landets renere energimix.

DeepSeeks fremkomst har sat energieffektivitet i centrum af kampen mellem AI-modeller, men det er endnu uvist, om andre aktører vil følge denne vej eller fortsætte med at prioritere rå processorkraft på bekostning af miljøet.

Alexis Normand, CEO og medstifter af Greenly.

Den stigende brug af generativ AI i sociale medier, som for eksempel “starter pack”-tendensen på LinkedIn og den udbredte omdannelse af billeder i stil med Studio Ghibli, understreger teknologiens voksende rolle i vores hverdag. Selvom denne brug kan være knyttet til et ønske om at udtrykke stil eller identitet, øger det yderligere energi- og vandforbruget, især da billedgenerering er langt mere intensivt end tekstgenerering. Alene “Starter Pack”-trenden har genereret over 700 millioner billeder. Det kræver 3,5 liter vand og energi svarende til en fuld smartphone-opladning at generere et sådant billede.

Metodologi bag studiet

Greenlys analyse er baseret på en sammenlignende vurdering af CO₂-emissioner genereret ved træning og brug af AI-modeller, anvendt på håndtering af 1 million e-mails om måneden over et år. For ChatGPT-4 blev påvirkningen beregnet ud fra 25.000 NVIDIA A100 GPU’er, der kørte på 30% kapacitet i 100 dage i amerikanske datacentre. DeepSeeks estimat er baseret på virksomhedens rapporterede brug af otte gange færre GPU’er end konkurrenterne.

Studiet kan læses i sin helhed her.