AI ligger bakom kraftigt ökad energianvändning

Det är fortfarande svårt att få exakta siffror men AI är en viktig förklaring till ökningen av datacentralernas energianvändning. Illustration: Getty Images.
AI-tjänster kräver alltmer el – i vissa fall tio gånger mer än en googling. Samtidigt växer användningen snabbt. Vad gör vi när tekniken som ska hjälpa oss att bli effektivare själv riskerar att bli ett energiproblem?
När du skickar en fråga till ChatGPT startar en energikrävande kedjereaktion. I ett datacenter någonstans aktiveras servrar, processorer börjar räkna och kylsystem drar igång. Det som verkar omedelbart på skärmen har ett elpris i bakgrunden – och det är betydligt högre än vid en vanlig googling.
Anna Furberg, forskare vid KTH:s institution för hållbar utveckling, miljövetenskap och teknik och knuten till både KTH Digital Futures och Climate Action Center, studerar miljöpåverkan av digital teknik, inklusive AI. Nya rapporter pekar på en snabb ökning av elförbrukningen.
– Det finns en risk att elförbrukningen ökar i en takt som blir ohållbar men det behöver inte bli så. Det finns en stor oro kring ökad energianvändning och klimatpåverkan kopplat till användningen av AI i framtiden.

Mycket av dagens AI-relaterade energiförbrukning sker i USA, där en ny studie visar att datacentrens elanvändning mer än fördubblats på sex år. Enligt studien utgör dessa datacenter redan mer än fyra procent av landets totala elförbrukning. Men Sverige är inte immunt – vi lockar också datacenter, och användningen ökar snabbt.
– Det är fortfarande svårt att få exakta siffror, men vi vet att AI är en viktig förklaring till ökningen. Och studier pekar på att efterfrågan förväntas öka med 30 till 40 procent varje år, säger hon.
Mycket hopp sätts till tekniken själv – att energieffektivare modeller och servrar ska kunna bromsa utvecklingen. Men enligt Anna Furberg är det inte hela svaret.
– Vi behöver också fundera på hur AI används och i vilka sammanhang det är motiverat. Ju mer exakta svar vi kräver, desto mer energi går åt – särskilt i träningsfasen.
Anna Furberg lyfter det som kallas rekyleffekter – när teknisk effektivisering gör något billigare, vilket i sin tur leder till ökad efterfrågan och högre energianvändning.
– AI kan användas för att effektivisera – men det kan också förändra strukturer och beteenden på ett sätt som i slutändan ökar energianvändningen.
”Vi måste prata om hur tekniken används”
Anna Furberg återkommer till vikten av ett livscykelperspektiv – att ta hänsyn till energibehov och klimatpåverkan från hela kedjan: produktion, användning och avfallshantering av hårdvara och mjukvara.
– I vissa fall visar studier att själva produktionen av hårdvaran kan stå för 30 procent av klimatpåverkan. Men det inkluderas sällan i debatten.
Det finns stora förhoppningar om att tekniken ska bli mer energieffektiv – men enligt Anna Furberg är det långt ifrån säkert att utvecklingen går i rätt riktning.
– Det finns en stor tilltro till att tekniken ska lösa problemet med sig själv. Men det är inte givet. Vi måste också prata om hur tekniken används – och i vilket syfte. AI kommer inte automatiskt lösa våra miljöproblem. Men den kan bidra – om vi styr den i rätt riktning. Det kräver ansvar, helhetsperspektiv och kloka beslut.
”Som ett kugghjul som snurrar för snabbt”
En som ifrågasätter hur AI används i praktiken är Per Axbom, rådgivare inom digital etik. Han beskriver en verklighet där tekniken ofta införs utan behovsanalys – och där konsekvenserna sällan diskuteras.
– Jag skulle inte säga att AI alltid är otroligt användbart eller alltid skapar jättestor nytta. I många situationer sparas ingen tid, resultaten blir tveksamma, och människor blir stressade av att de förväntas jobba ännu snabbare.
Per Axbom menar att det som ofta framställs som innovation i själva verket skapar organisatorisk obalans.
– Det blir som ett kugghjul som snurrar för snabbt. De andra kugghjulen slits ut i stället. Människor mäts ofta på hur mycket de producerar – inte på sin förmåga att bidra till ett hälsosamt system, säger han.
Många beslut bygger på en slags teknologisk panik – att man måste hänga med. Man lyssnar mer på AI-evangelister än på sina egna anställda, som kanske uttrycker tveksamhet.
”Företag borde redovisa hur AI-användning kostar i el”
Per Axbom pekar på den blinda fläcken i debatten: att AI ska lösa klimatkrisen – samtidigt som tekniken själv orsakar stora utsläpp.
– Det finns de som säger att AI ska rädda planeten. Men generativ AI har hittills mest ökat utsläppen och vattenförbrukningen. Vi vet redan vad som behövs för klimatet – och det är inte fler datacenter.
Enligt Per Axbom behövs det mer insyn i hur mycket el, vatten och material som faktiskt används. Och hårdare krav när löften inte hålls.
– Jag vill att företag redovisar hur mycket varje användning kostar i el, hur många komponenter som går sönder varje dag, och vad som händer med dem. Det måste kosta att ödsla naturresurser.
Men ansvaret stannar inte hos företagen. Per Axbom menar att mycket av dagens AI-användning är slentrianmässig.
– Det känns ju inte som att det påverkar miljön när man klickar. Allt som krävs för att systemet ska funka – kylsystem, elektronik, transporter, avfall – är osynligt.
Per Axboms råd är enkelt men kanske obekvämt för vissa:
– Jag vill uppmuntra fler att fundera på varför man använder AI, och om det är rätt verktyg för ändamålet. Det finns tillfällen där det är värt det – men många gånger används det tanklöst.
Energisnålare AI – tre tekniska lösningar
Flera svenska initiativ syftar till att minska AI-teknikens växande energibehov – från hjärninspirerade chips till värmeåtervinning och effektivare kod.
1. Neuromorfiska chip (KTH)
Genom att efterlikna hur den mänskliga hjärnan bearbetar information utvecklar KTH nya typer av processorer som bara använder energi när det faktiskt behövs. Resultatet är AI-system som drar en bråkdel så mycket el som dagens – något som nu testas i till exempel trafikoptimering i Stockholm.
2. Energieffektivisering i datacenter (RISE)
På testanläggningen ICE samarbetar RISE med branschen för att minska AI:s klimatpåverkan. Här testas allt från värmeåtervinning och energieffektiv kylning till ny hårdvara och lokal elproduktion med biogas. Samtidigt växer intresset för att återvinna spillvärme i växthus – och till och med till odling av mjölmask.
3. Smarta algoritmer och snål kod (RISE)
Bakom AI-systemen döljer sig ofta föråldrad, energitörstig kod. RISE utvecklar nya algoritmer och träningsmetoder som kräver mindre data och beräkningskraft – utan att tumma på prestanda. Målet är AI som lär sig snabbare, med lägre klimatavtryck och högre precision.
Fakta/Hur mycket energi slukar AI – egentligen?
* AI är en stor förklaring till att datacenter i USA mer än fördubblade sin elanvändning mellan 2017 och 2023. År 2023 stod de för över fyra procent av hela USA:s elförbrukning – motsvarande 176 terawattimmar.
* Enligt forskare vid Lawrence Berkeley National Laboratory kan datacenter stå för mellan sju och tolv procent av USA:s totala elanvändning redan 2028 – beroende på AI-utvecklingens takt och tekniska val.
* En AI-förfrågan kan dra över tio gånger mer energi än en vanlig Google-sökning. Under 2023 uppskattades energiförbrukningen för ett enda svar från ChatGPT till cirka 3 wattimmar.
* Efterfrågan på AI-tjänster väntas växa med 30 till 40 procent varje år det kommande decenniet. Om inget görs riskerar elförbrukningen att öka i en takt som blir svår att hantera – både för klimatet och elnäten.
Källor:
Luers, et al 2024. Will AI accelerate or delay the race to net-zero emissions? Nature 628 (8009)
Shehabi, et al 2024. 2024 United States Data Center Energy Usage Report. Lawrence Berkeley National Laboratory, Berkeley, California. LBNL-2001637.
de Vries 2023. The growing energy footprint of artificial intelligence. Joule 7(10)