Det råder ingen tvekan om att artificiell intelligens är framtiden, men frågan är om den driver på redan ohållbar energiförbrukning? Tja, det verkar onekligen så. Enligt International Energy Agency (IEA) förbrukade AI två procent av världens energi 2022. Denna siffra förväntas öka med upp till nästan 130 procent 2026, vilket motsvarar hela Sveriges årliga energiförbrukning. Experter oroar sig för AI:s resursförbrukning och varnar för att redan befintliga miljöproblem bara kommer att bli värre.
Vill du veta mer om AI:s oroande energiförbrukning? Då är det bara att klicka vidare.
AI står redan för 1–2 procent av världens energiförbrukning. År 2022 förbrukade datacenter 460 terawattimmar, vilket motsvarar hela Frankrikes energibehov. Enligt försiktiga uppskattningar kommer förbrukningen att minst fördubblas fram till 2026.
Datacenter som möjliggör AI ökar sin energiförbrukning i rasande takt, vilket bara kommer att spä på redan katastrofala miljöproblem.
Förespråkare för AI hävdar att användningen kommer att bidra till att ta itu med andra frågor som är förknippade med klimatkrisen, bland annat effektiv resursförbrukning, såväl som andra komplexa sociala frågor.
AI släpper dock ut en betydande mängd koldioxid, vilket driver på klimatförändringarna. Enligt kritiker är detta raka motsatsen till vad man påstår sig vilja uppnå.
Försiktiga uppskattningar av AI:s energiförbrukning tyder på att tekniken förbrukar lika mycket som utvecklade länder. Utan en tydlig lösning i sikte förväntas detta problem bara bli värre.
AI körs till stor del på datacenter, men även på hårdvara som har sina egna hållbarhetsproblem när det gäller produktion och användning.
Även om "störningsfasen" av AI-användningen i sig inte förbrukar mycket energi ackumuleras den ständiga användningen. Till exempel stod Facebooks datacenter för biljoner störningar per dag under 2022.
Dessa störningar härrör från algoritmiska funktioner som att utfärda rekommendationer, bland annat. Det innebär att störningar utlöses varje gång en Facebookanvändare, som det finns mer än tre miljarder av, loggar in och tittar på sitt nyhetsflöde.
Det är inte bara Facebook. Onlineplattformar som till exempel begär bekräftelse på "mänsklighet", ofta genom identifiering av objekt i bilder, deltar också i samma process.
Även om apputvecklare analyserar energiförbrukningen i utvecklingsstadiet har studier visat att förbrukningen faktiskt är mycket högre i den dagliga användningen.
Organisationen Algorithm Watch använder exemplet med BLOOM-modellen. Under utvecklingsfasen använde appen 24,7 ton koldioxid, exklusive utsläpp från hårdvaruproduktion och drift, vilket gör utsläppen nästan dubbelt så höga som vad som faktiskt rapporteras.
Ett annat exempel som organisationen lyfter fram är PaLM, Googles AI-språkmodell. Även om PaLM får nästan 90 procent av sin energi från koldioxidfria källor resulterade en enda körning i utvecklingsfasen i 271,43 ton koldioxidutsläpp.
Denna mängd koldioxidutsläpp motsvarar 1,5 kommersiella jetflygningar i USA. Även om det kanske inte verkar så mycket med tanke på de tusentals flygningar som sker i USA varje dag är det fortfarande en betydande mängd koldioxid.
Detta är särskilt viktigt att hålla i minnet när det gäller ett program som PaLM, som förmodligen är en mer hållbar modell i jämförelse med några av sina andra AI-konkurrenter.
Förutom utsläpp bygger artificiell intelligens på datorkraft. Detta kräver naturligtvis energi. Servrarna blir varma och måste kylas ned hela tiden för att förhindra överhettning.
Det är här vattnet kommer in. Färskvatten används för att kyla ned kraftverk och AI-servrar. För språkmodeller som GPT-3 och LaMDA hävdar Algorithm Watch att miljontals liter används bara i träningsfasen.
Tillväxten och den ökande efterfrågan på AI-system innebär att mer och mer vatteninfrastruktur behöver finnas tillgänglig. Fakta och siffror talar för sig själva. Googles vattenförbrukning ökade med 20 procent på bara ett år, medan Microsofts ökade med 34 procent.
Allt populärare AI-verktyg, som ChatGPT, förbrukar 500 ml vatten på bara några få frågor och svar. Med minst 100 miljoner aktiva användare är mängden vatten som ChatGPT ensam förbrukar minst sagt alarmerande.
Det är uppenbart att AI:s faktiska energiförbrukning måste dokumenteras noggrant, men den måste också bedömas och regleras. Det finns risker med att använda AI enbart när det gäller hållbarhet.
Vissa kritiker befarar att rättsliga åtgärder och bedömningar kan hindra utvecklingen och innovationen av AI, men att det är viktigt att minska energiförbrukningen.
Enligt Hebrew University är "det viktigt att sänka strömförbrukningen", annars finns det risk att AI blir ett "rikemansverktyg".
Eftersom AI verkar på grundval av maskininlärning kommer det alltid att gå åt mycket energi för att träna och använda modellerna.
Det är uppenbart att AI:s fortlevnad kräver vissa parametrar för att säkerställa nytta på lång sikt. Övervakningsmekanismer för att förstå resursförbrukning, koldioxidutsläpp och hårdvaruproduktion är kritiska element.
Farhågan är att alla regleringar kommer att skapa förutsättningar som är så orimliga att de skapar begränsningar när det gäller vem som kan skapa och använda AI-modeller.
Vissa experter menar att AI-industrin måste genomgå storskaliga arkitektoniska förändringar för att anpassa sig till miljöfrågor, samtidigt som man anammar mer effektiva metoder för att tillgodose branschens behov.
Dessa justeringar gäller även maskinvaruutveckling. Företag kan behöva investera i att göra tekniska verktyg som datorchip mer effektiva.
I Googles miljörapport för 2024 konstaterades att dess koldioxidutsläpp har ökat med hälften bara under de senaste fem åren och Microsofts med 30 procent. En stor del av energiförbrukningen beror på AI:s ständiga behov av att komma åt minnet.
Experter menar att nyckeln till att minska energianvändningen är att hitta ett sätt att göra tillgången till minnet mindre energikrävande och utveckla kretsar som är mer effektiva.
Detta är en långdragen och dyr process som skulle kräva en hel del investeringar i forskning. Experter tror alltså inte att företag kommer att rusa mot att hitta några lösningar på energiproblemet just nu, utan i stället välja att utöka sina AI-tjänster innan reglerna har fastslagits.
Källor: (Nature.com) (Algorithm Watch) (Fierce Network) (Wired)
År 2026 kommer datacenter att konsumera lika mycket energi som Sverige
AI:s ohållbara energiförbrukning
LIVSSTIL Ai
Det råder ingen tvekan om att artificiell intelligens är framtiden, men frågan är om den driver på redan ohållbar energiförbrukning? Tja, det verkar onekligen så. Enligt International Energy Agency (IEA) förbrukade AI två procent av världens energi 2022. Denna siffra förväntas öka med upp till nästan 130 procent 2026, vilket motsvarar hela Sveriges årliga energiförbrukning. Experter oroar sig för AI:s resursförbrukning och varnar för att redan befintliga miljöproblem bara kommer att bli värre.
Vill du veta mer om AI:s oroande energiförbrukning? Då är det bara att klicka vidare.