Wkrótce może zabraknąć prądu. Zaskakujący powód

Sztuczna inteligencja generuje gigantyczne zapotrzebowanie na prąd, którego wzrost zaczyna wymykać się spod kontroli. Najnowsze dane pokazują, że jeśli nie zostaną podjęte radykalne działania światu grozi kryzys.

Publikacja: 11.04.2024 16:02

Dynamiczny rozwój farm wiatrowych nie wystarczy, by zaspokoić szybko rosnące zapotrzebowanie na ener

Dynamiczny rozwój farm wiatrowych nie wystarczy, by zaspokoić szybko rosnące zapotrzebowanie na energię przez AI

Foto: Adobe Stock

Prąd niezbędny do zasilania tysięcy serwerów i woda, służąca do ich chłodzenia, to kluczowe zasoby – obok danych, na których szkolone są algorytmy – dla funkcjonowania i rozwoju AI. Popyt na energię elektryczną, generowany przez firmy stojącymi za technologią sztucznej inteligencji, stale rośnie. Ta konsumpcja może zagrozić systemom energetycznym. Rene Haas, dyrektor generalny w koncernie Arm, zajmującym się produkcją chipów AI ostrzega: „jeśli AI będzie w dalszym ciągu stawała się coraz potężniejsza, bez jednoczesnego zwiększenia swojej efektywności energetycznej, centra danych będą zużywać ogromne ilości prądu. Chodzić może nawet o 25 proc. mocy wytwórczych.

Jedna czwarta energii dla AI

„Wall Street Journal” opublikował dane, z których wynika, że dziś w USA wszystkie projekty AI zużywają ok. 4 proc. energii. Eksperci na łamach dziennika wskazują jednak, że przy obecnym tempie rozwoju tej technologii udział ten wzrośnie do 2030 r. nawet ponad sześciokrotnie. W efekcie za sześć lat za oceanem jedna czwarta wyprodukowanej przez elektrownie mocy będzie konsumowana przez centra danych obsługujące AI. Hass twierdzi, iż takie projekty, jak ChatGPT, mają nieposkromiony wręcz apetyt na prąd. Coraz większe zapotrzebowanie na niego charakteryzuje jednak praktycznie wszystkie popularne modele wielkojęzykowe (LLM). Problem dostrzegła już Międzynarodowa Agencja Energetycznej (IEA), która szacuje, iż już w 2026 r. zużycie energii w centrach danych AI na całym świecie będzie dziesięciokrotnie większe niż w 2022 r.

Czytaj więcej

Sztuczna inteligencja może wpędzić świat w kryzys. Zużywa mnóstwo wody i prądu

Systemy LLM wymagają znacznie więcej mocy niż tradycyjne wyszukiwarki internetowe. O skali tego apetytu świadczą statystyki IEA, z których wynika, że pojedyncze zapytanie zadane botowi od OpenAI generuje blisko dziesięć razy większe zapotrzebowanie na energię niż pytanie wpisane w wyszukiwarkę Google. Gdyby zatem Google zdecydował się całkowicie zastąpić swój mechanizm wyszukiwania w internecie chatbotem, roczne zużycie prądu w koncernie skoczyłoby o 10 terawatogodzin (TWh).

Jak ograniczyć pobór mocy przez sztuczną inteligencję

„WSJ” podaje, iż wyjściem może być hamowanie rozwoju botów, a w praktyce ograniczanie skali rosnącego zapotrzebowania na prąd ze strony serwerów AI. Eksperci wyliczyli, że w takich krajach jak Irlandia, gdzie swoją infrastrukturę posiada Amazon Web Service, zużycie prądu przez systemy sztucznej inteligencji może w najbliższych paru latach sięgnąć nawet 30 proc. całkowitej krajowej konsumpcji. Według dyrektora generalnego Arm kluczowe zadanie, jakie stoi dziś przed firmami z branży, to opracowanie technologii, która utrzyma pobór mocy na obecnym poziomie przy jednoczesnym zwiększeniu mocy obliczeniowej. Firmy technologiczne mają inny koncept – planują budowę własnych elektrowni. Mówi się nawet o uruchamiania reaktorów jądrowych, które miałyby stać się napędem AI.

Czytaj więcej

Sztuczna inteligencja może doprowadzić do wymierania języków. Polski jest zagrożony?

Ale inne wyzwanie dla sektora to zahamowanie zużycia wody. Microsoft, która intensywnie inwestuje w rozwój sztucznej inteligencji, ujawnił w ub. r., że w latach 2021-2022 zapotrzebowanie na wodę w koncernie wzrosło o 34 proc. Firma zużyła jej 6,4 mln m sześc., a więc tyle co w 2,5 tys. basenów olimpijskich. Samo szkolenie ChatGPT-3 pochłonęło aż 700 tys. l wody. Ów cenny ziemski zasób może więc kurczyć się w zastraszającym tempie wraz z rozwojem botów. Ekolodzy, by uzmysłowić z jakim zjawiskiem mamy do czynienia, wyliczają, iż wymiana ledwie kilkudziesięciu zdań z chatbotem generuje zapotrzebowanie na pół litra wody.

Prąd niezbędny do zasilania tysięcy serwerów i woda, służąca do ich chłodzenia, to kluczowe zasoby – obok danych, na których szkolone są algorytmy – dla funkcjonowania i rozwoju AI. Popyt na energię elektryczną, generowany przez firmy stojącymi za technologią sztucznej inteligencji, stale rośnie. Ta konsumpcja może zagrozić systemom energetycznym. Rene Haas, dyrektor generalny w koncernie Arm, zajmującym się produkcją chipów AI ostrzega: „jeśli AI będzie w dalszym ciągu stawała się coraz potężniejsza, bez jednoczesnego zwiększenia swojej efektywności energetycznej, centra danych będą zużywać ogromne ilości prądu. Chodzić może nawet o 25 proc. mocy wytwórczych.

Pozostało 83% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Globalne Interesy
Ustawa antytiktokowa stała się ciałem. Chiński koncern wzywa Amerykanów
Globalne Interesy
Niemiecki robot ma być jak dobry chrześcijanin. Zaskakujące przepisy za Odrą
Globalne Interesy
Mark Zuckerberg rzuca wyzwanie ChatGPT. „Wstrząśnie światem sztucznej inteligencji”
Globalne Interesy
Amerykański koncern zwalnia pracowników. Protestowali przeciw kontraktowi z Izraelem
Globalne Interesy
Zagadkowa inwestycja Microsoftu w arabską sztuczną inteligencję. Porzucone Chiny
Materiał Promocyjny
Wsparcie dla beneficjentów dotacji unijnych, w tym środków z KPO