Wkrótce może zabraknąć prądu. Zaskakujący powód

Sztuczna inteligencja generuje gigantyczne zapotrzebowanie na prąd, którego wzrost zaczyna wymykać się spod kontroli. Najnowsze dane pokazują, że jeśli nie zostaną podjęte radykalne działania światu grozi kryzys.

Publikacja: 11.04.2024 16:02

Dynamiczny rozwój farm wiatrowych nie wystarczy, by zaspokoić szybko rosnące zapotrzebowanie na ener

Dynamiczny rozwój farm wiatrowych nie wystarczy, by zaspokoić szybko rosnące zapotrzebowanie na energię przez AI

Foto: Adobe Stock

Prąd niezbędny do zasilania tysięcy serwerów i woda, służąca do ich chłodzenia, to kluczowe zasoby – obok danych, na których szkolone są algorytmy – dla funkcjonowania i rozwoju AI. Popyt na energię elektryczną, generowany przez firmy stojącymi za technologią sztucznej inteligencji, stale rośnie. Ta konsumpcja może zagrozić systemom energetycznym. Rene Haas, dyrektor generalny w koncernie Arm, zajmującym się produkcją chipów AI ostrzega: „jeśli AI będzie w dalszym ciągu stawała się coraz potężniejsza, bez jednoczesnego zwiększenia swojej efektywności energetycznej, centra danych będą zużywać ogromne ilości prądu. Chodzić może nawet o 25 proc. mocy wytwórczych.

Jedna czwarta energii dla AI

„Wall Street Journal” opublikował dane, z których wynika, że dziś w USA wszystkie projekty AI zużywają ok. 4 proc. energii. Eksperci na łamach dziennika wskazują jednak, że przy obecnym tempie rozwoju tej technologii udział ten wzrośnie do 2030 r. nawet ponad sześciokrotnie. W efekcie za sześć lat za oceanem jedna czwarta wyprodukowanej przez elektrownie mocy będzie konsumowana przez centra danych obsługujące AI. Hass twierdzi, iż takie projekty, jak ChatGPT, mają nieposkromiony wręcz apetyt na prąd. Coraz większe zapotrzebowanie na niego charakteryzuje jednak praktycznie wszystkie popularne modele wielkojęzykowe (LLM). Problem dostrzegła już Międzynarodowa Agencja Energetycznej (IEA), która szacuje, iż już w 2026 r. zużycie energii w centrach danych AI na całym świecie będzie dziesięciokrotnie większe niż w 2022 r.

Czytaj więcej

Sztuczna inteligencja może wpędzić świat w kryzys. Zużywa mnóstwo wody i prądu

Systemy LLM wymagają znacznie więcej mocy niż tradycyjne wyszukiwarki internetowe. O skali tego apetytu świadczą statystyki IEA, z których wynika, że pojedyncze zapytanie zadane botowi od OpenAI generuje blisko dziesięć razy większe zapotrzebowanie na energię niż pytanie wpisane w wyszukiwarkę Google. Gdyby zatem Google zdecydował się całkowicie zastąpić swój mechanizm wyszukiwania w internecie chatbotem, roczne zużycie prądu w koncernie skoczyłoby o 10 terawatogodzin (TWh).

Jak ograniczyć pobór mocy przez sztuczną inteligencję

„WSJ” podaje, iż wyjściem może być hamowanie rozwoju botów, a w praktyce ograniczanie skali rosnącego zapotrzebowania na prąd ze strony serwerów AI. Eksperci wyliczyli, że w takich krajach jak Irlandia, gdzie swoją infrastrukturę posiada Amazon Web Service, zużycie prądu przez systemy sztucznej inteligencji może w najbliższych paru latach sięgnąć nawet 30 proc. całkowitej krajowej konsumpcji. Według dyrektora generalnego Arm kluczowe zadanie, jakie stoi dziś przed firmami z branży, to opracowanie technologii, która utrzyma pobór mocy na obecnym poziomie przy jednoczesnym zwiększeniu mocy obliczeniowej. Firmy technologiczne mają inny koncept – planują budowę własnych elektrowni. Mówi się nawet o uruchamiania reaktorów jądrowych, które miałyby stać się napędem AI.

Czytaj więcej

Sztuczna inteligencja może doprowadzić do wymierania języków. Polski jest zagrożony?

Ale inne wyzwanie dla sektora to zahamowanie zużycia wody. Microsoft, która intensywnie inwestuje w rozwój sztucznej inteligencji, ujawnił w ub. r., że w latach 2021-2022 zapotrzebowanie na wodę w koncernie wzrosło o 34 proc. Firma zużyła jej 6,4 mln m sześc., a więc tyle co w 2,5 tys. basenów olimpijskich. Samo szkolenie ChatGPT-3 pochłonęło aż 700 tys. l wody. Ów cenny ziemski zasób może więc kurczyć się w zastraszającym tempie wraz z rozwojem botów. Ekolodzy, by uzmysłowić z jakim zjawiskiem mamy do czynienia, wyliczają, iż wymiana ledwie kilkudziesięciu zdań z chatbotem generuje zapotrzebowanie na pół litra wody.

Prąd niezbędny do zasilania tysięcy serwerów i woda, służąca do ich chłodzenia, to kluczowe zasoby – obok danych, na których szkolone są algorytmy – dla funkcjonowania i rozwoju AI. Popyt na energię elektryczną, generowany przez firmy stojącymi za technologią sztucznej inteligencji, stale rośnie. Ta konsumpcja może zagrozić systemom energetycznym. Rene Haas, dyrektor generalny w koncernie Arm, zajmującym się produkcją chipów AI ostrzega: „jeśli AI będzie w dalszym ciągu stawała się coraz potężniejsza, bez jednoczesnego zwiększenia swojej efektywności energetycznej, centra danych będą zużywać ogromne ilości prądu. Chodzić może nawet o 25 proc. mocy wytwórczych.

Pozostało 83% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Globalne Interesy
To już wojna przeglądarek. Nowi gracze uderzyli w potęgi jak Chrome czy Firefox
Globalne Interesy
Nowa, darmowa wersja ChatGPT bije rekordy zainteresowania. Skok o 5 tys. proc.
Globalne Interesy
Microsoft pokazał nowatorskie komputery AI. Ostra krytyka ze strony Elona Muska
Globalne Interesy
Polska zbuduje „żelazną kopułę". Ogromny kredyt na zakup satelitów
Globalne Interesy
Rewolucja w firmie, która stworzyła ChatGPT. Polak objął kluczową funkcję
Globalne Interesy
ChatGPT mocno przyspiesza. Tymczasem konkurencja w AI ma poważne problemy