Prąd niezbędny do zasilania tysięcy serwerów i woda, służąca do ich chłodzenia, to kluczowe zasoby – obok danych, na których szkolone są algorytmy – dla funkcjonowania i rozwoju AI. Popyt na energię elektryczną, generowany przez firmy stojącymi za technologią sztucznej inteligencji, stale rośnie. Ta konsumpcja może zagrozić systemom energetycznym. Rene Haas, dyrektor generalny w koncernie Arm, zajmującym się produkcją chipów AI ostrzega: „jeśli AI będzie w dalszym ciągu stawała się coraz potężniejsza, bez jednoczesnego zwiększenia swojej efektywności energetycznej, centra danych będą zużywać ogromne ilości prądu. Chodzić może nawet o 25 proc. mocy wytwórczych.
Jedna czwarta energii dla AI
„Wall Street Journal” opublikował dane, z których wynika, że dziś w USA wszystkie projekty AI zużywają ok. 4 proc. energii. Eksperci na łamach dziennika wskazują jednak, że przy obecnym tempie rozwoju tej technologii udział ten wzrośnie do 2030 r. nawet ponad sześciokrotnie. W efekcie za sześć lat za oceanem jedna czwarta wyprodukowanej przez elektrownie mocy będzie konsumowana przez centra danych obsługujące AI. Hass twierdzi, iż takie projekty, jak ChatGPT, mają nieposkromiony wręcz apetyt na prąd. Coraz większe zapotrzebowanie na niego charakteryzuje jednak praktycznie wszystkie popularne modele wielkojęzykowe (LLM). Problem dostrzegła już Międzynarodowa Agencja Energetycznej (IEA), która szacuje, iż już w 2026 r. zużycie energii w centrach danych AI na całym świecie będzie dziesięciokrotnie większe niż w 2022 r.
Czytaj więcej
Same tylko systemy sztucznej inteligencji od Google mogą konsumować tyle energii co Irlandia. Technologia AI, jedno z największych osiągnięć ludzkości, właśnie staje się dużym obciążeniem. Firmy technologiczne planują budowę własnych elektrowni.
Systemy LLM wymagają znacznie więcej mocy niż tradycyjne wyszukiwarki internetowe. O skali tego apetytu świadczą statystyki IEA, z których wynika, że pojedyncze zapytanie zadane botowi od OpenAI generuje blisko dziesięć razy większe zapotrzebowanie na energię niż pytanie wpisane w wyszukiwarkę Google. Gdyby zatem Google zdecydował się całkowicie zastąpić swój mechanizm wyszukiwania w internecie chatbotem, roczne zużycie prądu w koncernie skoczyłoby o 10 terawatogodzin (TWh).
Jak ograniczyć pobór mocy przez sztuczną inteligencję
„WSJ” podaje, iż wyjściem może być hamowanie rozwoju botów, a w praktyce ograniczanie skali rosnącego zapotrzebowania na prąd ze strony serwerów AI. Eksperci wyliczyli, że w takich krajach jak Irlandia, gdzie swoją infrastrukturę posiada Amazon Web Service, zużycie prądu przez systemy sztucznej inteligencji może w najbliższych paru latach sięgnąć nawet 30 proc. całkowitej krajowej konsumpcji. Według dyrektora generalnego Arm kluczowe zadanie, jakie stoi dziś przed firmami z branży, to opracowanie technologii, która utrzyma pobór mocy na obecnym poziomie przy jednoczesnym zwiększeniu mocy obliczeniowej. Firmy technologiczne mają inny koncept – planują budowę własnych elektrowni. Mówi się nawet o uruchamiania reaktorów jądrowych, które miałyby stać się napędem AI.