Systemy tego typu bowiem nie tylko potrzebują ogromnych ilości danych do celów szkoleniowych, ale także wymagają potężnych ilości energii elektrycznej do działania. Niedawno ujawniono, iż zużycie energii i ślad węglowy kilku najnowszych dużych modeli językowych wymaga wręcz osobnej elektrowni. Np. ChatGPT, działający na 10 tys. procesorach NVIDIA, zużywa aż 1287 megawatogodzin energii elektrycznej. Można byłoby zasilić taką mocą niemal dwie setki domów przez rok. Emisja CO2 takiego bota to 552 ton, co odpowiada rocznej emisji ponad 120 samochodów zasilanych benzyną - pisze serwis Interesting Engineering.

Reaktory atomowe na ratunek AI

Eksperci szacują, że w przyszłości zapotrzebowanie na energię ze strony narzędzi AI może przekroczyć zużycie generowane przez niektóre mniejsze kraje. I wskazują przykład Google, który w 2021 r. zużył łącznie 18,3 TWh, z czego 10-15 proc. na potrzeby sztucznej inteligencji. Jeden ze scenariuszy opisanych przez "SemiAnalytics" zakłada, że w przyszłości AI od Google może konsumować tyle samo energii, co Irlandia (ok. 29 TWh rocznie). Alex De Vries, doktorant w VU Amsterdam School of Business and Economics, przeprowadził badanie, z którego wynika, że w 2027 r. do zasilenia AI potrzeba będzie 85–134 TWh rocznie. – A to tyle, ile zużywa Holandia. Mówimy o 0,5 proc. całkowitego światowego zużycia energii elektrycznej – zaznaczył w rozmowie z BBC News.

Czytaj więcej

Twórcy ChatGPT chcą produkować chipy. Wiemy, ile kosztują firmę odpowiedzi bota

Nic dziwnego, że Microsoft ma ambicję stawiania reaktorów atomowych. Te miałyby zasilać centra dane i właśnie systemy sztucznej inteligencji koncernu. Informacja ta wypłynęła niedawno przy okazji poszukiwań osób do pracy – gigant chce zatrudnić fachowców, którzy pomogą firmie zrealizować taką strategię.

Ale energia to nie jedyne wyzwanie w kontekście AI. Te potężne serwerownie obsługujące sztuczną inteligencję wymagają bowiem chłodzenia. Do tego potrzeba wody. Ekologów zaczyna mocno niepokoić fakt, że ów naturalny zasób aż w tak dużym stopniu może zostać wykorzystany przez firmy sektora AI. Niedawno Miocrosoft ujawnił, iż – na skutek inwestycji w rozwój sztucznej inteligencji – zużycie wody w koncernie mocno skoczyło. W latach 2021-2022 aż o 34 proc. Sięga ono obecnie ok. 6,4 mld litrów. Dla porównania to tyle co 2,5 tys. basenów olimpijskich. W kwietniu br. podano, iż samo szkolenie ChatGPT-3 pochłonęło aż 700 tys. l wody. Eksperci szacują, że „rozmowa” bota z użytkownikiem, który zadaje 25-50 pytań powoduje, że zapotrzebowanie systemu na wodę osiąga 500 ml. To tak, jakby w tym czasie wylać półlitrową butelkę wody.