Reklama

Te modele AI pożerają najwięcej prądu. Jak korzystać z nich ekologicznie?

Nie każda AI zużywa tyle samo energii. Eksperci sprawdzili, które modele są najbardziej prądożerne i radzą, jak zadawać pytania ekologicznie.

Publikacja: 03.09.2025 18:20

Korzystanie z narzędzi AI wiąże się z istotnym zużyciem energii i śladem węglowym

Korzystanie z narzędzi AI wiąże się z istotnym zużyciem energii i śladem węglowym

Foto: AdobeStock

Za każdym razem, gdy zadajemy pytanie sztucznej inteligencji, ta nie tylko daje nam odpowiedź, ale także zużywa energię i emituje dwutlenek węgla. Niezależnie od tego, o co zapytamy AI, zawsze wygeneruje ona odpowiedź. Aby to zrobić, system korzysta z tokenów. Tokeny składają się ze słów lub fragmentów słów, które są przekształcane w dane liczbowe, tak aby model AI mógł je przetwarzać – informuje portal scitechdaily.com.

Ten proces, wraz z obliczeniami, skutkuje emisją dwutlenku węgla (CO₂), co oznacza, że korzystanie z narzędzi AI wiąże się z istotnym śladem węglowym. Aby lepiej zrozumieć ten wpływ, badacze z Niemiec przeanalizowali i porównali emisje kilku wstępnie wytrenowanych dużych modeli językowych (LLM), korzystając ze spójnego zestawu pytań.

Czytaj więcej

Elektrownie jądrowe odżywają. Zaskakująca przyczyna

– Wpływ środowiskowy zadawania pytań wytrenowanym LLM jest silnie uzależniony od ich podejścia do rozumowania, przy czym jawne procesy rozumowania znacząco zwiększają zużycie energii i emisję dwutlenku węgla – powiedział Maximilian Dauner, badacz z Hochschule München University of Applied Sciences i główny autor badania. – Odkryliśmy, że modele wspierające rozumowanie generowały nawet 50 razy więcej emisji CO₂ niż modele udzielające zwięzłych odpowiedzi – dodał.

Które modele AI dają większy ślad węglowy?

Zespół przetestował 14 różnych LLM, każdy o wielkości od 7 do 72 miliardów parametrów, z użyciem 1000 ustandaryzowanych pytań z różnych dziedzin. Parametry określają, w jaki sposób model uczy się i podejmuje decyzje.

Reklama
Reklama

Średnio modele nastawione na rozumowanie generowały 543,5 dodatkowych „tokenów myślowych” na pytanie, w porównaniu do zaledwie 37,7 tokenów w przypadku modeli dających krótkie odpowiedzi. Tokeny te to dodatkowa wewnętrzna treść generowana przez model, zanim wybierze ostateczną odpowiedź. Więcej tokenów oznacza zawsze wyższe emisje CO₂, ale nie zawsze przekłada się to na lepsze wyniki – informuje scitechdaily.com.

Najdokładniejszym modelem okazał się Cogito, wspierający rozumowanie i posiadający 70 miliardów parametrów, osiągając 84,9 proc. poprawnych odpowiedzi. Model ten wytworzył jednak trzykrotnie więcej emisji CO₂ niż podobnej wielkości modele generujące zwięzłe odpowiedzi.

Czytaj więcej

Sztuczna inteligencja to energetyczny potwór. Braki prądu i krach polityki klimatycznej

Naukowcy odkryli, że żaden z modeli, które utrzymały emisję poniżej 500 gramów ekwiwalentu CO₂, nie przekroczył 80 proc. dokładności przy odpowiadaniu na 1000 pytań. Ekwiwalent CO₂ to jednostka używana do pomiaru wpływu klimatycznego różnych gazów cieplarnianych.

Tematy pytań również wpływały na poziom emisji. Pytania wymagające rozbudowanych procesów rozumowania, np. z algebry abstrakcyjnej czy filozofii, powodowały emisje nawet sześciokrotnie wyższe niż prostsze pytania, np. z historii na poziomie liceum.

Czytaj więcej

Gigantyczne pragnienie AI. Giganci trzymają to w tajemnicy
Reklama
Reklama

Jak zadawać pytania bardziej ekologicznie?

Badacze są jednak zdania, że użytkownicy mogą znacząco ograniczyć emisje, prosząc AI o zwięzłe odpowiedzi lub ograniczając użycie modeli o dużej mocy do zadań, które rzeczywiście tego wymagają.

Wybór modelu także robi ogromną różnicę w emisjach CO₂. Na przykład, gdyby model DeepSeek R1 (70 miliardów parametrów) odpowiedział na 600 000 pytań, emisje CO₂ byłyby równe podróży w obie strony samolotem na trasie Londyn–Nowy Jork. Tymczasem Qwen 2.5 (72 miliardy parametrów) może odpowiedzieć na ponad trzy razy więcej pytań (ok. 1,9 mln) z podobną dokładnością, generując tyle samo emisji – informuje portal scitechdaily.com.

Za każdym razem, gdy zadajemy pytanie sztucznej inteligencji, ta nie tylko daje nam odpowiedź, ale także zużywa energię i emituje dwutlenek węgla. Niezależnie od tego, o co zapytamy AI, zawsze wygeneruje ona odpowiedź. Aby to zrobić, system korzysta z tokenów. Tokeny składają się ze słów lub fragmentów słów, które są przekształcane w dane liczbowe, tak aby model AI mógł je przetwarzać – informuje portal scitechdaily.com.

Pozostało jeszcze 88% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
„Niebezpieczna otchłań". Chatboty AI niosą ze sobą nowe ryzyko - ostrzegają specjaliści
Technologie
Czy kwanty pogrzebią bitcoina? Zostało bardzo mało czasu
Technologie
Naukowcy pokazali, jak oszukać AI. Zatrważające wnioski
Technologie
Sposób na kryzys demograficzny? Nadchodzą lalki AI
Technologie
Film „Transformers” staje się rzeczywistością? Przełomowe odkrycie naukowców
Reklama
Reklama