Za każdym razem, gdy zadajemy pytanie sztucznej inteligencji, ta nie tylko daje nam odpowiedź, ale także zużywa energię i emituje dwutlenek węgla. Niezależnie od tego, o co zapytamy AI, zawsze wygeneruje ona odpowiedź. Aby to zrobić, system korzysta z tokenów. Tokeny składają się ze słów lub fragmentów słów, które są przekształcane w dane liczbowe, tak aby model AI mógł je przetwarzać – informuje portal scitechdaily.com.
Ten proces, wraz z obliczeniami, skutkuje emisją dwutlenku węgla (CO₂), co oznacza, że korzystanie z narzędzi AI wiąże się z istotnym śladem węglowym. Aby lepiej zrozumieć ten wpływ, badacze z Niemiec przeanalizowali i porównali emisje kilku wstępnie wytrenowanych dużych modeli językowych (LLM), korzystając ze spójnego zestawu pytań.
Czytaj więcej
Giganci technologiczni chcą budowy reaktorów jądrowych, aby zasilać swoje centra danych i sztuczną inteligencję.
– Wpływ środowiskowy zadawania pytań wytrenowanym LLM jest silnie uzależniony od ich podejścia do rozumowania, przy czym jawne procesy rozumowania znacząco zwiększają zużycie energii i emisję dwutlenku węgla – powiedział Maximilian Dauner, badacz z Hochschule München University of Applied Sciences i główny autor badania. – Odkryliśmy, że modele wspierające rozumowanie generowały nawet 50 razy więcej emisji CO₂ niż modele udzielające zwięzłych odpowiedzi – dodał.
Które modele AI dają większy ślad węglowy?
Zespół przetestował 14 różnych LLM, każdy o wielkości od 7 do 72 miliardów parametrów, z użyciem 1000 ustandaryzowanych pytań z różnych dziedzin. Parametry określają, w jaki sposób model uczy się i podejmuje decyzje.
Średnio modele nastawione na rozumowanie generowały 543,5 dodatkowych „tokenów myślowych” na pytanie, w porównaniu do zaledwie 37,7 tokenów w przypadku modeli dających krótkie odpowiedzi. Tokeny te to dodatkowa wewnętrzna treść generowana przez model, zanim wybierze ostateczną odpowiedź. Więcej tokenów oznacza zawsze wyższe emisje CO₂, ale nie zawsze przekłada się to na lepsze wyniki – informuje scitechdaily.com.
Najdokładniejszym modelem okazał się Cogito, wspierający rozumowanie i posiadający 70 miliardów parametrów, osiągając 84,9 proc. poprawnych odpowiedzi. Model ten wytworzył jednak trzykrotnie więcej emisji CO₂ niż podobnej wielkości modele generujące zwięzłe odpowiedzi.
Czytaj więcej
Związany z AI boom na centra danych generuje ogromny i gwałtownie rosnący popyt na energię elektryczną. Zabraknąć może prądu, a polityka klimatyczn...
Naukowcy odkryli, że żaden z modeli, które utrzymały emisję poniżej 500 gramów ekwiwalentu CO₂, nie przekroczył 80 proc. dokładności przy odpowiadaniu na 1000 pytań. Ekwiwalent CO₂ to jednostka używana do pomiaru wpływu klimatycznego różnych gazów cieplarnianych.
Tematy pytań również wpływały na poziom emisji. Pytania wymagające rozbudowanych procesów rozumowania, np. z algebry abstrakcyjnej czy filozofii, powodowały emisje nawet sześciokrotnie wyższe niż prostsze pytania, np. z historii na poziomie liceum.
Czytaj więcej
Technologiczni giganci niechętnie ujawniają dane, a lokalne społeczności i rolnicy coraz częściej czują się zagrożeni. Czy rewolucja AI doprowadzi...
Jak zadawać pytania bardziej ekologicznie?
Badacze są jednak zdania, że użytkownicy mogą znacząco ograniczyć emisje, prosząc AI o zwięzłe odpowiedzi lub ograniczając użycie modeli o dużej mocy do zadań, które rzeczywiście tego wymagają.
Wybór modelu także robi ogromną różnicę w emisjach CO₂. Na przykład, gdyby model DeepSeek R1 (70 miliardów parametrów) odpowiedział na 600 000 pytań, emisje CO₂ byłyby równe podróży w obie strony samolotem na trasie Londyn–Nowy Jork. Tymczasem Qwen 2.5 (72 miliardy parametrów) może odpowiedzieć na ponad trzy razy więcej pytań (ok. 1,9 mln) z podobną dokładnością, generując tyle samo emisji – informuje portal scitechdaily.com.