Za każdym razem, gdy zadajemy pytanie sztucznej inteligencji, ta nie tylko daje nam odpowiedź, ale także zużywa energię i emituje dwutlenek węgla. Niezależnie od tego, o co zapytamy AI, zawsze wygeneruje ona odpowiedź. Aby to zrobić, system korzysta z tokenów. Tokeny składają się ze słów lub fragmentów słów, które są przekształcane w dane liczbowe, tak aby model AI mógł je przetwarzać – informuje portal scitechdaily.com.
Ten proces, wraz z obliczeniami, skutkuje emisją dwutlenku węgla (CO₂), co oznacza, że korzystanie z narzędzi AI wiąże się z istotnym śladem węglowym. Aby lepiej zrozumieć ten wpływ, badacze z Niemiec przeanalizowali i porównali emisje kilku wstępnie wytrenowanych dużych modeli językowych (LLM), korzystając ze spójnego zestawu pytań.
Czytaj więcej
Giganci technologiczni chcą budowy reaktorów jądrowych, aby zasilać swoje centra danych i sztuczn...
– Wpływ środowiskowy zadawania pytań wytrenowanym LLM jest silnie uzależniony od ich podejścia do rozumowania, przy czym jawne procesy rozumowania znacząco zwiększają zużycie energii i emisję dwutlenku węgla – powiedział Maximilian Dauner, badacz z Hochschule München University of Applied Sciences i główny autor badania. – Odkryliśmy, że modele wspierające rozumowanie generowały nawet 50 razy więcej emisji CO₂ niż modele udzielające zwięzłych odpowiedzi – dodał.
Które modele AI dają większy ślad węglowy?
Zespół przetestował 14 różnych LLM, każdy o wielkości od 7 do 72 miliardów parametrów, z użyciem 1000 ustandaryzowanych pytań z różnych dziedzin. Parametry określają, w jaki sposób model uczy się i podejmuje decyzje.