Superkomputery AI, które w przyszłości będą w stanie, w ciągu paru chwil, projektować nowe leki, to niewątpliwie technologiczny przełom. Stworzenie takich systemów wiąże się jednak z kosztami i to potężnymi. Eksperci sądzą, że z ich dużą częścią będziemy musieli zmierzyć się jeszcze w tej dekadzie.
Dlaczego rosną koszty i potrzeby AI oraz superkomputerów?
A tempo wzrostu tych kosztów infrastrukturalnych, na cele trenowania i zasilania AI, rośnie zawrotnie. Między 2019 a 2025 r. koszty sprzętu i zużycia energii w wiodących centrach danych AI podwajały się co roku. Jeśli ta wykładnicza tendencja się utrzyma, w 2030 r. pojedynczy superkomputer AI może mieścić aż dwa miliony chipów, kosztować obłędne 200 mld dol., a do tego zużywać aż 9 gigawatów mocy. To tyle, ile generuje dziewięć reaktorów jądrowych! Taka moc mogłaby zasilić w prąd od 7 do 9 mln domów.
Czytaj więcej
Superkomputer ma zasilać następne wersje chatbota AI Grok, który rzucił wyzwanie m.in. ChatGPT Op...
Choć efektywność energetyczna centrów danych rośnie (zwiększyła się ona 1,34 razy w skali roku w latach 2019-2025), to i tak nie wystarcza, by powstrzymać lawinowy wzrost zapotrzebowania na energię. Zapotrzebowanie to, w ciągu ostatnich sześciu lat, rosło bowiem dwa razy szybciej. Już teraz najpotężniejszy superkomputer AI, Colossus od xAI, zbudowany w 214 dni (kosztem 7 mld dol.), zużywa 300 megawatów energii (równa się to zapotrzebowaniu 250 tys. gospodarstw domowych). A trend ten będzie tylko przybierał na sile. W dodatku koszty rozwoju mają nie tylko związek z chipami i energią. Do tego dochodzą kwestie odbijające na środowisku – centra danych zużywają bowiem olbrzymie ilości wody i zajmują rozległe tereny, obciążając lokalne ekosystemy.
Czytaj więcej
Giganci technologiczni chcą budowy reaktorów jądrowych, aby zasilać swoje centra danych i sztuczn...