Naukowcy Víctor López-Pastor i Florian Marquardt z Instytutu Nauk o Świetle Maxa Plancka w Erlangen w Niemczech opracowali metodę bardziej wydajnego szkolenia sztucznej inteligencji. Ich metoda wykorzystuje procesy fizyczne charakterystyczne dla ludzkiego mózgu.
Open AI, firma odpowiedzialna za rozwój GPT, technologii napędzającej ChatGPT, nie ujawniła ilości energii potrzebnej do wyszkolenia tego zaawansowanego chatbota AI. Według niemieckiej firmy statystycznej Statista wymagałoby to 1000 megawatogodzin – czyli tyle, ile zużywa rocznie około 200 gospodarstw domowych składających się z trzech lub więcej osób. Chociaż ten wydatek na energię pozwolił AI dowiedzieć się, czy w zbiorach danych po słowie „głębokie” częściej występuje słowo „morze” czy „uczenie się”, to jednak nie zrozumiał on podstawowego znaczenia tych zwrotów.
Przetwarzanie neuromorficzne nadzieją AI
Aby zmniejszyć zużycie energii przez komputery, a zwłaszcza aplikacje AI, w ciągu ostatnich kilku lat kilka instytutów badawczych analizuje zupełnie nową koncepcję przyszłego przetwarzania danych przez komputery. Koncepcja ta znana jest jako przetwarzanie neuromorficzne. Oznacza to, że oprogramowanie, a dokładniej algorytm, wzorowany jest na sposobie pracy ludzkiego mózgu, ale sprzętem są komputery cyfrowe. Wykonują kolejno, jeden po drugim, etapy obliczeń sieci neuronowej, rozróżniając procesor i pamięć.
Czytaj więcej
Szwajcarski start-up FinalSpark buduje procesory wykorzystujące żywe neurony pochodzące z ludzkie...
Ludzki mózg prawdopodobnie nigdy nie byłby ewolucyjnie konkurencyjny, gdyby pracował z wydajnością energetyczną podobną do komputerów z tranzystorami krzemowymi. Najprawdopodobniej szybko doszłoby do awarii z powodu przegrzania. Jednak mózg charakteryzuje się tym, że liczne etapy procesu myślowego wykonuje równolegle, a nie sekwencyjnie. Komórki nerwowe, a dokładniej synapsy, są jednocześnie procesorem i pamięcią. Naukowcy postanowili więc stworzyć neuromorficzny komputer pracujący jak ludzi mózg.