Bilion dolarów wartości zyskało łącznie 10 największych startupów AI, mimo że żadna z tych firm nie wygenerowała jeszcze zysku. Tak przynajmniej wynika z raportu „Financial Times”, który porównuje obecną gorączkę sztucznej inteligencji do szalonego rynku z czasów bańki dot-comów z lat 90. Wzrost wycen jest oszałamiający: firmy takie jak OpenAI, Anthropic czy Cohere są wyceniane na dziesiątki miliardów dolarów, choć ich produkty nie dostarczyły tzw. „killer app” – aplikacji, która mogłaby znacząco zmienić rynek lub codzienne życie użytkowników. Powoduje to, że co chwila pojawiają się kolejne ostrzeżenia ekspertów.
Matka wszystkich baniek
Julien Garran, partner w brytyjskiej firmie MacroStrategy Partnership, idzie najdalej: twierdzi, że obecna bańka AI jest 17 razy większa niż bańka dot-comów i cztery razy większa niż kryzys nieruchomości w 2008 r. W swoim raporcie z początku października, który odbił się głośnym echem, zwrócił uwagę na nieefektywne inwestowanie pieniędzy w USA, czyli finansowanie firm głównie na podstawie oczekiwań i hype’u, a nie realnej użyteczności ich produktów. W efekcie, jego zdaniem, obecna bańka jest 17 razy większa od bańki internetowej z końca lat 90. i cztery razy większa niż bańka na rynku nieruchomości w 2008 r.
Czytaj więcej
Wyceny firm AI biją kolejne rekordy, mimo że zyski wciąż pozostają w sferze obietnic. Instytucje...
Dlaczego tak się dzieje? Garran udzielił właśnie wywiadu CNN, w którym udowadnia swoją tezę i tłumaczy wyliczenia. Jego zdaniem problemem jest sposób budowania modeli AI, zwłaszcza dużych modeli językowych (LLM, Large Language Models). Te systemy uczą się na gigantycznych zbiorach danych, analizując prawdopodobieństwo, z jakim słowa występują po sobie. Choć jest to imponująca technologia, w praktyce ogranicza się głównie do przewidywania tekstu i powielania już istniejących schematów kodu. – Modele te nie tworzą nic naprawdę nowego. Nie ma tu przełomowych aplikacji, które mogłyby napędzać gospodarkę – wyjaśnia Garran.
Innym problemem jest skala. Rozwijanie kolejnych wersji modeli wymaga ogromnych nakładów na sprzęt i energię, a tempo postępu technologicznego nie rośnie proporcjonalnie do wydatków. Od czasu premiery ChatGPT-4 w marcu 2023 r. kolejne wersje modeli nie podniosły znacząco poprzeczki w praktycznej użyteczności.