Z tego artykułu dowiesz się:
- Jaką technologię rozwija start-up Yanna LeCuna?
- Czym różni się podejście AMI Labs do rozwoju sztucznej inteligencji od obecnych rozwiązań?
- W jakich sektorach planowane jest zastosowanie nowej technologii?
Francuski wizjoner sztucznej inteligencji i były główny naukowiec Mety ds. AI powraca do technologicznej gry z potężnym kapitałem. Jego nowy, mający siedzibę w Paryżu start-up Advanced Machine Intelligence (AMI Labs), ogłosił pozyskanie 1,03 mld dol. finansowania. Wycena spółki Yanna LeCuna sięgnęła 3,5 mld dol.
Czytaj więcej
Sztuczna inteligencja miała przynieść rewolucję w produktywności. Coraz częściej okazuje się jednak, że przynosi nieprzewidywalne zachowania i rosn...
Nowa AI ma rozumieć otoczenie
Jak donosi „Financial Times", gigantyczna runda inwestycyjna stanowi kluczowy test dla śmiałej tezy badawczej LeCuna. Naukowiec od dawna stanowczo przekonuje bowiem, że obecne, święcące dziś rynkowe triumfy duże modele językowe (LLM), są dalece niewystarczające, aby móc kiedykolwiek osiągnąć poziom ludzkiego rozumowania oraz pełnej autonomii operacyjnej. Serwis Wired pisze, że właśnie nadrzędnym celem AMI Labs jest udowodnienie, iż faktyczna droga do sztucznej inteligencji o ludzkich możliwościach wiedzie nie przez opanowanie słów i tekstów, lecz przez dogłębne zrozumienie fizycznego świata. Wśród globalnego grona prominentnych graczy, którzy uwierzyli w tę wizję i wyłożyli pieniądze, są m.in. Cathay Innovation, fundusz założyciela Amazona – Bezos Expeditions, singapurski Temasek, SBVA, fundusze Greycroft, Hiro Capital i HV Capital, a także amerykański hegemon rynku półprzewodników, czyli Nvidia.
Francuski start-up chce pokonać architektoniczne ograniczenia standardowych modeli sztucznej inteligencji – obecne podejście branży, opierające się w głównej mierze na przewidywaniu przez algorytm prawdopodobieństwa wystąpienia kolejnego słowa lub piksela, zdaniem założyciela firmy nigdy nie doprowadzi do stworzenia skutecznych, uniwersalnych agentów. Jak twierdzi, „poleganie wyłącznie na generowanych tekstach zamyka systemy w bańce ludzkiej twórczości lingwistycznej”, drastycznie zaniżając ich rynkowy potencjał. Zdaniem badacza, ignorowana jest zaś niewyobrażalna ilość informacji płynących z praw fizyki, dynamiki otoczenia i logiki przestrzeni.