Projekt prowadzony przez Brendana Lake'a, psychologa z Uniwersytetu Nowojorskiego, opisuje dziennik „The New York Times". Bierze w nim udział również niemal 2-letnia córka naukowca, Luna. Jak opisuje badacz, w projekcie chodzi o zrozumienie, jak dochodzi do momentu, gdy zaczynamy rozumieć, że to samo słowo może mieć różne znaczenia. Niektórzy naukowcy argumentują, że większość nauki języka można wyjaśnić uczeniem skojarzeniowym, ponieważ wiążemy dźwięki z wrażliwością, podobnie jak psy kojarzą dźwięk dzwonka z jedzeniem. Inni twierdzą, że w ludzki umysł wbudowane są cechy, które ukształtowały formy wszystkich języków i są kluczowe dla naszej nauki.
Niemowlę z kamerą na głowie
Przez ostatnie 11 miesięcy co tydzień przez godzinę dr Lake, którego badania koncentrują się na człowieku i sztucznej inteligencji, podłączał Lunie ma głowie kamerkę GoPro i podczas zabawy nagrywał wszystko z jej punktu widzenia. Jego celem jest wykorzystanie filmów do szkolenia modelu językowego przy użyciu tych samych bodźców zmysłowych, z którymi styka się małe dziecko. W ten sposób chce stworzyć lepsze narzędzia dla sztucznej inteligencji. Dzięki filmom z kamery Luny dr Lake ma nadzieję wytrenować model językowy, korzystając z tych samych danych, z którymi styka się małe dziecko.
Czytaj więcej
Mimo rosnącej konkurencji w zakresie generatywnej sztucznej inteligencji twórcy ChatGPT okopują się na pozycji dominatora w branży. Ogłosili pakiet nowych rozwiązań. Chodzi m.in. o aplikację ChatGPT na komputery Mac, czy o darmowy system GPT-4.
Dziennik „NYT" zauważa, że nowoczesne modele językowe i multimodalne — takie jak GPT-4 OpenAI i Gemini firmy Google — są montowane w sieciach neuronowych o niewielkiej wbudowanej strukturze i zostały ulepszone głównie w wyniku zwiększonej mocy obliczeniowej i większych zbiorów danych szkoleniowych. Najnowszy model dużego języka Meta, Llama 3, jest uczony na ponad dziesięciu bilionach słów, tymczasem przeciętny pięciolatek ma kontakt z ponad 300 tys. słów.
Takie modele mogą analizować piksele na obrazach, ale nie są w stanie poczuć smaku sera ani jagód ani odczuwać głodu, co jest ważnym rodzajem doświadczeń edukacyjnych dla dzieci. Badacze mogą dołożyć wszelkich starań, aby zamienić pełny strumień zmysłów dziecka w kod, ale kluczowe aspekty zostaną pominięte. - To, co widzimy, to jedynie pozostałość po aktywnym uczeniu – mówi Michael Frank, psycholog ze Stanford, który od lat próbuje uchwycić przed kamerą ludzkie doświadczenia. Jego laboratorium współpracuje obecnie z ponad 25 dziećmi, w tym z Luną, aby rejestrować ich doświadczenia w domu i w otoczeniu społecznym.