W czasie eksperymentu trzej ochotnicy – leżąc w skanerze rezonansu magnetycznego (fMRI) - słuchali 16 godzin podkastów. W tym czasie urządzenie rejestrowało aktywność mózgów ochotników. Następnie naukowcy rejestrowali aktywność MRI, gdy słuchali historii lub oglądali film, który nie zawierał dialogów.
Mierząc przepływ krwi przez ich mózgi i integrując te informacje ze szczegółami historii, których słuchali, oraz zdolnością LLM (Large Language Models) do zrozumienia, w jaki sposób słowa odnoszą się do siebie, naukowcy opracowali mapę tego, jak mózg każdej osoby reaguje na różne słowa i frazy. To ogromny postęp, ponieważ dotychczas do badania fal mózgu potrzebne były wszczepiane w niego elektrody, a korzystająca z wynalazku osoba nie była ograniczona do wcześniej ustalonej listy ze słowami.
— Dla nieinwazyjnych metod to prawdziwy skok w porównaniu do tego, co udawało się osiągać wcześniej, czyli zwykle czytanie pojedynczych słów lub krótkich zdań – uważa prof. Alex Huth, autor publikacji w piśmie "Nature Neuroscience". — Nasz model dekoduje długą i ciągłą mowę dotyczącą skomplikowanych tematów – podkreśla.
Czytaj więcej
Peter Diamandis, guru technologiczny i twórca X Prize Foundation uważa, że już w ciągu dekady można spodziewać się łączności o dużej przepustowości między mózgiem a chmurą. Elon Musk, twórca Neuralink: To stanie się szybciej.
Na razie komputer w miarę precyzyjnie odczytuje myśli w ok. 50 proc. Potrafi jednak często oddać sens wypowiedzi. Dekoder generował zdania, które oddawały istotę tego, o czym myślała dana osoba, np. zdanie „Nie mam jeszcze prawa jazdy” zostało rozszyfrowane jako „ona nawet nie zaczęła jeszcze uczyć się prowadzić”. I dość dokładnie opisał to, co ludzie widzieli w filmach. System radził sobie także z czytaniem myśli ochotników, kiedy oglądali materiały wideo.