Materiał powstał podczas Research@ Poland

Kieruje pani w Google zespołem ds. pedagogiki. Jak integrujecie zasady nauczania w projektowanie narzędzi sztucznej inteligencji (AI) do nauki?

Nasza rola jest kluczowa – działamy jako strażnik i łącznik między badaniami a rozwojem produktu. Ten proces działa w dwóch kierunkach. Po pierwsze, starannie analizujemy i wykorzystujemy najlepsze badania z dziedziny nauk o uczeniu się, psychologii, kognitywistyki, neuronauki oraz samej pedagogiki. Tę zweryfikowaną wiedzę przekazujemy następnie naszym zespołom zajmującym się opracowywaniem produktów. Po drugie, oceniamy jakość naszych gotowych produktów i sprawdzamy, w jaki sposób realnie przyczyniają się one do osiągania lepszych wyników w nauce. Prowadzimy rygorystyczne, krótko- i długoterminowe badania naukowe w zakresie nauk o uczeniu się, aby upewnić się, że korzystanie z naszych narzędzi faktycznie prowadzi do postępu w nauce.

Foto: Mat. prasowe

Jakie błędy mogą popełniać zespoły zajmujące się technologiami, opracowując te narzędzia bez angażowania pedagogów?

Pracuję z wieloma wspaniałymi inżynierami, menedżerami produktu i projektantami, którzy mają szczere i dobre intencje wobec edukacji. Myślę, że największym i najczęstszym błędem, jaki obserwuję, jest to, że zespoły te zazwyczaj koncentrują się na przekazywaniu informacji, zamiast pozwolić uczniom na samodzielne dochodzenie do wiedzy i szukanie jej na bazie tych informacji. Wiemy z badań, że aktywne uczenie się jest absolutnie kluczowe dla utrwalania połączeń w mózgu. Tymczasem samo prowadzenie wykładu, pokazywanie filmów czy zlecanie przeczytania książki, choć jest to najłatwiejszy sposób przekazywania wiedzy, nie jest najskuteczniejszym sposobem uczenia się.

Foto: Mat. prasowe

A więc potrzebna jest informacja zwrotna. W jaki sposób można mierzyć, czy narzędzia oparte na AI faktycznie poprawiają wyniki nauczania?

To bardzo istotne pytanie. Mamy wiele sposobów oceny. Idealnym rozwiązaniem byłoby przeprowadzenie długoterminowego, rzetelnego badania z grupą kontrolną i eksperymentalną – gdzie jedna korzysta z narzędzia, a druga nie. Mierzymy wtedy postępy na początku, w trakcie i na końcu procesu. To jest jednak ogromnie trudne i czasochłonne, ponieważ aby takie badania były miarodajne, muszą trwać nawet sześć miesięcy do roku.

Dlatego prowadzimy również badania krótkoterminowe, trwające około miesiąca. W ich ramach przeprowadzamy test wstępny, udostępniamy uczestnikom narzędzie AI, a następnie test końcowy. Sprawdzamy nie tylko, czy uczestnicy zrozumieli informacje, ale też czy potrafią je zastosować ponownie po tygodniu. Prowadzimy też jeszcze krótsze badania, gdzie eksperci pedagogiczni i nauczyciele oceniają jakość naszych produktów i stwierdzają: „Tak, to narzędzie wykorzystuje doskonałe zasady pedagogiczne i prawdopodobnie przyczyni się do poprawy wyników”.

Foto: Mat. prasowe

W najkrótszej perspektywie czasowej wykorzystujemy automatyczne oceny. Przeszkoliliśmy duże modele językowe, aby pełniły rolę recenzentów. Zdefiniowaliśmy dla nich pięć kluczowych elementów pedagogicznych, które zwiększają prawdopodobieństwo postępów w nauce. Dzięki temu możemy przeprowadzić ocenę bardzo szybko i na szeroką skalę, weryfikując wyniki z eksperckimi recenzjami.

To spójrzmy w dłuższej perspektywie. Czy w pani ocenie narzędzia sztucznej inteligencji mogą sprawić, że edukacja na całym świecie stanie się bardziej inkluzywna?

Tak, jestem bardzo optymistyczna, jeśli chodzi o możliwości, jakie sztuczna inteligencja stwarza w zakresie poprawy jakości edukacji. Uważam, że nauczyciele powinni być pionierami w wykorzystywaniu AI – do lepszego zrozumienia swoich uczniów, do tworzenia nowych metod oceny oraz do opracowywania nowych, bardziej interdyscyplinarnych zadań, łączących na przykład matematykę z naukami ścisłymi lub historię z matematyką. Najbardziej cieszy mnie jednak możliwość wykorzystania AI do podniesienia jakości praktyki dydaktycznej, a zwłaszcza do dokładniejszej i bardziej spersonalizowanej oceny naszych uczniów.

Materiał powstał podczas Research@ Poland