„Wykrywacz” ChatGPT dla nauczycieli szwankuje. Uczniowie byli niewinni

Naukowcy opracowali system dla szkół, który ma rozpoznawać prace pisane przez algorytmy. Taki antyChatGPT od firmy Turnitin, w który wyposażono 2,1 mln nauczycieli w USA, zawiódł. To problem, bo karani mogą być niewinni uczniowie.

Publikacja: 05.04.2023 01:34

Nowatorskie narzędzie trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem

Nowatorskie narzędzie trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem

Foto: Adobe Stock

Aplikacja powstała, aby rozwiązać rosnący problem niesamodzielnego tworzenia prac domowych, esejów, czy prac rocznych. Wykładowcy mieliby wiedzieć, która praca została przygotowana przez ucznia, a która przez bota. System okazał się jednak zawodny i wskazał pracę napisaną przez amerykańską uczennicę Lucy Goetz jako tą stworzoną przez AI. Niewiele brakowało, by niewinna osoba została posądzona o nieuczciwe praktyki i ukarana.

Czytaj więcej

Studentka przyłapana na korzystaniu z ChatGPT. Jest sposób na oszustwa

Nowatorskie narzędzie, które trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem, pod lupę wziął „Washington Post”. Sprawdził jak działają detektory, w tym ten wykorzystywany w Concord High School w Kalifornii. To właśnie on dopuścił się istotnej pomyłki. Lucy Goetz otrzymała od nauczycieli najwyższą możliwą ocenę z eseju o socjalizmie, ale technologia firmy Turnitin uznała, że dziewczyna korzystała z pomocy sztucznej inteligencji. Oskarżenie o oszustwo to poważna sprawa, zwłaszcza że werdykt wydaje algorytm. Pomyłka AI może mieć potencjalnie katastrofalne konsekwencje dla uczniów. Z drugiej strony „to kluczowy moment dla nauczycieli, bo jeśli zignorują sztuczną inteligencję, oszustwa mogą przybrać na sile” – ostrzega „Washington Post”

W firmy Turnitin uważają, że traktowanie AI jako wroga edukacji na dłuższą metę to błąd. Wykorzystywanie anty-ChatGPT nie rozwiąże problemu. Eksperci zwracają uwagę, że zakazywanie używania botów ma tyle samo sensu, co próba zakazania kalkulatorów.

Czytaj więcej

Chatbot ChatGPT ma zaskakującą piętę achillesową. Popełnia dramatyczne błędy

Testy systemu Turnitin prowadzone przez dziennikarzy „Washington Post” pokazały, że AI myliła się w sześciu na 16 prób. Detektor skonfigurowano tak, by identyfikował, kiedy pisany tekst jest „zbyt konsekwentnie przeciętny”. Eksperci cytowani przez „Washington Post” mają wątpliwości, czy tworzenie wykrywaczy AI ma sens. Przekonują, iż wszelkie próby detekcji prowadzą tylko do „wyścigu zbrojeń” z oszustami. - Sztuczna inteligencja będzie coraz lepsza i będzie pisać w sposób coraz bardziej podobny stylem do człowieka - zaznacza Jim Fan, naukowiec zajmujący się sztuczną inteligencją w Nvidii.

IT
Oto nowa elita IT. Mocno tracą programiści, kto zyskuje?
IT
Awans w świecie nowych technologii
IT
Jarosław Mikos został prezesem Comarchu
IT
Małe i średnie firmy mają do odrobienia lekcję z AI. Polska w ogonie Europy
IT
Uwaga na gumowe uszy big techów. Smartfon podsłuchuje rozmowy i podrzuca reklamę
Materiał Promocyjny
Raportowanie zrównoważonego rozwoju - CSRD/ESRS w praktyce