„Wykrywacz” ChatGPT dla nauczycieli szwankuje. Uczniowie byli niewinni

Naukowcy opracowali system dla szkół, który ma rozpoznawać prace pisane przez algorytmy. Taki antyChatGPT od firmy Turnitin, w który wyposażono 2,1 mln nauczycieli w USA, zawiódł. To problem, bo karani mogą być niewinni uczniowie.

Publikacja: 05.04.2023 01:34

Nowatorskie narzędzie trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem

Nowatorskie narzędzie trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem

Foto: Adobe Stock

Aplikacja powstała, aby rozwiązać rosnący problem niesamodzielnego tworzenia prac domowych, esejów, czy prac rocznych. Wykładowcy mieliby wiedzieć, która praca została przygotowana przez ucznia, a która przez bota. System okazał się jednak zawodny i wskazał pracę napisaną przez amerykańską uczennicę Lucy Goetz jako tą stworzoną przez AI. Niewiele brakowało, by niewinna osoba została posądzona o nieuczciwe praktyki i ukarana.

Czytaj więcej

Studentka przyłapana na korzystaniu z ChatGPT. Jest sposób na oszustwa

Nowatorskie narzędzie, które trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem, pod lupę wziął „Washington Post”. Sprawdził jak działają detektory, w tym ten wykorzystywany w Concord High School w Kalifornii. To właśnie on dopuścił się istotnej pomyłki. Lucy Goetz otrzymała od nauczycieli najwyższą możliwą ocenę z eseju o socjalizmie, ale technologia firmy Turnitin uznała, że dziewczyna korzystała z pomocy sztucznej inteligencji. Oskarżenie o oszustwo to poważna sprawa, zwłaszcza że werdykt wydaje algorytm. Pomyłka AI może mieć potencjalnie katastrofalne konsekwencje dla uczniów. Z drugiej strony „to kluczowy moment dla nauczycieli, bo jeśli zignorują sztuczną inteligencję, oszustwa mogą przybrać na sile” – ostrzega „Washington Post”

W firmy Turnitin uważają, że traktowanie AI jako wroga edukacji na dłuższą metę to błąd. Wykorzystywanie anty-ChatGPT nie rozwiąże problemu. Eksperci zwracają uwagę, że zakazywanie używania botów ma tyle samo sensu, co próba zakazania kalkulatorów.

Czytaj więcej

Chatbot ChatGPT ma zaskakującą piętę achillesową. Popełnia dramatyczne błędy

Testy systemu Turnitin prowadzone przez dziennikarzy „Washington Post” pokazały, że AI myliła się w sześciu na 16 prób. Detektor skonfigurowano tak, by identyfikował, kiedy pisany tekst jest „zbyt konsekwentnie przeciętny”. Eksperci cytowani przez „Washington Post” mają wątpliwości, czy tworzenie wykrywaczy AI ma sens. Przekonują, iż wszelkie próby detekcji prowadzą tylko do „wyścigu zbrojeń” z oszustami. - Sztuczna inteligencja będzie coraz lepsza i będzie pisać w sposób coraz bardziej podobny stylem do człowieka - zaznacza Jim Fan, naukowiec zajmujący się sztuczną inteligencją w Nvidii.

IT
Rosja zakłóci wybory prezydenckie w Polsce? Ma nową broń
Materiał Promocyjny
Gospodarka natychmiastowości to wyzwanie i szansa
IT
Jest potwierdzenie potężnego ataku hakerskiego na polską firmę. Czy dane są bezpieczne?
IT
Polska objęta restrykcjami. USA ograniczą eksport najnowszych chipów
IT
Powrót bonanzy informatyków? Tyle mogą zarobić pracownicy IT
Materiał Promocyjny
Suzuki Vitara i S-Cross w specjalnie obniżonych cenach. Odbiór od ręki
IT
Jest skuteczny sposób na zagłuszanie sygnału GPS przez Rosję. Podejrzano wieloryby
Materiał Promocyjny
Wojażer daje spokój na stoku