„Wykrywacz” ChatGPT dla nauczycieli szwankuje. Uczniowie byli niewinni

Naukowcy opracowali system dla szkół, który ma rozpoznawać prace pisane przez algorytmy. Taki antyChatGPT od firmy Turnitin, w który wyposażono 2,1 mln nauczycieli w USA, zawiódł. To problem, bo karani mogą być niewinni uczniowie.

Publikacja: 05.04.2023 01:34

Nowatorskie narzędzie trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem

Nowatorskie narzędzie trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem

Foto: Adobe Stock

Aplikacja powstała, aby rozwiązać rosnący problem niesamodzielnego tworzenia prac domowych, esejów, czy prac rocznych. Wykładowcy mieliby wiedzieć, która praca została przygotowana przez ucznia, a która przez bota. System okazał się jednak zawodny i wskazał pracę napisaną przez amerykańską uczennicę Lucy Goetz jako tą stworzoną przez AI. Niewiele brakowało, by niewinna osoba została posądzona o nieuczciwe praktyki i ukarana.

Czytaj więcej

Studentka przyłapana na korzystaniu z ChatGPT. Jest sposób na oszustwa

Nowatorskie narzędzie, które trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem, pod lupę wziął „Washington Post”. Sprawdził jak działają detektory, w tym ten wykorzystywany w Concord High School w Kalifornii. To właśnie on dopuścił się istotnej pomyłki. Lucy Goetz otrzymała od nauczycieli najwyższą możliwą ocenę z eseju o socjalizmie, ale technologia firmy Turnitin uznała, że dziewczyna korzystała z pomocy sztucznej inteligencji. Oskarżenie o oszustwo to poważna sprawa, zwłaszcza że werdykt wydaje algorytm. Pomyłka AI może mieć potencjalnie katastrofalne konsekwencje dla uczniów. Z drugiej strony „to kluczowy moment dla nauczycieli, bo jeśli zignorują sztuczną inteligencję, oszustwa mogą przybrać na sile” – ostrzega „Washington Post”

W firmy Turnitin uważają, że traktowanie AI jako wroga edukacji na dłuższą metę to błąd. Wykorzystywanie anty-ChatGPT nie rozwiąże problemu. Eksperci zwracają uwagę, że zakazywanie używania botów ma tyle samo sensu, co próba zakazania kalkulatorów.

Czytaj więcej

Chatbot ChatGPT ma zaskakującą piętę achillesową. Popełnia dramatyczne błędy

Testy systemu Turnitin prowadzone przez dziennikarzy „Washington Post” pokazały, że AI myliła się w sześciu na 16 prób. Detektor skonfigurowano tak, by identyfikował, kiedy pisany tekst jest „zbyt konsekwentnie przeciętny”. Eksperci cytowani przez „Washington Post” mają wątpliwości, czy tworzenie wykrywaczy AI ma sens. Przekonują, iż wszelkie próby detekcji prowadzą tylko do „wyścigu zbrojeń” z oszustami. - Sztuczna inteligencja będzie coraz lepsza i będzie pisać w sposób coraz bardziej podobny stylem do człowieka - zaznacza Jim Fan, naukowiec zajmujący się sztuczną inteligencją w Nvidii.

Aplikacja powstała, aby rozwiązać rosnący problem niesamodzielnego tworzenia prac domowych, esejów, czy prac rocznych. Wykładowcy mieliby wiedzieć, która praca została przygotowana przez ucznia, a która przez bota. System okazał się jednak zawodny i wskazał pracę napisaną przez amerykańską uczennicę Lucy Goetz jako tą stworzoną przez AI. Niewiele brakowało, by niewinna osoba została posądzona o nieuczciwe praktyki i ukarana.

Nowatorskie narzędzie, które trafiło do niemal 11 tys. szkół średnich i wyższych za oceanem, pod lupę wziął „Washington Post”. Sprawdził jak działają detektory, w tym ten wykorzystywany w Concord High School w Kalifornii. To właśnie on dopuścił się istotnej pomyłki. Lucy Goetz otrzymała od nauczycieli najwyższą możliwą ocenę z eseju o socjalizmie, ale technologia firmy Turnitin uznała, że dziewczyna korzystała z pomocy sztucznej inteligencji. Oskarżenie o oszustwo to poważna sprawa, zwłaszcza że werdykt wydaje algorytm. Pomyłka AI może mieć potencjalnie katastrofalne konsekwencje dla uczniów. Z drugiej strony „to kluczowy moment dla nauczycieli, bo jeśli zignorują sztuczną inteligencję, oszustwa mogą przybrać na sile” – ostrzega „Washington Post”

2 / 3
artykułów
Czytaj dalej. Subskrybuj
IT
Dassault Systèmes prezentuje koncepcję Przemysłu 4.0 na żywo razem z Bosch Rexroth Polska
IT
Wyjątkowo zuchwałe przestępstwo w Szczecinie. Haker pobierał pieniądze za parkowanie
IT
Zimna wojna w cyberprzestrzeni zmusza do wzmacniania ochrony
IT
Nowi królowie IT. Już nie programiści czy developerzy zarabiają najwięcej
IT
Lawinowo przybywa programistów na swoim. Mają bardzo niepewną przyszłość