Na wpadce zaważyły niuanse – rzadko używane sformułowania, czy styl bardziej przypominający ponadprzeciętnie inteligentnego ucznia szkoły podstawowej, niż pełnoletnią osobę zdobywającą wiedzę na wyższej uczelni. Prof. Darren Hick ów przypadek opisał na Facebooku. Szybko na jego wpis zaczęli odpisywać nauczyciele akademiccy z innych szkół, dzieląc się podobnymi historiami i podejrzeniami względem uczniów i studentów.
Udowodnienie, że faktycznie zamiast człowieka pracę pisał algorytm, może być jednak trudne. Ale jest sposób na wykrycie oszustw. „Na szczęście ten sam zespół, który opracował ChatGPT, stworzył również GPT Detector. Narzędzie używa tych samych metod zarówno do pisania, jak i do analizowania tekstu” – napisał Hick w poście.
Czytaj więcej
Możliwości sztucznej inteligencji szokują – od ręki tworzy obrazy i pisze artykuły. Tak jak ten poniżej. Tak zaawansowane algorytmy, coraz powszechniej dostępne, to szansa, ale i zagrożenie.
GPT Detector odpowiada, jakie jest procentowo prawdopodobieństwo, iż dany materiał został opracowany przez AI lub człowieka. „Wiedziałem o detektorze i użyłem go do analizy próbek eseju studentki. Porównałem go z odpowiedziami innych uczniów” – opisuje swój przypadek profesor z Greenville.
Okazuje się, że powszechnie stosowane przez uczelnie programy antyplagiatowe mogą być bezradne wobec możliwości jakie daje stworzona przez OpenAI sztuczna inteligencja konwersacyjna. Chatbot – na podstawie informacji z sieci – jest bowiem w stanie tworzyć niepowtarzalne teksty na zadany temat. Bazując na danych z internetu może więc pisać nawet prace magisterskie, wyręczając studentów. ChatGPT w świecie akademickim niespodziewanie stał się wyzwaniem, a walka z wykorzystywaniem AI do oszustw na uczelniach zapowiada się na niezwykle trudną, a przyłapana studentka prof. Hicka może być jedynie kroplą w morzu podobnych oszustw.