Wykładowca na Deakin University w Australii Sally Brandon wykryła użycie inteligentnych botów w przypadku prawie jednej piątej prac, wywołując obawy, że wykorzystanie sztucznej technologii do oszukiwania na egzaminach jest powszechne. Spośród 54 letnich prac podyplomowych, które oceniała Sally Brandon, 10 miało „znaczącą, wykrywalną pomoc bota”. Do wykrycia udziału bota wykorzystała specjalne oprogramowanie – pisze „The Guardian.

ChatGPT – najnowszy chatbot – wywołał zamieszanie ze względu na wyjątkowe możliwości i jego zdolność do unikania prostych narzędzi do wykrywania tej praktyki. Oprogramowaniu używanemu przez Sally Brandon udało się jednak wykrywać pomoc botów AI, które pomagają napisać czy ulepszyć tekst. Brandon czeka teraz na potwierdzenie, czy wyniki jej detektora botów będą kwalifikowane jako formalne naruszenie uczciwości akademickiej. - AI wciąż się uczy, a im więcej się nim bawimy, tym więcej się uczy - powiedziała.

Czytaj więcej

Studentka przyłapana na korzystaniu z ChatGPT. Jest sposób na oszustwa

Z kolei dr Anna Bunn, starszy wykładowca prawa na Curtin University, powiedziała, że chatbot zrewolucjonizuje edukację, ale wydaje się być bardziej dokładny w odpowiedziach skoncentrowanych na USA. Kiedy poprosiła sztuczną inteligencję o odpowiedź na pytanie dotyczące specyficznej kwestii dla prawa australijskiego, pojawiły się nieścisłości a nawet zmyślone odniesienia. Poprosiła też ChatGPT o opisanie niedawnej sprawy Sądu Najwyższego w sprawie aborcji w USA. Obecny zbiór danych, na podstawie którego ChatGPT jest szkolony, wygasa po 2021 r., jeszcze przed czasem wydania orzeczenia. Chatbot przeprosił i powiedział, że nie może znaleźć żadnego przypadku.

- To zrewolucjonizuje też sposób, w jaki oceniamy uczniów. Będę starała się zwiększyć liczbę ocen ustnych – powiedziała Anna Bunn.

„The Guardian” poprosił też o opinie innych nauczycieli akademickich i badaczy. Dilan Thampapillai, prodziekan w szkole biznesu University of NSW, próbował kilku wyszukiwań za pomocą chatbota, a także odkrył, że ma on błędne informacje w wielu wynikach. ChatGPT obecnie nie ma dostępu do wyszukiwarek takich jak Google, zamiast tego czerpie informacje ze stron akademickich, w tym Trove.

Czytaj więcej

Nowe algorytmy twórców ChatGPT grożą falą oszustw. Spreparują każdy głos

Inne podobne oprogramowanie, w tym ChatSonic, może wykorzystywać dane Google na żywo w swoich odpowiedziach. - Jeśli uzyska pełny dostęp do Internetu, bez ograniczeń, może stać się poważnym problemem dla prywatności - powiedział Thampapillai. - Może również skończyć się rozpowszechnianiem fałszywych informacji, ponieważ wydaje się, że ma problem z błędną identyfikacją".

Producent cyfrowy Beep Media, Andrew Wrathall, poprosił bota o napisanie eseju na temat pojawienia się komety Halleya w regionalnej Wiktorii. Odkrył, że chatbot sfabrykował referencje z akademickiej strony internetowej Trove i odwołał się do fałszywych cytatów z lokalnej gazety zaczerpniętych z innych gazet i artykułów.

Informatyk i profesor nadzwyczajny Curtin University, Nik Thompson, powiedział, że ChatGPT celował w generowaniu spójnych odpowiedzi na proste podpowiedzi - takie jak krótkie raporty - ale nadal nie miał zdolności krytycznego myślenia i analizy.