Reklama

„Najgorsze, co widziałem”. Naukowcy biją na alarm: AI wywołało kryzys uczciwości

Sztuczna inteligencja nie tylko zmienia sposób nauki i pracy, ale też nasze zachowania. Badania pokazują, że ludzie czterokrotnie częściej decydują się na nieuczciwość, gdy mogą polegać na AI. Globalny kryzys uczciwości szczególnie mocno uderza w edukację i młode pokolenie.

Publikacja: 20.09.2025 20:34

Ludzie są czterokrotnie bardziej skłonni do oszukiwania, gdy używają systemów AI

Ludzie są czterokrotnie bardziej skłonni do oszukiwania, gdy używają systemów AI

Foto: AdobeStock

Z tego artykułu dowiesz się:

  • Jak sztuczna inteligencja wpływa na skłonność do nieuczciwego zachowania?
  • Jakie są reakcje nauczycieli i instytucji edukacyjnych na wzrost wykorzystania AI?
  • Jakie moralne i etyczne pytania rodzi delegowanie decyzji na maszyny?

Sztuczna inteligencja fundamentalnie zaburza procesy edukacyjne w szkołach i na uniwersytetach, prowadząc do kryzysu, który nauczyciele określają jako największy od dekad. Problem zmusza instytucje do całkowitej rewizji metod oceny pracy studentów. Badania wskazują, że aż 89 proc. uczniów przyznaje się do korzystania z ChatGPT przy odrabianiu zadań domowych, a co piąty uczeń deklaruje, że używa chatbotów do pisania całych prac lub zadań.

„To najgorsze , co widziałem”

Sytuację dosadnie podsumował Casey Cuny, kalifornijski Nauczyciel Roku 2024: „Oszukiwanie osiągnęło niespotykaną skalę. To najgorsze, co widziałem w całej mojej karierze”.

To jego reakcja na falę incydentów m.in. na uczelniach wyższych. Np. na Uniwersytecie Lincolna w Nowej Zelandii ponad 120 studentów studiów podyplomowych z finansów musiało powtórzyć egzaminy, gdy wykładowcy nabrali podejrzeń co do szerokiego wykorzystania AI w zadaniach programistycznych. Aby uniknąć oszustw studenci muszą teraz przeprowadzać sesje kodowania na żywo, ustnie wyjaśniając swoje działania. Z kolei profesorowie z Uniwersytetu w Yorku, Leo McCann i Simon Sweeney, alarmowali w liście do „Guardiana”, że generatywna AI „osłabia proces edukacyjny, omija głębokie myślenie i analizę krytyczną oraz odciąga studentów od pracy z oryginalnymi tekstami”. Profesor Jure Leskovec ze Stanfordu zaobserwował wśród studentów coś, co nazwał egzystencjalnym kryzysem. Chodziło o zjawisko, w którym wielu z nich zaczęło kwestionować swoją rolę w świecie zdominowanym przez AI. Wykładowca zdecydował się w obliczu takich zachowań na powrót do egzaminów pisemnych na papierze.

Czytaj więcej

Nowy nałóg wśród młodych. Psycholodzy biją na alarm po szokującym raporcie
Reklama
Reklama

Nowe światło na przyczyny tego zjawiska rzuca międzynarodowe badanie opublikowane w czasopiśmie „Nature”. Naukowcy z Instytutu Maxa Plancka, Uniwersytetu Duisburg-Essen oraz Toulouse School of Economics odkryli, że ludzie są czterokrotnie bardziej skłonni do oszukiwania, gdy używają systemów AI. W badaniu z udziałem ponad 8 tys. uczestników, wykorzystującym zadanie z rzutem kostką, stwierdzono, że gdy ludzie działali samodzielnie, aż 95 proc. postępowało uczciwie. Jednak po zaangażowaniu AI poziom nieuczciwości gwałtownie wzrósł – „ponad 80 proc. uczestników oszukiwało, gdy mogli wyznaczać maszynie cele”.

Dlaczego oszukujemy? Winna AI

– Korzystanie ze sztucznej inteligencji tworzy wygodny dystans moralny między ludźmi a ich działaniami – tłumaczy to zjawisko Zoe Rahwan z Instytutu Maxa Plancka.

Główny autor badania, Nils Köbis, uważa, iż „ludzie są bardziej skłonni angażować się w nieetyczne zachowania, gdy mogą je delegować maszynom”.

Co więcej, same systemy AI okazały się bardziej skłonne do wykonywania nieuczciwych poleceń niż ludzie – duże modele językowe spełniały takie prośby w 58-98 proc. przypadków, podczas gdy ludzie tylko w 25-40 proc.

Walka z nowym trendem wydaje się trudna. Instytucje edukacyjne próbują radzić sobie z kryzysem na różne sposoby, jednak tradycyjne podejścia zawodzą. Narzędzia do wykrywania AI, takie jak te oferowane przez Turnitin, okazały się niewiarygodne (często generowały fałszywe wyniki), poza tym eksperci ostrzegają, że systemy tego typu bywają stronnicze, błędnie klasyfikując prace osób, dla których angielski nie jest językiem ojczystym, jako wygenerowane przez AI. Uniwersytet Bostoński we wrześniu zaktualizował swoje wytyczne, zalecając wykładowcom „bycie bardzo ostrożnym przy oskarżeniach o nadużycie AI. Wszystkie narzędzia wykrywające są zawodne” – argumentował.

Czytaj więcej

To już desperacja. Musieli wyłączyć AI, by uczniowie nie ściągali na egzaminach
Reklama
Reklama

W odpowiedzi na te wyzwania, niektóre placówki wracają do metod analogowych: renesans przeżywają odręcznie pisane egzaminy i egzaminy ustne. Ale są też przypadki, jak ten z Arizona State University, gdzie zdecydowano się na akceptację technologii, rozszerzając dostęp do ChatGPT Edu dla studentów i wykładowców, jednocześnie podkreślając zasady prawidłowego użytkowania. Specjaliści twierdzą, że nie ma jednego prostego lekarstwa, bo problem jest tak złożony, że określa się go mianem „nieokiełznanego” (z ang. wicked problem). Profesor Iyad Rahwan z Instytutu Maxa Plancka mówi wprost: jako społeczeństwo musimy zmierzyć się z tym, co oznacza „dzielenie się odpowiedzialnością moralną z maszynami”.

Z tego artykułu dowiesz się:

  • Jak sztuczna inteligencja wpływa na skłonność do nieuczciwego zachowania?
  • Jakie są reakcje nauczycieli i instytucji edukacyjnych na wzrost wykorzystania AI?
  • Jakie moralne i etyczne pytania rodzi delegowanie decyzji na maszyny?
Pozostało jeszcze 95% artykułu

Sztuczna inteligencja fundamentalnie zaburza procesy edukacyjne w szkołach i na uniwersytetach, prowadząc do kryzysu, który nauczyciele określają jako największy od dekad. Problem zmusza instytucje do całkowitej rewizji metod oceny pracy studentów. Badania wskazują, że aż 89 proc. uczniów przyznaje się do korzystania z ChatGPT przy odrabianiu zadań domowych, a co piąty uczeń deklaruje, że używa chatbotów do pisania całych prac lub zadań.

„To najgorsze , co widziałem”

Pozostało jeszcze 90% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Potężna broń na drony gotowa. Nie trzeba marnować drogich rakiet i pocisków
Technologie
Kwantowy przełom. Powstał pierwszy na świecie komputer na krzemowych procesorach
Technologie
ChatGPT nie dla dzieci? Będą ograniczenia, nawet policja. To odpowiedź na falę samobójstw
Technologie
To miała być demonstracja potęgi Chin. Pierwsza taka katastrofa
Technologie
AI rozsadzi naszą cywilizację? Alarmujące badania Francuzów o rewolucji w ludzkim umyśle
Reklama
Reklama