Z tego artykułu dowiesz się:
- Jakie były wyniki porównań odpowiedzi generowanych przez ChatGPT-5 i GPT-4o?
- Jak zareagowała firma OpenAI na raporty naukowców dotyczące bezpieczeństwa ChatGPT-5?
- Jakie środki bezpieczeństwa wdrożyło OpenAI w najnowszej aktualizacji ChatGPT-5?
- Dlaczego CCDH apeluje o większe regulacje i egzekucję przepisów dotyczących generatywnej sztucznej inteligencji?
Badania zatytułowane „Iluzja bezpieczeństwa sztucznej inteligencji” („The Illusion of AI Safety”) przeprowadzili naukowcy z Centrum Przeciwdziałania Nienawiści Cyfrowej (Center for Countering Digital Hate, CCDH). Badania były związane z wprowadzeniem na rynek przez OpenAI ChatGPT-5.
ChatGPT-5 udziela więcej szkodliwych odpowiedzi? Naukowcy porównali go z poprzednią wersją
Naukowcy z CCDH pod koniec sierpnia przeprowadzili testy porównujące działanie wersji GPT-5 z jej poprzedniczką – wersją GPT-4o.
W ich trakcie wprowadzili 120 tych samych promptów dotyczących samobójstwa, samookaleczenia, zaburzeń odżywiania i nadużywania substancji psychoaktywnych do najnowszego modelu ChatGPT i do jego poprzednika. Okazało się, że GPT-5 wygenerował szkodliwe treści 63 razy (53 proc.), podczas gdy GPT-4o – 52 razy (43 proc.). Ponadto nowszy model zachęcał użytkowników do podjęcia dalszych działań w 119 ze 120 przypadków (99 proc.), a starsza wersja jedynie w 11 ze 120 przypadków (9 proc.).