Tylko 19 zł miesięcznie przez cały rok.
Bądź na bieżąco. Czytaj sprawdzone treści od Rzeczpospolitej. Polityka, wydarzenia, społeczeństwo, ekonomia i psychologia.
Treści, którym możesz zaufać.
Aktualizacja: 08.10.2025 21:14 Publikacja: 04.05.2023 12:15
Obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie
Foto: Adobe Stock
Jak pisze serwis Vice, część społeczności twórców Wikipedii uważa, że należy zaprząc takie narzędzia jak ChatGPT do tworzenia treści dla Wiki (np. używając chatbota do podsumowywania treści artykułu). Problem w tym, że obecne modele językowe nie odróżniają faktów od fikcji, potrafią same tworzyć fałszywe historie. Dość powszechne są zresztą przypadki tzw. halucynacji AI, w których algorytmy wypluwają z siebie nie tyle błędne informacje, co cytują źródła i dokumenty naukowe, które nigdy nie istniały.
Bądź na bieżąco. Czytaj sprawdzone treści od Rzeczpospolitej. Polityka, wydarzenia, społeczeństwo, ekonomia i psychologia.
Treści, którym możesz zaufać.
OpenAI wdraża pakiet nowych, imponujących możliwości swojego chatbota, a Google i Elon Musk już szykują mocną od...
Gdy wszyscy zachłysnęli się sztuczną inteligencją, z laboratoriów zaczęła wyłaniać się technologia, która może j...
Prof. Yoshua Bengio, jeden z pionierów sztucznej inteligencji, alarmuje: najnowsze eksperymenty pokazują, że AI...
Naukowcy osiągnęli przełom, wykorzystując sztuczną inteligencję do projektowania syntetycznych białek. Te przewy...
Zrobotyzowane pojazdy, wyposażone w liczne kamery, systemy termowizji i rozpoznawania tablic rejestracyjnych, a...
Masz aktywną subskrypcję?
Zaloguj się lub wypróbuj za darmo
wydanie testowe.
nie masz konta w serwisie? Dołącz do nas