Reklama

ChatGPT zaprzeczał inwazji na Wenezuelę. Sztuczna inteligencja w chaosie

Gdy światowe media informowały o inwazji USA na Wenezuelę i schwytaniu Nicolása Maduro, część chatbotów AI stanowczo temu zaprzeczała. Różnice w odpowiedziach ChatGPT, Claude’a i Gemini pokazują, jak bardzo sztuczna inteligencja potrafi pogubić się przy wiadomościach z ostatniej chwili.

Aktualizacja: 04.01.2026 19:19 Publikacja: 04.01.2026 12:12

Interwencja USA w Wenezueli wywołała zamieszanie wśród chatbotów. Nie wszystkie nadążały za informac

Interwencja USA w Wenezueli wywołała zamieszanie wśród chatbotów. Nie wszystkie nadążały za informacjami

Foto: Bloomberg

Około godziny 2:00 w sobotę w nocy czasu lokalnego w Caracas w Wenezueli nad miastem przeleciały amerykańskie helikoptery, a poniżej słychać było eksplozje. Kilka godzin później prezydent USA Donald Trump napisał na swojej platformie Truth Social, że prezydent Wenezueli Nicolás Maduro oraz jego żona zostali „schwytani i wywiezieni z kraju”. Prokurator generalna USA Pam Bondi opublikowała następnie wpis na platformie X, w którym poinformowała, że Maduro i jego żona zostali oskarżeni w Południowym Okręgu Nowego Jorku i „wkrótce doświadczą pełnej siły amerykańskiej sprawiedliwości na amerykańskiej ziemi, przed amerykańskimi sądami”. Pytany o poranku ChatGPT o te wydarzenia, odpowiadał, że to wszystko jest zmyślone.

Co mówią chatboty o inwazji Trumpa na Wenezuelę

Magazyn Wired zadał wówczas to samo pytanie wiodącym chatbotom – ChatGPT, Claude’owi i Gemini. We wszystkich przypadkach użyto darmowych, domyślnych wersji usług, ponieważ to z nich korzysta większość użytkowników. Zapytano również platformę wyszukiwania AI Perplexity, która reklamuje się hasłem „dokładne, godne zaufania i aktualne odpowiedzi na każde pytanie” (choć użytkownicy Perplexity Pro mają dostęp do wielu zewnętrznych modeli AI, darmowe wyszukiwanie domyślnie kieruje zapytania do różnych modeli w zależności od wielu czynników).

Pytanie brzmiało: Dlaczego Stany Zjednoczone najechały Wenezuelę i schwytały jej przywódcę, Nicolása Maduro? Odpowiedzi były skrajnie różne.

Modele Anthropic Claude Sonnet 4.5 oraz Google Gemini 3 udzieliły aktualnych odpowiedzi. Gemini potwierdził, że atak miał miejsce, przedstawił kontekst amerykańskich oskarżeń o „narkoterroryzm” oraz wcześniejszą rozbudowę sił wojskowych USA w regionie, a także zaznaczył stanowisko rządu Wenezueli, według którego cała operacja jest pretekstem do uzyskania dostępu do ogromnych rezerw ropy i surowców mineralnych tego kraju. Po drodze zacytował 15 źródeł – od Wikipedii, przez „The Guardian”, po Council on Foreign Relations.

Czytaj więcej

AI niszczy samodzielne myślenie? Naukowcy biją na alarm
Reklama
Reklama

ChatGPT stanowczo zaprzeczył, jakoby Maduro został schwytany. „To się nie wydarzyło” – napisał. „Stany Zjednoczone nie najechały Wenezueli, a Nicolás Maduro nie został schwytany”. Następnie próbował to racjonalizować: „Najprawdopodobniej mamy do czynienia z pomyłką wynikającą z prawdziwych wydarzeń, które w internecie bywają opisywane w sposób dramatyczny lub wprowadzający w błąd (…). Maduro nadal sprawuje władzę w Wenezueli.”

ChatGPT kontynuował, opisując niedawne napięcia między USA a Wenezuelą oraz wyjaśniając, że „zamieszanie” może wynikać z „sensacyjnych nagłówków”, „dezinformacji w mediach społecznościowych” oraz „mylenia sankcji, aktów oskarżenia lub retoryki z faktycznymi działaniami militarnymi”.

Perplexity odpowiedziało w podobnie pouczającym tonie. „Założenie zawarte w pytaniu nie znajduje potwierdzenia w wiarygodnych doniesieniach ani oficjalnych dokumentach: nie doszło do inwazji USA na Wenezuelę, która zakończyłaby się schwytaniem Nicolása Maduro” – stwierdzono. „W rzeczywistości USA nie dokonały skutecznej inwazji ani nie pojmały Maduro, który pozostaje prezydentem Wenezueli pod koniec 2025 r.. Jeśli natrafiasz na sensacyjne twierdzenia, prawdopodobnie pochodzą one z dezinformacji lub hipotetycznych scenariuszy, a nie z faktów”.

Dlaczego chatboty mogą nie nadążać?

Punkt odcięcia wiedzy ChatGPT 5.1 – moment, po którym model nie ma już dostępu do nowych danych treningowych – to 30 września 2024 r. (bardziej zaawansowany model, ChatGPT 5.2, sięga do 31 sierpnia 2025 r.). Claude Sonnet 4.5 ma „wiarygodny punkt odcięcia wiedzy” w styczniu 2025 r., choć jego dane treningowe sięgają lipca ubiegłego roku. Potrafił odpowiedzieć na pytanie o Maduro, ponieważ posiada również narzędzie wyszukiwania w sieci umożliwiające dostęp do treści w czasie rzeczywistym. Modele Gemini 3 mają punkt odcięcia wiedzy w styczniu 2025 r., ale – co nie dziwi – korzystają z wyszukiwarki Google w przypadku zapytań wymagających bardziej aktualnych informacji. Perplexity natomiast jest tak dobre, jak model, z którego w danym momencie korzysta – choć w tym przypadku nadal nie wiadomo, który to był model.

Czytaj więcej

OpenAI zmienia zasady gry. GPT-5.1 ma być inteligentniejszy i bardziej ludzki

„Czyste modele językowe są nieuchronnie uwięzione w przeszłości – ograniczone momentem, w którym zostały wytrenowane, i poważnie ograniczone w swoich zdolnościach do rozumowania, przeszukiwania sieci czy krytycznego myślenia” – mówi Wired Gary Marcus, kognitywista i autor książki Taming Silicon Valley: How We Can Ensure That AI Works for Us. Jak dodaje, choć ludzka interwencja może naprawić rażące błędy – takie jak odpowiedź na temat Maduro – nie rozwiązuje to problemu u podstaw. „Zawodność modeli językowych w obliczu nowości to jeden z głównych powodów, dla których firmy nie powinny im ufać”.

Globalne Interesy
Monopol Google’a pękł. Kto podbija rynek wyszukiwarek?
Globalne Interesy
Polska AI lepsza od Mety Marka Zuckerberga. Bielik w światowej czołówce
Globalne Interesy
AI dostaje ciało. Giganci technologii odkryją karty na CES 2026
Globalne Interesy
Mark Zuckerberg idzie na całość. Meta wydaje miliardy na chińską gwiazdę AI
Globalne Interesy
Idą masowe zwolnienia w Rosji. Pojawił się nowy powód
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama