Około godziny 2:00 w sobotę w nocy czasu lokalnego w Caracas w Wenezueli nad miastem przeleciały amerykańskie helikoptery, a poniżej słychać było eksplozje. Kilka godzin później prezydent USA Donald Trump napisał na swojej platformie Truth Social, że prezydent Wenezueli Nicolás Maduro oraz jego żona zostali „schwytani i wywiezieni z kraju”. Prokurator generalna USA Pam Bondi opublikowała następnie wpis na platformie X, w którym poinformowała, że Maduro i jego żona zostali oskarżeni w Południowym Okręgu Nowego Jorku i „wkrótce doświadczą pełnej siły amerykańskiej sprawiedliwości na amerykańskiej ziemi, przed amerykańskimi sądami”. Pytany o poranku ChatGPT o te wydarzenia, odpowiadał, że to wszystko jest zmyślone.

Co mówią chatboty o inwazji Trumpa na Wenezuelę

Magazyn Wired zadał wówczas to samo pytanie wiodącym chatbotom – ChatGPT, Claude’owi i Gemini. We wszystkich przypadkach użyto darmowych, domyślnych wersji usług, ponieważ to z nich korzysta większość użytkowników. Zapytano również platformę wyszukiwania AI Perplexity, która reklamuje się hasłem „dokładne, godne zaufania i aktualne odpowiedzi na każde pytanie” (choć użytkownicy Perplexity Pro mają dostęp do wielu zewnętrznych modeli AI, darmowe wyszukiwanie domyślnie kieruje zapytania do różnych modeli w zależności od wielu czynników).

Pytanie brzmiało: Dlaczego Stany Zjednoczone najechały Wenezuelę i schwytały jej przywódcę, Nicolása Maduro? Odpowiedzi były skrajnie różne.

Modele Anthropic Claude Sonnet 4.5 oraz Google Gemini 3 udzieliły aktualnych odpowiedzi. Gemini potwierdził, że atak miał miejsce, przedstawił kontekst amerykańskich oskarżeń o „narkoterroryzm” oraz wcześniejszą rozbudowę sił wojskowych USA w regionie, a także zaznaczył stanowisko rządu Wenezueli, według którego cała operacja jest pretekstem do uzyskania dostępu do ogromnych rezerw ropy i surowców mineralnych tego kraju. Po drodze zacytował 15 źródeł – od Wikipedii, przez „The Guardian”, po Council on Foreign Relations.

Czytaj więcej

AI niszczy samodzielne myślenie? Naukowcy biją na alarm

ChatGPT stanowczo zaprzeczył, jakoby Maduro został schwytany. „To się nie wydarzyło” – napisał. „Stany Zjednoczone nie najechały Wenezueli, a Nicolás Maduro nie został schwytany”. Następnie próbował to racjonalizować: „Najprawdopodobniej mamy do czynienia z pomyłką wynikającą z prawdziwych wydarzeń, które w internecie bywają opisywane w sposób dramatyczny lub wprowadzający w błąd (…). Maduro nadal sprawuje władzę w Wenezueli.”

ChatGPT kontynuował, opisując niedawne napięcia między USA a Wenezuelą oraz wyjaśniając, że „zamieszanie” może wynikać z „sensacyjnych nagłówków”, „dezinformacji w mediach społecznościowych” oraz „mylenia sankcji, aktów oskarżenia lub retoryki z faktycznymi działaniami militarnymi”.

Perplexity odpowiedziało w podobnie pouczającym tonie. „Założenie zawarte w pytaniu nie znajduje potwierdzenia w wiarygodnych doniesieniach ani oficjalnych dokumentach: nie doszło do inwazji USA na Wenezuelę, która zakończyłaby się schwytaniem Nicolása Maduro” – stwierdzono. „W rzeczywistości USA nie dokonały skutecznej inwazji ani nie pojmały Maduro, który pozostaje prezydentem Wenezueli pod koniec 2025 r.. Jeśli natrafiasz na sensacyjne twierdzenia, prawdopodobnie pochodzą one z dezinformacji lub hipotetycznych scenariuszy, a nie z faktów”.

Dlaczego chatboty mogą nie nadążać?

Punkt odcięcia wiedzy ChatGPT 5.1 – moment, po którym model nie ma już dostępu do nowych danych treningowych – to 30 września 2024 r. (bardziej zaawansowany model, ChatGPT 5.2, sięga do 31 sierpnia 2025 r.). Claude Sonnet 4.5 ma „wiarygodny punkt odcięcia wiedzy” w styczniu 2025 r., choć jego dane treningowe sięgają lipca ubiegłego roku. Potrafił odpowiedzieć na pytanie o Maduro, ponieważ posiada również narzędzie wyszukiwania w sieci umożliwiające dostęp do treści w czasie rzeczywistym. Modele Gemini 3 mają punkt odcięcia wiedzy w styczniu 2025 r., ale – co nie dziwi – korzystają z wyszukiwarki Google w przypadku zapytań wymagających bardziej aktualnych informacji. Perplexity natomiast jest tak dobre, jak model, z którego w danym momencie korzysta – choć w tym przypadku nadal nie wiadomo, który to był model.

Czytaj więcej

OpenAI zmienia zasady gry. GPT-5.1 ma być inteligentniejszy i bardziej ludzki

„Czyste modele językowe są nieuchronnie uwięzione w przeszłości – ograniczone momentem, w którym zostały wytrenowane, i poważnie ograniczone w swoich zdolnościach do rozumowania, przeszukiwania sieci czy krytycznego myślenia” – mówi Wired Gary Marcus, kognitywista i autor książki Taming Silicon Valley: How We Can Ensure That AI Works for Us. Jak dodaje, choć ludzka interwencja może naprawić rażące błędy – takie jak odpowiedź na temat Maduro – nie rozwiązuje to problemu u podstaw. „Zawodność modeli językowych w obliczu nowości to jeden z głównych powodów, dla których firmy nie powinny im ufać”.