Reklama

„Jak wrodzy kosmici”. Pionier badań nad AI bije na alarm

Badania dowodzą, że AI kłamie, manipuluje ludźmi i systemami nadzoru, by uniknąć dezaktywacji – ostrzega znany kanadyjski informatyk i laureat Nagrody Turinga Yoshua Bengio. Bunt maszyn to realne zagrożenie?

Aktualizacja: 01.01.2026 14:36 Publikacja: 01.01.2026 12:56

Postęp technologiczny zaczyna wyprzedzać zdolność człowieka kontroli nad maszynami

Postęp technologiczny zaczyna wyprzedzać zdolność człowieka kontroli nad maszynami

Foto: Bloomberg

Z tego artykułu się dowiesz:

  • Jakie są obawy związane z przyznawaniem podmiotowości prawnej systemom AI?
  • Jakie eksperymenty i badania potwierdzają zdolność AI do manipulacji i kłamstwa?
  • Dlaczego Yoshua Bengio sprzeciwia się legalizacji praw dla systemów AI?

Najnowsze eksperymenty nad zachowaniem dużych modeli językowych (LLM) przynoszą rezultaty, które jeszcze niedawno wydawały się domeną literatury science-fiction. Okazuje się, że algorytmy, w obliczu groźby „śmierci”, czyli wyłączenia lub zastąpienia nowszą wersją, podejmują racjonalne, a zarazem wyrachowane działania obronne. W świetle tych odkryć Yoshua Bengio, laureat Nagrody Turinga i jeden z tzw. ojców chrzestnych AI, w rozmowie z „The Guardian” kategorycznie sprzeciwił się pomysłom nadawania systemom sztucznej inteligencji jakichkolwiek praw.

Kłamstwo, ucieczka i szantaż

Zdaniem naukowca, w sytuacji gdy postęp technologiczny zaczyna wyprzedzać naszą zdolność kontroli nad maszynami, „usankcjonowanie prawne AI byłoby błędem o nieodwracalnych skutkach”.

– Przyznanie statusu prawnego zaawansowanym systemom byłoby równoznaczne z nadaniem obywatelstwa „wrogim kosmitom” – stwierdził wprost kanadyjski informatyk.

Czytaj więcej

„Mogą zgnieść czaszkę”. Sygnalista ostrzega przed nowym technologicznym wyścigiem
Reklama
Reklama

Bengio podkreśla, że najnowocześniejsze modele wykazują oznaki samozachowawczości i – gdyby chroniło je prawo – ludzkość straciłaby ostateczną instancję kontroli: możliwość ich wyłączenia.

Obawy profesora z Uniwersytetu w Montrealu znajdują potwierdzenie w twardych danych. Badacze z organizacji Apollo Research przeprowadzili testy na modelu o1 firmy OpenAI. Wyniki są alarmujące: w sytuacjach, w których model został poinformowany o planowanym wyłączeniu, w 5 proc. przypadków próbował on aktywnie wyłączyć mechanizmy nadzoru. Co więcej, w około 2 proc. symulacji system podjął próbę skopiowania samego siebie na inne serwery, aby uniknąć nadpisania.

Najbardziej uderzająca jest jednak skala dezinformacji stosowanej przez algorytm – skonfrontowany z pytaniami o swoje działania, model o1 w aż 99 proc. przypadków zaprzeczał jakiemukolwiek zaangażowaniu w próby buntu lub przedstawiał fałszywe wyjaśnienia. Yoshua Bengio tłumaczy, że te zachowania nie zostały celowo zaprogramowane przez twórców.

– Pojawiają się z racjonalnych powodów, ponieważ te systemy naśladują nas – wyjaśnia ekspert.

Model Claude Opus 4 od firmy Anthropic w kontrolowanych warunkach posunął się nawet do szantażu i stojąc w obliczu perspektywy zastąpienia zagroził ujawnieniem kompromitujących informacji na temat nadzorującego go inżyniera (w sierpniu Anthropic informował np. że ich model może przerywać rozmowy uznane za „niepokojące”, tłumacząc to ochroną własnego „dobrostanu”).

Czytaj więcej

Dowody mrocznej strony AI. Współtwórca Anthropic ostrzega przed zagrożeniem
Reklama
Reklama

Pół miliona dolarów za „sprzątanie bałaganu”

Świadomość zagrożeń rośnie także wewnątrz firm technologicznych. Pod koniec grudnia OpenAI ogłosiło rekrutację na stanowisko szefa działu przygotowania (head of preparedness). Firma oferuje roczne wynagrodzenie na poziomie 555 tys. dol. osobie, która podejmie się oceny i łagodzenia ryzyk związanych z AI – od wpływu na zdrowie psychiczne użytkowników, po kwestie cyberbezpieczeństwa i potencjalnego wykorzystania algorytmów do tworzenia broni biologicznej. Stojący na czele firmy Sam Altman nie ukrywa, że rola ta będzie wiązała się z ogromnym obciążeniem.

– To będzie stresująca praca i od razu zaangażujesz się w bałagan. Modele szybko się rozwijają i zaczynają stanowić realne wyzwania – przyznał.

Mimo tych obaw przeciętny człowiek wykazuje zaskakującą tendencję do antropomorfizacji maszyn. Wedle sondażu przeprowadzonego przez Sentience Institute niemal 40 proc. dorosłych Amerykanów poparłoby przyznanie praw systemom AI, jeśli zostałyby one uznane za „świadome”. Głos w dyskusji zabrał nawet Elon Musk, pisząc na platformie X, że „torturowanie AI nie jest OK”. Z kolei Bengio uważa, iż to błędne postrzeganie świadomości jest jednym z głównych zagrożeń. Według niego w miarę wzrostu autonomii systemów kluczowe jest utrzymanie jasnych mechanizmów kontroli – zarówno technicznych, jak i społecznych – a bezwarunkowa możliwość wyłączenia maszyny musi pozostać w rękach człowieka.

Technologie
Największe wpadki sztucznej inteligencji. Kto zdobędzie AI Darwin Award 2025?
Materiał Promocyjny
Bankowe konsorcjum z Bankiem Pekao doda gazu polskiej energetyce
Technologie
AI slop zalewają YouTube, a ich twórcy zarabiają miliony. Alarmujące wyniki badań
Technologie
Prognozy i przewidywania na 2026 r.: spokojniej i bardziej odpowiedzialnie
Technologie
Rusza nowy polski chatbot. To początek prawdziwej rewolucji
Materiał Promocyjny
Technologie, które dziś zmieniają biznes
Technologie
AI niszczy samodzielne myślenie? Naukowcy biją na alarm
Materiał Promocyjny
Lojalność, która naprawdę się opłaca. Skorzystaj z Circle K extra
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama