Reklama

„Moment Hindenburga”. Znany naukowiec ostrzega przed wyścigiem AI

Presja, by jak najszybciej wprowadzać nowe narzędzia AI na rynek, może doprowadzić do spektakularnej katastrofy, która zniszczy globalne zaufanie do technologii – ostrzega profesor Michael Wooldridge z Uniwersytetu Oksfordzkiego. W jego ocenie taki scenariusz jest dziś „bardzo prawdopodobny”.

Publikacja: 19.02.2026 21:04

Katastrofa niemieckiego sterowca Hindenburg doprowadziła do zatrzymania prac i rozwoju tego typu sta

Katastrofa niemieckiego sterowca Hindenburg doprowadziła do zatrzymania prac i rozwoju tego typu statków powietrznych

Foto: Cofod, Arthur Jr, Public domain, via Wikimedia Commons

Michael Wooldridge, profesor sztucznej inteligencji na Uniwersytecie Oksfordzkim, powiedział, że zagrożenie wynika z pośpiechu ogromnej presji komercyjnej, pod jaką znajdują się firmy technologiczne, aby wypuszczać nowe narzędzia AI. Nagły wzrost liczby chatbotów AI wyposażonych w zabezpieczenia, które jednak można łatwo ominąć, pokazuje – jego zdaniem – że bodźce komercyjne mają pierwszeństwo przed bardziej ostrożnym rozwojem i testami bezpieczeństwa.

Presja komercyjna kontra bezpieczeństwo systemów AI

– To klasyczny scenariusz technologiczny – powiedział, cytowany przez „The Guardian”. – Mamy technologię, która jest bardzo, bardzo obiecująca, ale nie została przetestowana tak rygorystycznie, jak byśmy sobie tego życzyli, a presja komercyjna stojąca za nią jest nie do wytrzymania.

Wooldridge, który jest wybitnym ekspertem od logiki AI, dyrektorem ds. fundamentów AI w Instytucie Alana Turinga w Londynie oraz autorem poczytnych książek popularnonaukowych, takich jak „Droga do świadomych maszyn”, uważa, że „moment Hindenburga” jest „bardzo prawdopodobny”. Niemiecki sterowiec Hindenburg, mierzący 245 metrów i wykonujący rejsy przez Atlantyk, stanął w płomieniach 6 maja 1937 r., podczas lądowania w New Jersey w USA. Zginęło wówczas 36 członków załogi, pasażerów i pracowników naziemnych. Pożar został wywołany iskrą, która zapaliła 200 tysięcy metrów sześciennych wodoru utrzymującego sterowiec w powietrzu.

Czytaj więcej

Wielkie sterowce wracają na niebo. To może zmienić lotnictwo

– Katastrofa Hindenburga zniszczyła globalne zainteresowanie sterowcami. Od tego momentu była to martwa technologia, a podobny moment stanowi realne ryzyko dla AI – powiedział Wooldridge. Ponieważ AI jest wbudowana w tak wiele systemów, poważny incydent mógłby dotknąć niemal każdej branży.

Reklama
Reklama

Scenariusze, które wyobraża sobie Wooldridge, obejmują wadliwą aktualizację oprogramowania w samochodach autonomicznych, cyberatak wspierany przez AI, który uziemia globalne linie lotnicze, albo upadek dużej firmy na wzór banku Barings, wywołany przez to, że AI „zrobi coś głupiego”. – To bardzo, bardzo prawdopodobne scenariusze – powiedział. – Istnieje wiele sposobów, w jakie AI mogłaby bardzo publicznie zawieść.

Tymczasem globalne nakłady na AI rosną w tempie wykładniczym, przenosząc się z laboratoriów do masowej infrastruktury. Według firmy badawczej Gartner wydatki na AI w tym roku (infrastruktura i usługi) osiągną poziom 2,5 biliona dolarów, co oznacza gigantyczny skok w porównaniu z 2025 rokiem (około 200 mld dol.). W ubiegłym roku sektor AI pochłonął blisko połowę globalnego finansowania venture capital, podczas gdy rok wcześniej było to 34 proc. 

AI za bardzo upodabnia się do człowieka

Wooldridge wskazuje na rozbieżność między tym, czego oczekiwali badacze, a tym, co faktycznie powstało. – Współczesna AI nie jest ani w pełni poprawna, ani kompletna – powiedział.

Wynika to z faktu, że duże modele językowe, które stanowią podstawę chatbotów AI, generują odpowiedzi poprzez przewidywanie kolejnego słowa lub jego fragmentu na podstawie rozkładów prawdopodobieństwa wyuczonych w trakcie treningu. Prowadzi to do AI o „poszarpanych” możliwościach: niezwykle skutecznej w niektórych zadaniach, a jednocześnie bardzo słabej w innych. W dodatku, z powodu pośpiechu, na rynek wprowadza się niedopracowane w pełni modele.

Czytaj więcej

„Jak wrodzy kosmici”. Pionier badań nad AI bije na alarm

Problem – jak podkreśla Wooldridge – polega na tym, że chatboty AI zawodzą w nieprzewidywalny sposób i nie mają świadomości, kiedy się mylą, a mimo to zostały zaprojektowane tak, by zawsze udzielać pewnych siebie odpowiedzi. Mogą więc łatwo wprowadzać ludzi w błąd. Istnieje ryzyko, że ludzie zaczną traktować AI tak, jakby była człowiekiem. A to tylko narzędzie.

Reklama
Reklama

Wooldridge wspomniał jeden z odcinków serialu Star Trek z 1968 r. W „The Day of the Dove” Spock, pół-Wolkan, pół-człowiek, przepytuje komputer statku Enterprise, który odpowiada wyraźnie nieludzkim głosem, że ma niewystarczające dane, by udzielić odpowiedzi. – Tego właśnie nie dostajemy – mówi Wooldridge. – Dostajemy nadmiernie pewną siebie AI, która mówi: tak, oto odpowiedź. Być może potrzebujemy, aby AI mówiła do nas głosem komputera ze Star Treka. Nigdy nie pomyślałbyś, że to człowiek.

Naukowcy ostrzegają przed AI. Gdzie leży granica strachu?

Michael Wooldridge wpisuje się w chór głosów naukowców, którzy ostrzegają przed katastrofą społeczną, która może nastąpić, zanim ludzie zdążą zrozumieć, jak bardzo oddali kontrolę algorytmom. Jedną z najbardziej radykalnych krytyczek komercyjnego wyścigu zbrojeń w AI jest Meredith Whittaker, założycielka AI Now Institute, a obecnie szefowa komunikatora Signal, która również ostrzega przed antropomorfizacją AI i nazywaniem tych systemów „inteligentnymi”. Jej zdaniem zaciemnia to realne mechanizmy działania systemów i rozmywa odpowiedzialność firm za skutki ich wdrażania. Z kolei psycholożka społeczna Sherry Turkle z MIT, która zajmuje się relacjami człowiek–maszyna ostrzega przed psychologiczną degradacją więzi społecznych za sprawą AI.

Czytaj więcej

„Jak trzylatek wobec dorosłego”. Ta technologia może zniszczyć świat, ryzyko rośnie

Nie są to jednak obawy egzystencjalne. Tymczasem istnieje cała grupa naukowców, którzy obawiają się utraty kontroli nad systemami przewyższającymi człowieka, a nawet wieszczą zagładę ludzkości. Gary Marcus, profesor psychologii i neuronauki, argumentuje, że modele językowe nie rozumieją świata, a jedynie przewidują słowa. To prowadzi do masowej dezinformacji, która może zniszczyć fundamenty demokracji. Ostrzega przed zbyt szybkim wdrażaniem AI w medycynie, sądownictwie czy sterowaniu infrastrukturą. Ponieważ AI „halucynuje” w sposób nieprzewidywalny, jej błąd w takich sektorach może być tragiczny w skutkach.

Z kolei Geoffrey Hinton, noblista, nazywany „ojcem chrzestnym AI”, który w 2023 r. odszedł z Google, by móc otwarcie mówić o związanych z nią zagrożeniach, przez dekady wierzył w korzyści płynące z sieci neuronowych. Dziś przyznaje, że tempo ich rozwoju go przeraża. – Podczas rewolucji przemysłowej nigdy nie było szans, że maszyny przejmą kontrolę nad ludźmi tylko dlatego, że są silniejsze. Nadal sprawowaliśmy kontrolę, ponieważ mieliśmy inteligencję. Teraz istnieje ryzyko, że maszyny mogą przejąć kontrolę. A to wielka różnica – mówił w wywiadzie dla BBC.

AI
Chińska aplikacja wywołała panikę w Hollywood. Czy to koniec tradycyjnych filmów?
AI
AI zmienia poglądy polityczne użytkowników? Naukowcy dostali twarde dowody
AI
AI odtworzyła miliony lat ewolucji. Wirtualne zwierzęta same wykształciły wzrok
AI
Chaos i „chiński” robot zamiast przełomu. Bill Gates wycofał się z kluczowego szczytu AI
Materiał Promocyjny
Dove Self-Esteem: Wsparcie dla nastolatków
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama