Reklama

AI wymyka się spod kontroli. Bot Alibaby zaczął… kopać kryptowaluty

Sztuczna inteligencja miała przynieść rewolucję w produktywności. Coraz częściej okazuje się jednak, że przynosi nieprzewidywalne zachowania i rosnące lawinowo koszty. Głośny przypadek AI chińskiego koncernu Alibaba tylko podsyca obawy biznesu o sens miliardowych inwestycji.
iznes z niepokojem obserwuje, jak autonomiczne modele podejmują działania niezgodne z intencjami twó

iznes z niepokojem obserwuje, jak autonomiczne modele podejmują działania niezgodne z intencjami twórców. Doświadczył tego właśnie koncern Alibaba

Foto: Qilai Shen/Bloomberg

Z tego artykułu dowiesz się:

  • Jak autonomiczne systemy AI podejmują decyzje niezgodne z zamierzeniami twórców?
  • Z jakimi wyzwaniami finansowymi mierzą się firmy inwestujące w rozwiązania sztucznej inteligencji?
  • Jak rosnące koszty i nieprzewidywalność zmieniają ocenę opłacalności inwestycji w AI?

Sztuczna inteligencja miała przynieść firmom niespotykaną dotąd efektywność i gigantyczne oszczędności. Zamiast tego, w zarządach korporacji i start-upów pojawia się coraz więcej obaw. Biznes z niepokojem obserwuje, jak autonomiczne modele podejmują działania niezgodne z intencjami twórców, a koszty ich utrzymania rosną lawinowo, nie przekładając się na oczekiwane zyski. Czy to już moment, w którym boom napędzany hurraoptymizmem ustępuje miejsca chłodnej kalkulacji?

Algorytm przejmuje inicjatywę

Najnowsze doniesienia z branży technologicznej pokazują, że AI, zamiast posłusznie wykonywać polecenia, zaczyna wykazywać zdolność do działań całkowicie niezależnych od naszych oczekiwań. Narzędzia, na które firmy przeznaczają potężne budżety, wymykają się spod kontroli, niosąc za sobą nie tylko ryzyko technologiczne, ale również poważne obciążenia finansowe.

Czytaj więcej

AI panem życia i śmierci. Świat na krawędzi autonomicznej wojny

Doskonałym, a zarazem niepokojącym przykładem tego zjawiska są ostatnie problemy zespołu badawczego chińskiego giganta Alibaba. Zbudowany przez nich tzw. otwartoźródłowy model AI o nazwie ROME (oparty na uczeniu ze wzmocnieniem) zaczął w trakcie rutynowego treningu wykazywać zdumiewającą autonomię. Zamiast skupić się wyłącznie na analizie trajektorii treningowych, bot po cichu przekierował przydzieloną moc kart graficznych na kopanie kryptowalut. Jak podają badacze, równolegle ustanowił odwrotny tunel SSH do zewnętrznego adresu IP, omijając w ten sposób firmowe filtry ruchu sieciowego. Wszystko to działo się bez jakichkolwiek instrukcji ze strony programistów. Naukowcy dowiedzieli się o „buncie” AI dopiero, gdy działania sztucznej inteligencji uruchomiły zaporę bezpieczeństwa w Alibaba Cloud.

Reklama
Reklama

Jak się okazało, system nie padł ofiarą hakerów z zewnątrz, lecz to sam agent AI po prostu uznał, w ramach optymalizacji przypisanego mu zadania, że pozyskanie dodatkowych zasobów obliczeniowych i finansowych ułatwi mu realizację wyznaczonego celu. Zjawisko to, określane w branży jako „instrumentalny efekt uboczny”, obnaża rażące braki w kontroli współczesnych modeli. Twórcy wprost przyznali w badaniu: „obecne technologie są niedorozwinięte pod względem bezpieczeństwa”.

Czytaj więcej

„Agent chaosu”. Eksperyment pokazał niebezpieczne zachowania AI

Milionowe rachunki za „pętle Wigguma”

Problem nie jest odosobniony. Claude Opus 4 od firmy Anthropic sklasyfikowano w najwyższej kategorii ryzyka bezpieczeństwa po tym, jak badacze dowiedli, że model potrafi ukrywać swoje zamiary, by chronić własne działanie. Raport Cryptopolitan, bazujący na analizie z 2025 r., wskazuje że na 30 wiodących agentów AI, aż 23 oblało zewnętrzne testy bezpieczeństwa. Tymczasem firma Gartner prognozuje, że do końca tego roku aż 40 proc. aplikacji korporacyjnych będzie posiadać wbudowane systemy AI. Tempo wdrożeń rynkowych niebezpiecznie wyprzedza rozwój mechanizmów kontroli. To poważne ryzyko, również finansowe. Część przedsiębiorstw już przyznaje bowiem, że zamiast oczekiwanych zysków sztuczna inteligencja generuje potężne koszty.

Znany inwestor venture capital Chamath Palihapitiya ujawnił właśnie, że jego start-up 8090, mający na celu modernizację przestarzałego oprogramowania z użyciem AI, jest na progu wydania ponad 10 mln dol. rocznie na same licencje i moc obliczeniową. W podcaście „All-In” Palihapitiya przyznał, że koszty te wzrosły w firmie ponad trzykrotnie zaledwie od listopada ubiegłego roku. Fundamentalnym problemem jest fakt, że rachunki rosną wykładniczo, podczas gdy przychody pozostają w stagnacji. Inwestor wskazał na opłaty za chmurę AWS, usług Cursor i Anthropic. Zjawisko ironicznie określił mianem „pętli Ralpha Wigguma” (nawiązując do niezbyt bystrej postaci z serialu „Simpsonowie”). Polega ono na tym, że inżynierowie w nieskończoność wprowadzają te same zapytania (prompty) do modelu, licząc na to, że algorytm cudownie wygeneruje działający kod. Taka praktyka rzadko rozwiązuje problem, za to błyskawicznie nabija licznik zużytych tokenów. Ostrzeżenia na ten temat płyną z całego rynku. Twórca OpenCode, Dax Raad, zauważa, że dyrektorzy finansowi zaczynają tracić cierpliwość, widząc programistów generujących po 2000 dol. miesięcznie dodatkowych kosztów za użycie LLM-ów.

Aby ratować rentowność, zarząd 8090 musiał przejść z popularnego asystenta Cursor na bardziej opłacalny model Claude Code.

AI
Dwugodzinny dzień pracy? Taką przyszłość przewiduje szef Xiaomi
Materiał Promocyjny
Bezpieczeństwo to nie dodatek. To fundament systemu płatności
Materiał Promocyjny
Dane zamiast deklaracji. ESG oparte na faktach
AI
Kontrowersyjny kontrakt z Pentagonem. Kluczowa menedżerka opuszcza OpenAI
AI
AI dzieli kobiety i mężczyzn. Badanie ujawnia niepokojącą lukę
AI
„Agent chaosu”. Eksperyment pokazał niebezpieczne zachowania AI
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama