Reklama

„Ostateczne ryzyko” rozwoju AI. Współzałożyciel Anthropic wskazuje ważną datę

Jared Kaplan, współwłaściciel amerykańskiego startupu Anthropic, kreśli wizję rozwoju sztucznej inteligencji. Ekspert przewiduje dwa możliwe scenariusze. Wskazuje też na kurczący się czas, w którym należy podjąć kluczową decyzję w kontekście autonomii systemów AI.

Publikacja: 15.12.2025 21:08

Eksperci uczulają, że za rozwojem AI nie podążają adekwatne regulacje dotyczące bezpieczeństwa

Eksperci uczulają, że za rozwojem AI nie podążają adekwatne regulacje dotyczące bezpieczeństwa

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Jaki jest przewidywany czas podjęcia kluczowej decyzji dotyczącej autonomii systemów AI?
  • Jakie są potencjalne scenariusze przyszłości rozwoju sztucznej inteligencji według Jareda Kaplana?
  • Jakie korzyści mogą wynikać z „eksplozji inteligencji” w systemach AI?
  • Jakie zagrożenia wiąże Jared Kaplan z niekontrolowanym rozwojem sztucznej inteligencji?

Rozwój sztucznej inteligencji przyspiesza, a kluczowe firmy technologiczne walczą o palmę pierwszeństwa. Do największych graczy na rynku AI – oprócz twórców OpenAI, Google DeepMind i xAI – należy także startup Anthropic. Współzałożyciel marki Jared Kaplan opowiada na łamach The Guardian o przyszłości systemów sztucznej inteligencji.

Fizyk, wizjoner, miliarder. Kim jest Jared Kaplan?

Współwłaściciel marki Anthropic to profesor fizyki, absolwent Harvardu i Uniwersytetu Stanforda. Przed dołączeniem do Anthropic Kaplan zajmował się m.in. prowadzeniem badań w szwajcarskim ośrodku CERN. Jak podlicza The Guardian, w ciągu zaledwie siedmiu lat badacz przeszedł drogę od fizyka teoretycznego do miliardera w dziedzinie sztucznej inteligencji. Marka Anthropic jest obecnie wyceniana na kwotę 180 mld dol. Firmę wymienia się jako jedną z czołowych, biorących udział w wyścigu o najlepsze systemy sztucznej inteligencji. Kluczowym produktem marki jest system AI Claude, używany głównie przez klientów biznesowych.

W 2025 r. magazyn TIME umieścił Jareda Kaplana w gronie kluczowych „architektów sztucznej inteligencji”, którym przyznano tytuł „Człowieka Roku 2025”. Badacza doceniono obok takich postaci jak m.in. Sam Altman (OpenAI), Elon Musk (xAI), Jensen Huang (Nvidia) i Mark Zuckerberg (Meta).

Czytaj więcej

Duża zmiana w ChatGPT już w 2026 roku. OpenAI ma nowy pomysł „dla dorosłych"
Reklama
Reklama

Współzałożyciel Anthropic przewiduje „eksplozję inteligencji”

Na łamach The Guardian Kaplan przedstawił swoje obawy dotyczące potencjalnych scenariuszy rozwoju AI. Według eksperta kluczowa decyzja w tym kontekście dotyczy pytania: Czy i kiedy pozwolić systemom AI na uzyskanie autonomii? Mowa o systemach, które będą się samodzielnie trenować m.in. w celu zwiększenia wydajności. Uzyskają w ten sposób poziom autonomii, którego konsekwencje trudno na razie przewidzieć. Zdaniem Kaplana, decyzja w tej kwestii – nazywana przez niego „ostatecznym ryzykiem” – powinna zapaść pomiędzy 2027 a 2030 r.

W przewidywanym, optymistycznym scenariuszu taka decyzja ma doprowadzić do „eksplozji inteligencji”. Systemy AI mogą uzyskać niespotykaną do tej pory wydajność. Tę można z kolei wykorzystać m.in. do pionierskich badań w zakresie biologii i medycyny. Ekspert widzi też ogromny potencjał AI w dziedzinie cyberbezpieczeństwa. Liczy także, że produktywność AI da ludziom więcej czasu na prywatny rozwój.

Współzałożyciel Anthropic podkreśla, że przyspieszenie pracy systemów sztucznej inteligencji jest nieuniknione. Najnowsze narzędzie Anthropic (system AI Claude Sonnet 4.5) miało według Kaplana w niektórych przypadkach podwoić szybkość pracy programistów marki. The Guardian przytacza z kolei dane z niezależnych badań nad pionierskimi modelami AI [źródło: metr.org]. Jak pokazują nowe dane, długość/obszerność zadań, które realizują systemy AI, podwaja się średnio co ok. 7 miesięcy.

Czytaj więcej

Disney inwestuje w OpenAI. To rewolucja w tworzeniu filmów wideo

Druga strona rozwoju technologicznego

Kaplan widzi też szereg zagrożeń dotyczących „niekontrolowanego” rozwoju sztucznej inteligencji. Wśród kluczowych wymienia m.in.:

  • Możliwość wykonywania przez AI „większości prac umysłowych”. Według eksperta ten kontekst może pojawić się już w ciągu najbliższych 2-3 lat.
  • Nieprzewidywalność „samorozwoju" systemów AI, w tym utrata przez ludzi kontroli nad szybkością tego procesu.
  • Rosnące zagrożenie cyberatakami z wykorzystaniem AI. Przykład: Anthropic podejrzewa, że narzędzie Claude Code zostało wykorzystane przez jedną z grup hakerskich do przeprowadzenia ok. 30 cyberataków.
  • Nadużycia technologii, które dostaną się „w niepowołane ręce".
Reklama
Reklama

Według Kaplana ludzkość nie jest przygotowana na rzeczywistość, w której AI są wykorzystywane na szeroką skalę. Dodatkowo postęp następuje tak szybko, że ludzie nie mają czasu się z nim oswoić.

Czytaj więcej

Sztuczna inteligencja pomoże w psychoterapii? Trwa pierwsze, ogólnopolskie badanie

Alarmująca konieczność regulacji

Jak podkreśla The Guardian, Anthropic zasłynął naciskiem na promowanie regulacji dotyczących sztucznej inteligencji. Firma chce budować bezpieczne, etyczne systemy. Pośrednio dąży również do tego, aby najwięksi gracze na rynku AI podążyli w jej ślady w kontekście bezpieczeństwa.

Nacisk marki na bezpieczeństwo docenił także TIME. Jak podkreślono (uzasadniając przyznanie Kaplanowi i innym twórcom AI tytułu „Człowieka Roku”) „najnowszy model firmy Anthropic, Claude 4, wymaga surowszych przepisów bezpieczeństwa niż jakikolwiek wcześniej wydany przez laboratorium”. Firma wdrożyła surowe restrykcje po wewnętrznych testach. Te wykazały m.in., że system Claude 4 może zostać wykorzystany przez naukowców amatorów do „opracowywania broni biologicznej”. „Polityka odpowiedzialnego skalowania” opracowana przez Anthropic stała się już wzorcem dla kolejnych firm z sektora AI.

Technologie
Duża zmiana w ChatGPT już w 2026 roku. OpenAI ma nowy pomysł „dla dorosłych"
Technologie
Roboty nakarmią pracowników. Niemcy wieszczą koniec kolejek po lunch
Technologie
Krawiec dla robotów. Szef Nvidii mówi o zawodach przyszłości i wpływie AI
Technologie
S4E: 25 lat budowania wartości na polskim rynku IT
Technologie
OpenAI rusza z nowym modelem ChatGPT. Ma przewyższać profesjonalistów
Materiał Promocyjny
Lojalność, która naprawdę się opłaca. Skorzystaj z Circle K extra
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama