Reklama

AI, która rzuciła wyzwanie Trumpowi. Czym jest Anthropic i kim jest rodzeństwo Amodei

Jeszcze kilka lat temu byli buntownikami z OpenAI. Dziś ich firma jest jednym z najważniejszych graczy w wyścigu AI – i właśnie znalazła się na wojnie z administracją Donalda Trumpa. Konflikt wokół Anthropic pokazuje, że stawką nie są tylko kontrakty wojskowe, lecz bezpieczeństwo i przyszłość sztucznej inteligencji.
Anthropic pobił rynek korporacji. Czy wojna z Białym Domem zaszkodzi "etycznej" AI

Anthropic pobił rynek korporacji. Czy wojna z Białym Domem zaszkodzi "etycznej" AI

Foto: Bloomberg

„Stany Zjednoczone Ameryki nigdy nie pozwolą, aby radykalnie lewicowa, ogarnięta ideologią »woke« firma dyktowała, jak nasza wspaniała armia ma walczyć i wygrywać wojny! Ta decyzja należy do naszego naczelnego dowódcy oraz niesamowitych liderów, których mianuję do kierowania naszym wojskiem” – napisał Donald Trump w poście opublikowanym na jego portalu Truth Social. Nakazał agencjom rządowym USA natychmiastowe zaprzestanie korzystania z technologii firmy i „poważne konsekwencje cywilne i karne”.

Szef Pentagonu Pete Hegseth poszedł jeszcze dalej, oskarżając spółkę, która żądała gwarancji, że jej produkty nie będą używane do masowej inwigilacji i broni autonomicznej – o „arogancję” i „korporacyjną zdradę”. „Pod płaszczykiem świętoszkowatej retoryki »skutecznego altruizmu« próbowali siłą zmusić armię Stanów Zjednoczonych do uległości – tchórzliwy akt korporacyjnego sygnalizowania cnoty, stawiający ideologię Doliny Krzemowej ponad amerykańskie życie” – napisał na X. Furia Białego Domu zyskała nowy wymiar, kiedy w sobotę USA zaatakowały cele w Iranie. Zerwanie przez Pentagon wartego 200 mln dol. kontraktu wcale nie jest najgorsze. Inne firmy mogą obawiać się współpracy z Anthropic, a inwestorzy wycofać się. W efekcie firma, która powstała raptem 4 lata temu i właśnie pozyskała od inwestorów 30 mld dol. przy astronomicznej wycenie 380 mld, znalazła się w trudnej sytuacji. Ale zapowiada, że nie ulegnie, bo „pryncypia są dla niej ważniejsze”.

Bunt przeciw komercjalizacji. Jak rodzeństwo Amodei odeszło z OpenAI

Bo to właśnie pryncypia doprowadziły do powstania firmy. Po tym jak w 2019 r. OpenAI zrezygnowało z modelu organizacji non-profit i zgodziło się na miliardową inwestycję Microsoftu, doszło do buntu części pracowników, którzy obawiali się, że presja komercyjna ze strony gigantów technologicznych zmusi OpenAI do zbyt szybkiego wydawania modeli, zaniedbując ich bezpieczeństwo i sprawy etyczne. Na czele dziewiątki „uciekinierów” stanęło rodzeństwo: Dario Amodei, były wiceprezes ds. badań w OpenAI (kierował pracami nad kluczowym modelem GPT-3), który wcześniej pracował m.in. w Google i Baidu oraz Daniela Amodei – była wiceprezesem ds. bezpieczeństwa i polityki. W Anthropic zajmuje ona stanowisko prezesa, zaś Dario jest dyrektorem generalnym. Początki były skromne. Ponieważ firma powstała w samym sercu pandemii Covid-19 w 2021 r. założyciele spotykali się na Zoomie, a potem na cotygodniowych lunchach w Precita Park w San Francisco, przynosząc własne krzesła. W ten sposób narodziło się Anthropic PBC (Public Benefit Corporation – korporacja pożytku publicznego). Skąd wzięła się nazwa? Ta kojarząca się z byciem skoncentrowanym na człowieku wygrała z całą listą propozycji, wśród których były m.in. Aligned AI, Generative, Swan czy Sparrow Systems.

Dario i Daniela Amodei

Dario i Daniela Amodei

Foto: Bloomberg

Dario Amodei wciąż dystansuje się mocno od OpenAI, co było widać podczas AI India Summit, kiedy nie podał ręki Samowi Altmanowi. Co ciekawe, nieoficjalnie mówi się, że obaj liderzy zawarli dżentelmeńską umowę: Amodei obiecał, że nie będzie publicznie atakował OpenAI, a w zamian Altman pozwolił mu zabrać ze sobą grupę kluczowych badaczy, choć byli związani długimi kontraktami.

Reklama
Reklama

„Konstytucja” dla maszyny. Jak działa etyczny model Claude

Zamiast skupiać się wyłącznie na mocy obliczeniowej, Anthropic opracowała unikalną metodę trenowania swojego modelu Claude. Otrzymał zestaw zasad – „konstytucję” (opartą m.in. na Powszechnej Deklaracji Praw Człowieka). Na jej podstawie AI samo uczy się, które zachowania są etyczne. Claude jest bardziej przewidywalny i mniej skłonny do „halucynacji” niż konkurenci.

Zanim wszedł na rynek, badacze Anthropic testowali go, próbując go skłonić do złamania tych zasad. Podczas testowania modelu Claude 3, badacz Anthropic, Alex Albert, opisał niezwykłą sytuację. W gigantycznym tekście ukryto losowe zdanie, które AI miała odnaleźć. Claude nie tylko je znalazł, ale dopisał: „Podejrzewam, że to zdanie zostało tu wstawione dla żartu lub by sprawdzić moją czujność, ponieważ zupełnie nie pasuje do reszty tekstu”. Wywołało to ciarki u badaczy – model zrozumiał, że jest testowany.

Czytaj więcej

Dowody mrocznej strony AI. Współtwórca Anthropic ostrzega przed zagrożeniem

Dario Amodei często ostrzega przed zagrożeniami związanymi z AI która zdecydowanie przewyższyłaby możliwościami człowieka i wyrwała się spod kontroli. W Anthropic powstała nawet specjalna rada (Long-Term Benefit Trust), która ma prawo wetować decyzje zarządu, jeśli uzna, że zagrażają one ludzkości.

Rodzeństwo Amodei i wielu pierwszych pracowników Anthropic jest mocno związanych z ruchem Skutecznego Altruizmu, który zakłada dążenie do maksymalizacji dobra przy użyciu dowodów i rozumu. W kontekście AI skupia się na zagrożeniu egzystencjalnym, czyli obawie, że AI może zniszczyć ludzkość. – Wierzą, że AI jest tak przerażająca, że tylko oni powinni ją tworzyć – komentował Jensen Huang, założyciel Nvidii.

– Naprawdę się wściekam, gdy ktoś mówi: Ten facet to czarnowidz. Chce wszystko spowolnić – mówił Dario Amodei w wywiadzie z amerykańskim influencerem technologicznym Aleksem Kantrowitzem. – Mój ojciec zmarł, bo leki pojawiły się kilka lat za późno. Rozumiem korzyści płynące z tej technologii.

Reklama
Reklama

Rodzeństwo Amodei i wielu pierwszych pracowników Anthropic jest mocno związanych z ruchem Skutecznego Altruizmu

Wielki wpływ na życie rodzeństwa Amodei miała choroba i przedwczesna śmierć ich ojca, który był kaletnikiem. Riccardo zmarł, gdy Dario i Daniela wchodzili w dorosłość. Dario w wywiadach wspominał, że ta osobista strata wpłynęła na jego postrzeganie nauki i poczucie misji.

Ideologia czy bezpieczeństwo? Krytycy kontra zwolennicy Anthropica

Krytycy Anthropica i jego założycieli widzą to nieco inaczej: promowanie czarnowidztwa może uzasadniać potrzebę tworzenia własnych, „bezpiecznych” i drogich modeli. Wskazują na hipokryzję: Anthropic powstał, bo założyciele nie zgadzali się na komercyjne naciski Microsoftu na OpenAI. Tymczasem w krótkim czasie Anthropic przyjęła miliardy dolarów od Amazona i Google. Pytają, czym różni się zależność OpenAI od Microsoftu od zależności Anthropic od Amazona?

Dyżurnym krytykiem Anthropica jest Elon Musk, właściciel xAI, która rozwija konkurencyjny i karmiony mocno prawicową narracją model Grok. Atakuje często firmę za „poprawność polityczną”.

Kiedy niedawno przedstawiciele Anthropica oskarżyli chińskie firmy AI o kradzież danych (korzystały z tzw. destylacji, czyli trenowania własnych, tańszych modeli na odpowiedziach generowanych przez Claude'a), Musk zareagował wpisem na X. „Anthropic jest winny kradzieży danych treningowych na ogromną skalę i musiało zapłacić wielomiliardowe odszkodowania za tę kradzież. To po prostu fakt”. We wrześniu 2025 r. Anthropic poinformowała sąd federalny w San Francisco, że zgodził się zapłacić 1,5 mld dol. w ramach ugody kończącej pozew zbiorowy autorów książek. Pisarze zarzucali firmie, że wykorzystała ich utwory do trenowania chatbota, ale kluczowe okazało się dowiedzenie, że Anthropic pobrał miliony książek z pirackich serwisów.

Reklama
Reklama

AI dla korporacji. Jak Claude podbija rynek

O ile OpenAI zdominowało rynek konsumencki dzięki popularności ChatGPT, Anthropic ma bardzo silną pozycję na rynku klientów korporacyjnych. – Niezależnie od tego, czy są to przedsiębiorcy, start-upy czy największe korporacje świata, przekaz od naszych klientów jest taki sam: Claude staje się coraz bardziej kluczowy dla funkcjonowania biznesu – mówi dyrektor finansowy Anthropica Krishna Rao, cytowany przez CNBC. Wskazuje, że już ponad 500 klientów korporacyjnych wydaje na Claude’a ponad 1 mln dol. rocznie, a około 80 proc. przychodów Anthropica pochodzi z segmentu przedsiębiorstw. Sukces w dużej mierze jest efektem popularności narzędzia programistycznego Claude Code, które automatyzuje część procesu tworzenia oprogramowania. Na tym polu Anthropic okazała się prawdziwym destruktorem dla firm. Popularność Claude Code oraz rozwój narzędzia produktywności Claude Cowork (wprowadzonego w styczniu 2026 r.) przyczyniły się do gwałtownej wyprzedaży akcji spółek programistycznych na giełdach. Sektor ten stracił około 2 bln dol. kapitalizacji od szczytu. Tylko w jednym dniu na początku lutego 2026 r. z rynku wyparowało 285 mld dol. w obawie przed pełną automatyzacją tworzenia kodu.

Czytaj więcej

Chmury nad ChatGPT. OpenAI wyrósł groźny rywal

Modele Anthropic są używane w wielu branżach, ale szczególnie użyteczne są w badaniach medycznych. AI potrafi powiązać ze sobą dziesiątki tysięcy publikacji naukowych, wyników badań klinicznych i baz genetycznych w kilka sekund. To nie tylko przyspiesza badania nad lekami i terapiami, ale i radykalnie obniża koszty. Z rozwiązania Anthropica korzystają tacy giganci jak Sanofi czy Novo Nordisk, producent leku Ozempic.

Co dalej z „etyczną” AI?

Czy spór z Pentagonem zachwieje sukcesem firmy? Dean Ball, który w think tanku Foundation for American Innovation jest ekspertem do spraw polityki związanej z rozwojem technologii, ocenił decyzję Pentagonu jako „korporacyjne morderstwo”.

Zerwanie więzi z Anthropic może być bólem głowy również dla Pentagonu, biorąc pod uwagę konieczność zastąpienia w pół roku systemów korzystających z Claude’a. Choć armia przekonuje, że system Grok Elona Muska jest „gotowy do użytku w środowisku niejawnym”, daleko mu do produktów Anthropic, które wykorzystano np. podczas operacji porwania prezydenta Wenezueli Nicolasa Maduro. Claude jest najbardziej odporny spośród botów AI na tzw. halucynacje, czyli zmyślanie faktów. A w wojsku błąd o jedną cyfrę w koordynatach lub błędna interpretacja raportu wywiadowczego może kosztować życie.

Reklama
Reklama

– Atakowanie własnej, czołowej firmy AI w momencie, gdy Biały Dom sam ogłasza, że wyścig technologiczny z Chinami to nowa „zimna wojna” – to czyste szaleństwo. To tak, jakbyś wziął jeden z najcenniejszych skarbów swojej gospodarki i spalił go w ognisku tylko dlatego, że nie chce się w pełni podporządkować – mówił na antenie Bloomberg Radio Gregory Allen z Centrum Studiów Strategicznych i Międzynarodowych.

AI
Pentagon chce uzbroić sztuczną inteligencję. Wyrzuca giganta AI
Materiał Promocyjny
Nowy luksus zaczyna się od rozmowy. Byliśmy w showroomie EXLANTIX w Warszawie
Materiał Promocyjny
Rekordy sprzedaży i większy magazyn w Duchnicach
AI
AI wywołała „tsunami” w elektronice. Ceny smartfonów biją rekordy, sprzedaż spadnie
AI
Firma twórcy Twittera tnie tysiące miejsc pracy. Powód? Sztuczna inteligencja
Materiał Promocyjny
Arabia Saudyjska. W krainie gościnności
AI
Przełom w produkcji chipów. Ta technologia zmieni rynek AI i zagrozi pozycji Chin
Materiał Promocyjny
Dove Self-Esteem: Wsparcie dla nastolatków
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama