Konflikt Waszyngtonu z firmą Anthropic to brutalne zderzenie dwóch wizji: idealistów Doliny Krzemowej marzących o „bezpiecznej AI” oraz państwa, które w tej technologii widzi narzędzie bezpieczeństwa. Odmowa „zdjęcia blokad z modelu AI Claude w obliczu amerykańskiego uderzenia na Iran wywołała wściekłość administracji Donalda Trumpa. Dla szefa Pentagonu, Pete’a Hegsetha, opór spółki to „korporacyjna zdrada” i „sabotaż” w godzinie próby. Z perspektywy Białego Domu, uwikłanego także w bezwzględny wyścig z Chinami, etyka to luksus, na który Ameryki po prostu nie stać.

Prawo do sprzeciwu czy korporacyjne państwo w państwie?

Bo czy prywatna firma ma prawo odmówić państwu dostępu do swojego produktu? Czy producent silników może zakazać montowania ich w czołgach, a tkalnia odmówić dostaw wełny na mundury, bo tak podpowiada jej sumienie? Można tu szukać analogii w tajemnicy spowiedzi – ksiądz nie musi ujawniać policji wyznań gangstera. Jednak sztuczna inteligencja stała się zasobem zbyt strategicznym, by rządy mogły pozwolić sobie na ignorowanie jej możliwości i pozostawienie poza kontrolą.

Czytaj więcej

AI panem życia i śmierci. Świat na krawędzi autonomicznej wojny

Historia zna już przypadki buntu inżynierów. W 2018 r. pracownicy Google wymusili wycofanie się z Projektu Maven (analiza obrazu z dronów), co skończyło się deklaracją, że gigant nie będzie tworzył systemów dla uzbrojenia. Z kolei Apple w 2016 r. stoczyło batalię z FBI, odmawiając stworzenia „tylnej furtki” do iPhone’a terrorysty – firma przekonywała, że postawiła bezpieczeństwo użytkowników ponad interes śledczy.

Maszyna, która decyduje o życiu

Dziś dylematy te weszły na nowy poziom. AI to zmiana większa niż pojawienie się elektryczności, a przy tym niezwykle potężne narzędzie. Jak ujął to noblista Geoffrey Hinton, przy nadchodzącej superinteligencji będziemy jak „trzylatek przy dorosłym”.

Danie rosnącej w siłę AI prawa do decydowania o zabijaniu, np. w autonomicznych dronach, budzi instynktowny lęk. Gry wojenne wykazują, że modele AI mają skłonność do szybkiej decyzji o użyciu broni nuklearnej. Problem w tym, że odmowa współpracy z w kwestiach bezpieczeństwa to oddanie pola Chinom i Rosji. Tamtejsze reżimy nie mają skrupułów przy tworzeniu systemów zabijania czy masowej inwigilacji z wykorzystaniem AI. W tym scenariuszu zachodni „etycy” mogą nieświadomie wejść w rolę „użytecznych idiotów”, blokując rozwój technologii we własnych państwach.

Między ideałami a marketingiem

W przypadku Anthropic, nowego sztandaru obrońców wolności, trudno rozstrzygnąć, czy to rzeczywiście ideowi pacyfiści czy genialni marketingowcy. Założyciele tej firmy odeszli wcześniej z OpenAI, uciekając przed komercyjnym uściskiem Microsoftu, po czym przyjęli miliardy od Amazona i Google. Czy to hipokryzja? Bez miliardów w tej branży nie da się działać. Co więcej, „etyczny” Anthropic ma na koncie ugodę wartą 1,5 mld dol. za trenowanie AI na pirackich bazach książek. W tym biznesie rzadko kto ma czyste ręce.

Anthropic, nie uginając się przed Trumpem, zyskał poklask jako obrońca wolności. Inni, jak OpenAI, którzy przejęli wojskowe kontrakty, ryzykują bojkot konsumencki. Ustawienie się w roli „tego dobrego” to świetna strategia biznesowa – światowy biznes chętnie zapłaci za „czystą” technologię. Ostatecznie jednak oba modele – „etyczny” i „pragmatyczny” – spotkają się w tym samym punkcie. Na giełdzie, gdzie decydować będzie nie moralność, lecz wynik finansowy.