Z tego artykułu dowiesz się:
- Jakie wydarzenie w OpenAI doprowadziło do rezygnacji kluczowej menedżerki?
- Jakie zareagował rynkowe po ogłoszeniu kontrowersyjnego kontraktu między OpenAI a Pentagonem?
- Jak w Dolinie Krzemowej odbiera się kwestie wojskowych zastosowań sztucznej inteligencji?
Caitlin Kalinowski, szefowa działu robotyki i sprzętu konsumenckiego OpenAI, poinformowała, że rezygnuje ze stanowiska w reakcji na umowę spółki z Departamentem Obrony USA dotyczącą wdrożenia modeli sztucznej inteligencji w niejawnych sieciach Pentagonu. We wpisie na platformie X podkreśliła, że choć AI ma „ważną rolę w bezpieczeństwie narodowym”, to „inwigilacja Amerykanów bez nadzoru sądowego i autonomia śmiercionośna bez ludzkiej autoryzacji” to granice, które wymagały większej rozwagi.
Spór o czerwone linie
Kalinowski zaznaczyła, że jej decyzja jest „kwestią zasad, a nie ludzi” i że ma „głęboki szacunek dla dyrektora generalnego” Sama Altmana oraz zespołu OpenAI. W kolejnym wpisie doprecyzowała, że kluczowym problemem było pośpieszne tempo ogłoszenia kontraktu – jej zdaniem umowę zakomunikowano, zanim zdefiniowano wystarczające zabezpieczenia i mechanizmy nadzoru. Samo OpenAI potwierdziło już odejście Kalinowski i w oświadczeniu przekazanym mediom broniło współpracy z Pentagonem, twierdząc, że kontrakt „tworzy możliwą ścieżkę odpowiedzialnego wykorzystania AI w bezpieczeństwie narodowym”. Firma podkreśliła, że umowa wyznacza wyraźne czerwone linie. Te granice to gwarancje braku „nadzoru nad obywatelami USA” oraz wykorzystania algorytmów do tworzenia autonomicznej broni, czyli systemów zdolnych do użycia śmiercionośnej siły bez zgody człowieka.
Czytaj więcej
Kto ma prawo decydować o kwestiach życia i śmierci: demokratycznie wybrany prezydent czy zarząd prywatnej firmy? Czy ta ostatnia może założyć swoje...
Altman przyznał jednak, że sposób zakomunikowania porozumienia „wyglądał oportunistycznie i niedbale” i zapowiedział modyfikacje kontraktu, które wprost zakażą wykorzystania technologii OpenAI do „wewnętrznego nadzoru nad osobami i obywatelami amerykańskimi”. Napięcie dotyczy więc nie tylko etycznych granic wojskowych zastosowań AI, ale też standardów ładu korporacyjnego przy podejmowaniu decyzji o strategicznych, politycznie wrażliwych umowach.