Reklama

AI może sama decydować o śmierci. ONZ chce zakazu, Polska mówi „nie”

Sztuczna inteligencja bez nadzoru człowieka zdecyduje o życiu i śmierci? Mocarstwa debatują, jak zahamować to zagrożenie, ale – jak ustaliła „Rzeczpospolita” – Polska wypisała się z tej dyskusji. Rodzime firmy nie chcą ograniczeń.
Czy sztuczna inteligencja bez nadzoru człowieka sama zdecyduje o życiu i śmierci?

Czy sztuczna inteligencja bez nadzoru człowieka sama zdecyduje o życiu i śmierci?

Foto: Bloomberg

Z tego artykułu dowiesz się:

  • Jakie globalne wyzwania stoją przed autonomicznymi systemami uzbrojenia?
  • Jak Polska odnosi się do międzynarodowych regulacji militarnego zastosowania AI?
  • Jak ograniczenia dla systemów LAWS mogą wpłynąć na polski biznes i obronność kraju?
  • Jakie są aktualne przykłady użycia AI w konfliktach zbrojnych?

Masakra w irańskiej szkole dla dziewcząt, za którą najprawdopodobniej stoi błąd sztucznej inteligencji, a także roje ukraińskich dronów sterowane przez algorytmy to już codzienność wojen. Rola człowieka w zabijaniu jest marginalizowana, co – jak tłumaczą nam eksperci – otwiera istną puszkę Pandory. Jednak jak wynika z rozmów „Rzeczpospolitej”, ograniczenie śmiercionośnych systemów autonomicznej broni (tzw. LAWS), nad czym właśnie pochyla się ONZ, nie jest w interesie Polski.

Drony i AI to nasza tarcza

Mówiąc wprost: ograniczenia dla „zabójczej AI” uderzą w nowatorskie projekty polskich firm specjalizujących się w dronach oraz w sztucznej inteligencji i ograniczą zdolności obronne naszego kraju.

– Eksperci ONZ debatują nad systemami LAWS i słusznie, bo to ważne tematy, ale świat już dawno ruszył dalej w wyścigu zbrojeń. Zasada „chcesz pokoju, szykuj się do wojny” dziś materializuje się po prostu w kodzie. Dla nas drony i AI to nie narzędzia ataku, tylko sposób, żeby do konfliktu w ogóle nie doszło. Taka technologiczna tarcza – tłumaczy Vadym Melnyk, prezes Dronehub i członek AI Chamber.

Czytaj więcej

Paweł Rożyński: Pacyfiści AI poszli na wojnę z systemem. W AI jednak trudno o etykę
Reklama
Reklama

Jego zdaniem obawy przed dehumanizacją wojny są zrozumiałe. Jak zaznacza, to, że człowiek musi mieć ostatnie słowo (tzw. human-in-the-loop), powinno być nienaruszalną granicą etyczną. Ale etyka etyką, a wojna wojną. – Spójrzmy na fakty: mamy ogromną asymetrię, kiedy Zachód pilnuje etyki, a reżimy na Wschodzie bez skrupułów masowo produkują systemy uderzeniowe, które działają tuż za naszą granicą. Sensowne regulacje AI na świecie są potrzebne, ale nie mogą one wiązać rąk naszym inżynierom – komentuje Melnyk. I podkreśla, że polskie firmy z branży Defense Tech mają ogromny potencjał, by budować systemy, które nas realnie obronią.

– W obecnej sytuacji bezpieczeństwo i rozwój innowacji to priorytet. Nie możemy rozbroić się przepisami – ostrzega prezes Dronehub.

Już teraz paragrafy stanowią wyzwanie dla biznesu dual-use (technologie podwójnego zastosowania).

– W kontekście zwiększającej się automatyzacji i robotyzacji pola walki stale analizujemy pojawiające się propozycje regulujące działania różnych systemów wojskowych. Cały proces rozwoju wyrobów na rynek obronny: projektowanie, wdrażanie, testowanie, produkcja, modyfikacje, modernizacje czy utylizacja jest ściśle regulowany przez szereg przepisów. Każdy podmiot w branży musi ich przestrzegać, aby w ogóle mógł działać – słyszymy w WB Electronics, wiodącym innowatorze w polskim przemyśle zbrojeniowym.

Czytaj więcej

AI panem życia i śmierci. Świat na krawędzi autonomicznej wojny

Wojny robotów to nie bajka

Ukraina uruchomiła ambitny program rozmieszczania bezzałogowych pojazdów naziemnych (UGV) na pierwszej linii frontu. Jak podaje BBC, zapotrzebowanie w tym roku sięgnie około 40 tys. jednostek, z czego co najmniej 10-15 proc. będzie uzbrojonych. – Wojny robotów już trwają – przyznał Ołeksandr Afanasjew z brygady K2 ukraińskiej armii, który dowodzi pierwszym na świecie batalionem UGV.

Reklama
Reklama

Jego jednostka wyposaża roboty w karabiny maszynowe kałasznikow. – Mogą strzelać w sytuacjach, w których żołnierz wahałby się pokazać – wyjaśnia major Afanasjew.

W 2025 r. Ukraina wysłała na front około 15 tys. robotów naziemnych, tamtejszy resort obrony podał, że wszystkie cele zakupowe dotyczące UGV na 2025 r. zostały przekroczone, a planowane jest dalsze zwiększenie zamówień (tylko w styczniu 2026 r. zanotowano ponad 7000 misji robotycznych). Niedawno opublikowano nagrania, na których trzech rosyjskich żołnierzy poddaje się uzbrojonemu robotowi Droid TW, który wykorzystuje sztuczną inteligencję do autonomicznej identyfikacji celów.

Wałerij Załużny, były naczelny dowódca sił zbrojnych Ukrainy, obecnie ambasador w Wielkiej Brytanii, w londyńskim Chatham House przekonywał, że w najbliższej przyszłości „dziesiątki, jeśli nie setki inteligentniejszych i tańszych dronów będą atakować z różnych kierunków i wysokości – jednocześnie z powietrza, z ziemi i z morza”.

Taka przyszłość może przerażać, tym bardziej że, jak tłumaczy nam dr Kaja Kowalczewska, adiunktka w Inkubatorze Doskonałości Naukowej „Digital Justice Center” na Uniwersytecie Wrocławskim, ekspertka AI Law Tech, rozwój AI może rozmywać odpowiedzialność. Jej zdaniem brak skrupułów AI rodzi kluczowy problem natury prawnej. – W świetle obecnego prawa za błędy odpowiada dowódca operacji. Zaawansowana technologia ułatwi jednak państwom ochronę swoich oficerów przed odpowiedzialnością za zbrodnie – będzie można powiedzieć, że to AI na podstawie danych, treningu i wytycznych spowodowało te działania, a nie człowiek – zauważa.

Czytaj więcej

Chińska armia wypuściła watahy uzbrojonych robo-wilków. To przyszłość wojny

Regulacyjny impas. Co zrobi Polska?

Kwestia regulacji prawnych systemów autonomicznych jest regularnie podnoszona na forach międzynarodowych – w Genewie przez cały ubiegły tydzień odbywały się kluczowe posiedzenia oenzetowskiej Grupy Ekspertów Rządowych (GGE), a tematem rozmów były systemy LAWS.

Reklama
Reklama

– Linia podziału jest wyraźna: około 130 państw, które obawiają się, że staną się ofiarami nowej technologii lub poligonem do jej testowania, domagają się zakazów. Przeciwne są temu potęgi militarne, na czele ze Stanami Zjednoczonymi, które twierdzą, że aktualny stan jest w zupełności wystarczający – wskazuje Kowalczewska. – Państwa, które mogą sobie pozwolić na tę technologię, nie chcą wiązać sobie rąk. Jestem sceptyczna co do skutków apelu Sekretarza Generalnego ONZ dotyczącego przyjęcia wiążącego traktatu w tej sprawie do końca roku. Nie wierzę, żeby międzynarodowo udało się dojść do jakiegoś konsensusu. Nie ma apetytu na żaden tego typu traktat, nie było go 10 lat temu, nie było go pięć lat temu, tym bardziej nie ma go i teraz – dodaje.

W Genewie mocarstwa, liczne kraje Europy, Azji, Afryki oraz eksperci pracowali nad kształtem przyszłych przepisów dla AI, która sama steruje bronią i wybiera cele. Zabrakło jednak głosu Polski, nasza delegacja nie była aktywna w dyskusji. Zwróciliśmy się w tej sprawie z pytaniami do Ministerstwa Spraw Zagranicznych. Otrzymaliśmy stanowisko, w którym resort podkreśla: „Polska uznaje, że podczas stosowania systemów broni odpowiedzialność człowieka nie może być przenoszona na maszyny i musimy zapewnić, aby były one obsługiwane w ramach odpowiedzialnego łańcucha dowodzenia i kontroli przez ludzi, w sposób zgodny z zobowiązaniami państw wynikającymi z Międzynarodowego Prawa Humanitarnego”.

MSZ mimo takiej formułki zastrzega jednak, że – biorąc pod uwagę obecną sytuację bezpieczeństwa – Polska sprzeciwia się „prawnie wiążącemu, pełnemu zakazowi użycia LAWS”.

Eksperci nie są zdziwieni. Twierdzą, że to wpisuje się w dotychczasowe podejście Polski do tego palącego tematu (w poprzednich latach Polska wstrzymywała się od głosu nad głosowaniem rezolucji ONZ w sprawie LAWS).

– W obliczu masowych zbrojeń i inwestycji w bezpieczeństwo, polscy politycy całkowicie unikają tematu zagrożeń płynących z militarnego wykorzystania AI. Niektórzy posłowie w ogóle nie chcą z nami o tym rozmawiać – zaznacza Marta Stępniak, ekspertka Instytutu Spraw Obywatelskich.

Reklama
Reklama

Eksperci nie są zaskoczeni i, jak Andrzej Targosz, partner w Bitspiration VC, twierdzą, że żyjemy w czasach, gdy trzeba szukać ścieżek prowadzących raczej do... dozbrajania. – Nie ma co chować się za kolejnymi regulacjami, bo te, jak pokazują ostatnie lata w UE, tylko związują ręce i odsuwają w czasie faktyczne działanie. W warunkach wojny decydenci powinni szukać rozwiązań, które pobudzają aktywność, a nie stają się hamulcem rozwoju, na koniec zmniejszającym bezpieczeństwo – podsumowuje Targosz.

AI
Najnowszy chip fotoniczny deklasuje tradycyjne procesory. To przełom w AI?
Materiał Promocyjny
PR&Media Days 2026
Materiał Promocyjny
Nowoczesne finanse, decyzje finansowe w świecie algorytmów – jak zachować kontrolę
AI
Ludzkie komórki zamiast krzemu? Powstało pierwsze biologiczne centrum danych
AI
Sojusz przeciw Big Techom. Nobliści i politycy chcą wziąć AI na smycz
AI
Jak mądrze korzystać z AI? Firmy zaczynają realne wdrożenia i szukają „wartości”
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama