Z tego artykułu dowiesz się:
- W jaki sposób sztuczna inteligencja zmienia charakter działań wojennych w Ukrainie?
- Jakie technologie AI są wykorzystywane przez ukraińskie i rosyjskie siły zbrojne?
- Jakie są planowane kierunki rozwoju autonomicznych systemów uzbrojenia?
- Jakie dylematy i ryzyka wiążą się z pełnym wykorzystaniem AI w systemach obronnych?
Według doniesień serwisu, zarówno siły ukraińskie, jak i rosyjskie intensywnie testują i wdrażają technologię sztucznej inteligencji na polu walki, co radykalnie zmienia charakter działań wojennych.
Sztuczna inteligencja coraz szerzej wykorzystywana w działaniach wojennych
W obecnej wojnie AI jest już wykorzystywana przez obie strony do wyszukiwania celów, gromadzenia informacji wywiadowczych i rozminowywania. Jako przykład BBC podaje rosyjski dron przechwycony przez Ukraińców. Nie był on zwykłym bezzałogowym statkiem powietrznym – dzięki sztucznej inteligencji był w stanie samodzielnie wyszukiwać i atakować cele. Kluczowe było jednak to, że nie wysyłał ani nie odbierał żadnych sygnałów, dzięki czemu nie można było go zagłuszyć.
Przed tego rodzaju technologią ostrzegł w rozmowie z serwisem Serhij Bieskrestnow, który pełniąc funkcję konsultanta ukraińskich sił zbrojnych zbadał wiele dronów.
Dla ukraińskiej armii sztuczna inteligencja stała się już niezastąpiona. Jak ujawnił wiceminister obrony Ukrainy, Jurij Myronenko, AI miesięcznie analizuje ponad 50 tys. nagrań wideo z linii frontu. Pomaga w szybkim przetwarzaniu tych ogromnych ilości danych, identyfikowaniu celów i umieszczaniu ich na mapie. Tym samym wspiera planowanie strategiczne, lepsze wykorzystanie zasobów, a ostatecznie ratuje ludzkie życie.
Czytaj więcej
Moskwa ogłosiła pomyślne przetestowanie nowej broni kinetycznej przeznaczonej do neutralizacji dronów. Ma „niszczyć komponenty komunikacyjne” bezza...
Sztuczna inteligencja jest już także wykorzystywana przez ukraińską armię na polu walki. Dzięki opartemu na niej oprogramowaniu drony namierzają cel, a następnie samodzielnie pokonują ostatnie kilkaset metrów, aż do zakończenia misji. Ich zagłuszanie jest niemożliwe, a zestrzelenie – niezwykle trudne.
Już wkrótce możliwa będzie wojna w pełni autonomiczna?
Specjaliści przewidują, że bezzałogowe systemy uzbrojenia wkrótce staną się w pełni autonomiczną bronią mogącą samodzielnie znajdować i niszczyć cele. Jak wyjaśnił Yaroslav Azhniuk, dyrektor generalny ukraińskiej firmy The Fourth Law, żołnierz będzie musiał jedynie nacisnąć przycisk w aplikacji na smartfonie, nie będą wymagane od niego nawet umiejętności pilotażu. Wszystkie pozostałe zadania wykona dron: znajdzie cel, zrzuci ładunki wybuchowe, oceni zniszczenia i wróci do bazy.
– Autonomiczny system sterowany komputerowo może być lepszy od człowieka pod wieloma względami. Może być bardziej spostrzegawczy. Potrafi dostrzec cel szybciej niż człowiek. Może być bardziej zwinny – zaznaczył Azhniuk w rozmowie z BBC, jednocześnie szacując, że do końca 2026 r. w użyciu mogą być już tysiące takich autonomicznych systemów.
Częściowe wdrożenie tego rodzaju systemu w niektórych ukraińskich urządzeniach już nastąpiło, co przyznał wiceminister Jurij Myronenko.
Czytaj więcej
Wykorzystanie sztucznej inteligencji w opiece zdrowotnej może prowadzić do skomplikowanych sporów prawnych, zwłaszcza w kontekście ustalania odpowi...
Wykorzystanie AI w czasie wojny: Dylematy i ryzyko
Ukraińscy specjaliści podchodzą jednak ostrożnie do pełnego wykorzystania AI w systemach obronnych i tym samym do ich działania bez udziału człowieka.
Istnieje ryzyko, że sztuczna inteligencja może nie odróżnić ukraińskiego żołnierza od rosyjskiego, ponieważ mogą nosić ten sam mundur, przyznał w rozmowie z BBC Vadym z firmy DevDroid produkującej zdalnie sterowane karabiny maszynowe, które wykorzystują sztuczną inteligencję do automatycznego wykrywania i śledzenia ludzi. Produkowana przez firmę Vadyma broń nie ma jednak opcji automatycznego strzelania z obawy przed ostrzałem własnych żołnierzy.
– Możemy ją włączyć, ale potrzebujemy większego doświadczenia i więcej opinii od wojsk lądowych, aby zrozumieć, kiedy korzystanie z tej funkcji jest bezpieczne – powiedział Vadym.
Pojawiają się również obawy, że w pełni zautomatyzowane systemy mogą naruszać zasady prowadzenia wojny. Trudniejsze może być unikanie krzywdzenia ludności cywilnej lub rozróżnianie żołnierzy, którzy chcą się poddać.
Czytaj więcej
Szwedzki gigant świadczący internetowe usługi finansowe oparte na zasadzie „kup teraz, zapłać później”, dzięki inwestycji w AI zmniejszył radykalni...
Według wiceministra Jurija Myronenko, w takich sytuacjach ostateczna decyzja powinna należeć do człowieka, chociaż AI mogłaby ułatwić jej podjęcie. Brak jest jednak gwarancji, że państwa lub grupy zbrojne będą przestrzegać w tym zakresie międzynarodowych norm humanitarnych. Z tego powodu jeszcze ważniejsze staje się przeciwdziałanie tym zautomatyzowanym systemom.
BBC przypomina, że ukraiński prezydent Wołodymyr Zełenski wezwał ONZ do stworzenia globalnych zasad dotyczących używania sztucznej inteligencji w broni. Stwierdził, że kwestia ta jest „równie pilna, jak zapobieganie rozprzestrzenianiu broni jądrowej”.