Z tego artykułu dowiesz się:
- Jakie globalne wyzwania stoją przed autonomicznymi systemami uzbrojenia?
- Jak Polska odnosi się do międzynarodowych regulacji militarnego zastosowania AI?
- Jak ograniczenia dla systemów LAWS mogą wpłynąć na polski biznes i obronność kraju?
- Jakie są aktualne przykłady użycia AI w konfliktach zbrojnych?
Masakra w irańskiej szkole dla dziewcząt, za którą najprawdopodobniej stoi błąd sztucznej inteligencji, a także roje ukraińskich dronów sterowane przez algorytmy to już codzienność wojen. Rola człowieka w zabijaniu jest marginalizowana, co – jak tłumaczą nam eksperci – otwiera istną puszkę Pandory. Jednak jak wynika z rozmów „Rzeczpospolitej”, ograniczenie śmiercionośnych systemów autonomicznej broni (tzw. LAWS), nad czym właśnie pochyla się ONZ, nie jest w interesie Polski.
Drony i AI to nasza tarcza
Mówiąc wprost: ograniczenia dla „zabójczej AI” uderzą w nowatorskie projekty polskich firm specjalizujących się w dronach oraz w sztucznej inteligencji i ograniczą zdolności obronne naszego kraju.
– Eksperci ONZ debatują nad systemami LAWS i słusznie, bo to ważne tematy, ale świat już dawno ruszył dalej w wyścigu zbrojeń. Zasada „chcesz pokoju, szykuj się do wojny” dziś materializuje się po prostu w kodzie. Dla nas drony i AI to nie narzędzia ataku, tylko sposób, żeby do konfliktu w ogóle nie doszło. Taka technologiczna tarcza – tłumaczy Vadym Melnyk, prezes Dronehub i członek AI Chamber.
Czytaj więcej
Kto ma prawo decydować o kwestiach życia i śmierci: demokratycznie wybrany prezydent czy zarząd prywatnej firmy? Czy ta ostatnia może założyć swoje...