Sztuczna inteligencja poszła do armii. Konflikty zbrojne w Izraelu i Ukrainie stały się poligonem doświadczalnym dla tej zaawansowanej technologii – boty nie tylko wspomagają wojskowych w analizie misji i prowadzeniu rozpoznania, ale również atakują żywe cele. Eksperci nie mają wątpliwości, że nadchodzi era autonomicznej broni, która zrewolucjonizuje oblicze wojen.
Wcześniej wydawało się, że na wykorzystanie AI do celów militarnych nie ma powszechnej zgody, ale kolejne doniesienia o użyciu takich systemów na polu walki stają się już codziennością. Co więcej, zdanie zmienił nawet OpenAI. Twórca popularnego ChatGPT w ramach nowej polityki użytkowania zniósł dotychczasowy zakaz wykorzystania tej technologii do działań bojowych.
Halucynacje sztucznej inteligencji i ofiary wśród cywilów
Zgodnie z nowymi wytycznymi OpenAI używanie zaawansowanej technologii, opracowanej przez tę wiodąca na rynku sztucznej inteligencji firmę, do „rozwoju broni” lub wspierania „wojska i działań wojennych” nie jest sprzeczne z regulaminem udostępniania modeli GPT. Spółka kierowana przez Sama Altmana wyjaśnia, że aktualizacja polityki odnosi się do przypadków, gdy użycie zaawansowanych algorytmów służyć ma misjom związanym z bezpieczeństwem narodowym. Można zatem wnioskować, że modele GPT nie trafią na front w Ukrainie, a zostaną wykorzystane np. do ochrony krajowej infrastruktury. Eksperci wskazują, że modele od OpenAI mogą być użyte w ramach partnerstw z agencjami rządowymi, takimi jak choćby działająca w strukturach Departamentu Obrony USA jednostka DARPA (Defense Advanced Research Projects Agency zajmuje się rozwojem nowatorskich technologii wojskowych), czy też w celu opracowywania rozwiązań w zakresie cyberbezpieczeństwa. Nie ma jednak wątpliwości, że zmiana podejścia po stronie OpenAI, firmy wspieranej miliardami dolarów przez Microsoft, który ma wart 22 mld dol. kontrakt z Pentagonem (chodzi o dostawę gogli rozszerzonej rzeczywistości), otwiera furtkę do przyszłego szerokiego zastosowania sztucznej inteligencji na polach bitew. A to – wedle analityków – będzie miało wpływ na sektor militarny w tak samo rewolucyjnym stopniu, jaki miała technologia nuklearna.
Czytaj więcej
Kolejne kraje wprowadzają w swych armiach narzędzia sztucznej inteligencji, które wyręczają człowieka podczas konfliktów. To wygodne i zabójczo skuteczne rozwiązanie, ale budzi wiele wątpliwości.
Heidy Khlaaf, dyrektor inżynieryjna w firmie Trail of Bits, specjalizująca się m.in. w bezpieczeństwie systemów autonomicznych, przekonuje na łamach serwisu The Intercept, iż twórcy ChatGPT muszą być świadomi zagrożeń, jakie idą za ich decyzją. – OpenAI doskonale zdaje sobie sprawę z ryzyka i szkód, jakie mogą wyniknąć z wykorzystania ich technologii w zastosowaniach wojskowych – zaznacza.