Półnagie ciało młodego mężczyzny leży na podłodze pojazdu opancerzonego z nienaturalnie odchyloną głową. Nie ma przy nim ani dokumentów, ani elementów garderoby, które pozwalałyby na identyfikację. Tylko tatuaż na przedramieniu. Prawdopodobnie te zwłoki znalezione przez ukraiński oddział w Charkowie dołączyłyby do setek innych bezimiennych ofiar rosyjskiej agresji. Ale tym razem tak się nie stało. Do gry wkroczył bowiem najbardziej zaawansowany system sztucznej inteligencji do rozpoznawania twarzy. Po chwili poszukiwań w sieci AI odnalazł trzy możliwe osoby zbieżne z wyglądem martwego. Strzał okazał się celny – jedna z nich poza tymi samymi rysami twarzy miała również ten sam tatuaż – tak w swoim reportażu BBC opisuje skuteczność kontrowersyjnego oprogramowania Clearview AI, dla którego żadna tożsamość nie jest tajemnicą. System ten budził dotąd kontrowersje, bo dla obrońców prywatności oznaczał koniec świata, jaki znali. Od miesiąca służy jednak na wojnie za naszą wschodnią granicą – i tam okazał swoje drugie oblicze.
Sztuczna inteligencja ratuje nieletnich
Clearview to prawdopodobnie najbardziej znany i skuteczny systemem rozpoznawania twarzy na świecie. Firma stworzyła potężną bazę zdjęć z serwisów społecznościowych, m.in. takich jak Facebook czy Twitter, ale również tysięcy innych źródeł. W najnowszej wersji oprogramowania AI „karmiona” jest w sumie 20 mld fotografii. Z rozwiązania do identyfikowania przestępców, ale także imigrantów czy nieznanych ofiar korzysta w samych Stanach Zjednoczonych ponad 3 tys. różnych instytucji, od policji stanowych, przez FBI, po Departament Bezpieczeństwa. Ale rozwiązanie od Clearview AI, startupu, który „Time” uznał za jedną ze 100 najbardziej wpływowych firm świata, nie wszystkim się podoba. Protestują obrońcy prywatności, krajowi regulatorzy, ale i same Big Techy. W efekcie firma stanęła przed szeregiem wyzwań prawnych – Facebook, YouTube, Google i Twitter wysłały do niej wezwania do zaprzestania wykorzystywania zdjęć z ich serwisów. Z różnych stron świata na startup posypały się kary finansowe. Brytyjskie Information Commissioner’s Office (ICO) nałożyło na spółkę 17 mln funtów grzywny. Włosi chcą 20 mln euro. Z kolei Kanada w ogóle zakazała stosowania tego oprogramowania.
Czytaj więcej
Fałszywe wideo z namawiającym do kapitulacji prezydentem Ukrainy to pierwsze zastosowanie tej technologii w czasie wojny. W odpowiedzi pojawiły się już zmanipulowane filmy z Władimirem Putinem.
Ale działalność Clearview AI ma wiele niewątpliwych zalet. W ciągu ledwie roku tylko w zaledwie jednym biurze terenowym FBI technologia ta doprowadziła do aresztowania 66 sprawców przemocy wobec dzieci. Sztuczna inteligencja uratowała tam 103 nieletnich.
Miesiąc temu Clearview trafiło do Ukrainy. Za zadanie ma identyfikować ofiary, ale też sprawców zbrodni. W tym czasie AI rozpoznała już ponad tysiąc poszukiwanych osób. Nie jest to jednak pierwsza wojna, w której ma swój udział oprogramowanie tego typu. Bellingcat, serwis specjalizujący się w dochodzeniach dziennikarskich, zauważa, że wykorzystuje podobne rozwiązania od lat, m.in. namierzając Rosjanina, który nagrywał tortury i zabójstwa jeńców w Syrii w 2019 r. Bellingcat obecnie w Ukrainie też korzysta z systemów do identyfikacji. Używa systemu FindClone, dzięki któremu poznaje tożsamość martwych żołnierzy wroga (AI w tym wypadku przeczesuje zdjęcia z rosyjskich serwisów społecznościowych). Co ważne, współczesne technologie pozwalają rozpoznać po twarzy niemal każdego, nawet jeśli dana osoba nigdy nie miała profilu w mediach społecznościowych (wystarczy, że pojawi się na zdjęciu przesłanym przez znajomego, członka rodziny bądź znajdzie się w tle jakiegoś sfotografowanego wydarzenia – już będzie w bazie danych).