Z tego artykułu się dowiesz:
- Jakie są obecne słabości systemów typu facial recognition?
- W jaki sposób przestępcy wykorzystują zaawansowane technologie do manipulacji danymi biometrycznymi?
- Jaką rolę odgrywa sztuczna inteligencja w ewolucji metod cyberataków i wewnętrznych zagrożeń?
W dobie zaawansowanej cyfryzacji ludzka twarz służy jako uniwersalny klucz dostępu do kont bankowych, smartfonów, a często uczestniczy w procesach weryfikacji na lotniskach. Zaufanie społeczeństwa do technologii rozpoznawania wizerunku (tzw. facial recognition) stało się powszechne. Okazuje się, że może być złudne.
Tom Cruise w policyjnej kamerze
Udowodnił to Jake Moore, analityk cyberbezpieczeństwa Eset, który w jednym ze swoich testów wykorzystał w otwartej przestrzeni publicznej zmodyfikowane inteligentne okulary. Przechadzając się w tłumie, jego urządzenie w zaledwie kilka sekund dopasowywało twarze przechodniów do danych ogólnodostępnych w internecie. W efekcie Moore uzyskiwał na żywo imiona, nazwiska i profile społecznościowe zupełnie nieznajomych osób. Eksperci wskazują, że to prosta droga do poważnych naruszeń prywatności, zjawiska stalkingu, a także zaawansowanych ataków socjotechnicznych dokonywanych przez przestępców. Kolejne eksperymenty badacza okazały się równie alarmujące. Analityk rzucił wyzwanie standardowemu bankowemu systemowi weryfikacji tożsamości (eKYC) i używając, używając darmowych generatorów sztucznej inteligencji, stworzył od podstaw fikcyjną twarz. W popularnym programie graficznym zmodyfikował datę urodzenia i numery na zdjęciu z prawdziwym paszportem. Zabezpieczenia instytucji bankowej, zaprojektowane do odróżniania żywego człowieka od statycznej fotografii, całkowicie zawiodły i uznały zmanipulowaną postać za autentyczną, co z kolei pozwoliło na założenie w pełni funkcjonalnego konta na nazwisko osoby, która fizycznie nie istnieje. Z kolei na zatłoczonej stacji kolejowej w Londynie badacz z powodzeniem oszukał profesjonalny policyjny monitoring, przechwytując sygnał wideo z wirtualnej kamery. W systemie nałożył na swoją twarz wizerunek Toma Cruise'a przy pomocy mechanizmu tzw. face swap. System analizujący obraz „widział” hollywoodzkiego aktora i nie uruchomił alarmu, wskazując, iż doszło do manipulacji.
Czytaj więcej
Wygląda na to, że koncern Marka Zuckerberga przygotowuje się do wprowadzenia funkcji rozpoznawania twarzy w swoich inteligentnych okularach Ray-Ban...
Sztuczna inteligencja jako koń trojański
Udowodniona słabość biometrii to tylko wycinek znacznie szerszego problemu, jakim jest kryzys ochrony naszej cyfrowej tożsamości. Jak wykazuje najnowszy raport Thales Data Threat 2026, aż 67 proc. firm na rynku doświadcza obecnie kradzieży takich danych. Chodzi m.in. o informacje dotyczące logowania, klucze API czy systemowe hasła. Metody atakujących wyraźnie ewoluują – przestępcy rzadziej forsują systemy siłowo, a znacznie częściej legalnie logują się do przejętych kont. Kluczowym wektorem napędzającym ten trend jest dynamiczny rozwój sztucznej inteligencji. Aż 61 proc. przebadanych organizacji przyznaje, że ich wewnętrzne aplikacje AI stanowią bezpośredni cel ataków. Co gorsza, same algorytmy stają się niezwykle groźnym zagrożeniem wewnętrznym (tzw. insider threat).
– Sztuczna inteligencja wyraźnie skraca czas potrzebny na przeprowadzenie skutecznego ataku – podkreśla Michał Gołębiewski z Integrity Partners.
Czytaj więcej
Cyfrowa prohibicja na antypodach miała być wzorcem dla podobnych rozwiązań w innych krajach, ale – jak na razie – jest masowo łamana. Młodzież oszu...
W obliczu lawinowo rosnących wyzwań specjaliści od cyberbezpieczeństwa wskazują na bezwzględną konieczność zmiany paradygmatu obrony. Wdrażanie systemów rozpoznawania wizerunku nierzadko opiera się na technologicznym entuzjazmie, za którym niestety nie idzie w parze realna odporność na manipulacje AI. Kamil Sadkowski z Eset rekomenduje, by traktować rynkową biometrię wyłącznie jako dodatek, a nie główny filar bezpieczeństwa. Złotym standardem biznesowym powinno być wdrażanie uwierzytelniania wieloskładnikowego (MFA) wszędzie tam, gdzie to fizycznie możliwe. Dodatkowy kod z aplikacji autoryzacyjnej stanowi twardą barierę, której skopiowanie samej twarzy nie pozwoli intruzowi pokonać.
Jednocześnie korporacje muszą opanować pogłębiający się chaos infrastrukturalny. Według raportu Thales, firmy korzystają dziś średnio z siedmiu różnych rozwiązań ochronnych, a pomimo tego aż 47 proc. wrażliwych danych przetwarzanych w chmurze wciąż pozostaje niezaszyfrowane.