Na sprawę zwraca uwagę amerykański serwis NBC News.
Sztuczna inteligencja wykorzystana w kampanii rosyjskich hakerów
Tego lata po raz pierwszy rosyjscy hakerzy zastosowali nową metodę ataków na masowe wiadomości phishingowe wysyłane do Ukraińców. Dodali do nich załącznik zawierający program sztucznej inteligencji, który po zainstalowaniu automatycznie skanował komputery ofiar w poszukiwaniu poufnych plików, a następnie wysyłał je do hakerów.
Czytaj więcej
Czy można zaufać botom? Ryzyko rośnie, nie tylko z uwagi na tzw. halucynacje AI, ale też możliwość przejęcia kontroli nad sztuczną inteligencją prz...
Proceder ten został szczegółowo opisany w lipcowych raportach technicznych zarówno przez ukraiński rząd, jak i przez kilka firm zajmujących się cyberbezpieczeństwem. Jest pierwszym znanym przypadkiem wykrycia faktu, że rosyjski wywiad tworzy złośliwy kod z wykorzystaniem dużych modeli językowych (LLM), czyli rodzaju chatbotów opartych na sztucznej inteligencji.
Wyścig zbrojeń w dziedzinie sztucznej inteligencji
Kampania Rosjan nie była jedyną tego rodzaju działalnością w ostatnich miesiącach. Narzędzia sztucznej inteligencji w swojej pracy zaczęli wykorzystywać różni hakerzy – cyberprzestępcy, szpiedzy, badacze i obrońcy korporacyjni. Chociaż modele LLM, takie jak ChatGPT, są cały czas podatne na błędy, to niezwykle sprawnie przetwarzają instrukcje językowe i tłumaczą prosty język na kod komputerowy, a także identyfikują i podsumowują dokumenty. Jak dotąd technologia ta nie zrewolucjonizowała hakowania, jednak sprawiła, że doświadczeni hakerzy stali się lepsi i szybsi.
Czytaj więcej
Po miesiącach zastoju rynek pracy IT znów się ożywia – ale tym razem to nie juniorska gorączka, lecz selektywne polowanie na midów, seniorów i eksp...
Między hakerami a firmami i badaczami zajmującymi się cyberbezpieczeństwem rozpoczął się, jak zauważa NBC News, wyścig zbrojeń w dziedzinie sztucznej inteligencji. Hakerzy znajdują i wykorzystują luki w oprogramowaniu, natomiast firmy i badacze próbują naprawić je jako pierwsi.
W 2024 roku zespół Heather Adkins, wiceprezes Google ds. inżynierii bezpieczeństwa, rozpoczął projekt, w ramach którego Gemini, program LLM firmy Google, wykrywa istotne luki w zabezpieczeniach oprogramowania lub błędy, zanim znajdą je hakerzy. Na początku sierpnia ogłoszono, że w ramach projektu odkryto dotychczas co najmniej 20 ważnych, przeoczonych błędów w powszechnie używanym oprogramowaniu i powiadomiono firmy, aby mogły je naprawić.
Jak podkreśliła Heather Adkins, proces wykrywania luk i błędów jest dzięki sztucznej inteligencji szybszy.
Hakerzy coraz częściej wykorzystują sztuczną inteligencję
Adam Meyers z CrowdStrike, firmy zajmującej się cyberbezpieczeństwem, przyznał w wywiadzie dla NBC News, że zauważa coraz więcej dowodów stosowania sztucznej inteligencji wśród chińskich, rosyjskich, irańskich i przestępczych hakerów, których śledzi jego firma.
– Bardziej zaawansowani przeciwnicy wykorzystują ją na swoją korzyść. Z każdym dniem obserwujemy coraz więcej takich przypadków – powiedział Meyers.
Wykorzystanie sztucznej inteligencji do bezpośredniego hakowania celów dopiero zaczyna się rozwijać, jak przyznał z kolei Will Pearce, dyrektor generalny DreadNode, jednej z niewielu nowych firm zajmujących się bezpieczeństwem, które specjalizują się w hakowaniu z wykorzystaniem metod LLM. Zdaniem tego specjalisty technologia w końcu zaczęła nadążać za oczekiwaniami. Jeszcze niespełna dwa lata temu zautomatyzowane narzędzia hakerskie oparte na sztucznej inteligencji, aby prawidłowo wykonywać swoją pracę, wymagały sporych modyfikacji. Aktualnie są one już o wiele bardziej zaawansowane.
W czerwcu start-up Xbow zajmujący się hakowaniem z wykorzystaniem sztucznej inteligencji został pierwszym w historii start-upem z AI, który znalazł się na szczycie rankingu HackerOne – istniejącego od 2016 roku zestawienia hakerów identyfikujących najważniejsze luki w zabezpieczeniach.
Sztuczna inteligencja pomoże atakującym czy obrońcom?
Wśród hakerów i specjalistów ds. cyberbezpieczeństwa nie ma zgodności w kwestii tego, czy sztuczna inteligencja ostatecznie okaże się bardziej pomocna dla atakujących czy dla broniących się. Obecnie, jak podkreśla serwis NBC News, przewagę wydają się mieć ci drudzy.
Dalsze utrzymywanie się tej tendencji prognozuje Alexei Bulazel, starszy dyrektor ds. cyberbezpieczeństwa w Radzie Bezpieczeństwa Narodowego Białego Domu, który swoje stanowisko przedstawił w czasie sierpniowej konferencji hakerów Def Con w Las Vegas. Jego zdaniem przewaga broniących się nad atakującymi utrzymać ma się przynajmniej, dopóki Stany Zjednoczone będą posiadać większość najbardziej zaawansowanych technologicznie firm na świecie. W systemach zabezpieczeń tych firm hakerzy rzadko bowiem znajdują poważne luki. Znacznie częściej udaje im się to w przypadku mniejszych firm, które nie mają tak rozwiniętych zespołów ds. cyberbezpieczeństwa. Jak zaznaczył Bulazel, w wykrywaniu tego rodzaju błędów, jeszcze zanim zrobią to przestępcy, szczególnie pomocna jest sztuczna inteligencja.
Czytaj więcej
Sam Altman mierzy się z falą krytyki po premierze nowego modelu GPT-5. Zapowiada personalizację ChatGPT, najpopularniejszej AI na świecie i giganty...
– Sztuczna inteligencja jest lepsza w takich dziedzinach, jak identyfikacja luk w zabezpieczeniach przy niskich kosztach i w prosty sposób, co naprawdę demokratyzuje dostęp do informacji o lukach – przyznał Bulazel.
Jednak trend ten może ulec zmianie wraz z rozwojem technologii. Jednym z powodów jest brak darmowego narzędzia do automatycznego hakowania lub testowania penetracyjnego, które wykorzystywałoby sztuczną inteligencję. Tego rodzaju narzędzia są już dostępne online jako programy testujące luki w praktykach stosowanych przez hakerów. Jeżeli ktoś włączy do nich zaawansowany model LLM i udostępni je za darmo, to – zdaniem Heather Adkins z Google – „sytuacja stanie się nieco niebezpieczna”.
Z kolei zdaniem Adama Meyersa z CrowdStrike poważne zagrożenie dla cyberbezpieczeństwa stanowić może rozwój agentowej sztucznej inteligencji (agentic AI), czyli narzędzi wykonujących bardziej złożone zadania, jak pisanie i wysyłanie wiadomości e-mail lub uruchamianie kodu programującego.
– Agentowa sztuczna inteligencja to tak naprawdę sztuczna inteligencja, która może podejmować działania w twoim imieniu, prawda? Stanie się to kolejnym zagrożeniem wewnętrznym, ponieważ organizacje, które wdrażają agentową sztuczną inteligencję, nie mają wbudowanych zabezpieczeń, które powstrzymałyby kogoś przed nadużyciem jej – przyznał Meyers.