Reklama

„Sytuacja stanie się niebezpieczna”. Ruszył nowy wyścig zbrojeń w AI

Sztuczna inteligencja wspiera dziś zarówno hakerów, jak i firmy zajmujące się cyberbezpieczeństwem. Pierwsi wykorzystują ją do skanowania komputerów ofiar w poszukiwaniu poufnych materiałów, natomiast drudzy – do wykrywania luk w zabezpieczeniach.

Publikacja: 19.08.2025 11:20

Hakerzy i internetowi oszuści coraz częściej wykorzystują AI. Ale i AI z nimi walczy

Hakerzy i internetowi oszuści coraz częściej wykorzystują AI. Ale i AI z nimi walczy

Foto: Adobe Stock

Na sprawę zwraca uwagę amerykański serwis NBC News.

Sztuczna inteligencja wykorzystana w kampanii rosyjskich hakerów

Tego lata po raz pierwszy rosyjscy hakerzy zastosowali nową metodę ataków na masowe wiadomości phishingowe wysyłane do Ukraińców. Dodali do nich załącznik zawierający program sztucznej inteligencji, który po zainstalowaniu automatycznie skanował komputery ofiar w poszukiwaniu poufnych plików, a następnie wysyłał je do hakerów.

Czytaj więcej

Można stracić kontrolę nad sztuczną inteligencją. Eksperci alarmują po ataku

Proceder ten został szczegółowo opisany w lipcowych raportach technicznych zarówno przez ukraiński rząd, jak i przez kilka firm zajmujących się cyberbezpieczeństwem. Jest pierwszym znanym przypadkiem wykrycia faktu, że rosyjski wywiad tworzy złośliwy kod z wykorzystaniem dużych modeli językowych (LLM), czyli rodzaju chatbotów opartych na sztucznej inteligencji.

Wyścig zbrojeń w dziedzinie sztucznej inteligencji

Kampania Rosjan nie była jedyną tego rodzaju działalnością w ostatnich miesiącach. Narzędzia sztucznej inteligencji w swojej pracy zaczęli wykorzystywać różni hakerzy – cyberprzestępcy, szpiedzy, badacze i obrońcy korporacyjni. Chociaż modele LLM, takie jak ChatGPT, są cały czas podatne na błędy, to niezwykle sprawnie przetwarzają instrukcje językowe i tłumaczą prosty język na kod komputerowy, a także identyfikują i podsumowują dokumenty. Jak dotąd technologia ta nie zrewolucjonizowała hakowania, jednak sprawiła, że doświadczeni hakerzy stali się lepsi i szybsi.

Reklama
Reklama

Czytaj więcej

Nowa mapa pracy i zarobków w polskim IT. Najbardziej poszukiwani już nie juniorzy

Między hakerami a firmami i badaczami zajmującymi się cyberbezpieczeństwem rozpoczął się, jak zauważa NBC News, wyścig zbrojeń w dziedzinie sztucznej inteligencji. Hakerzy znajdują i wykorzystują luki w oprogramowaniu, natomiast firmy i badacze próbują naprawić je jako pierwsi.

W 2024 roku zespół Heather Adkins, wiceprezes Google ds. inżynierii bezpieczeństwa, rozpoczął projekt, w ramach którego Gemini, program LLM firmy Google, wykrywa istotne luki w zabezpieczeniach oprogramowania lub błędy, zanim znajdą je hakerzy. Na początku sierpnia ogłoszono, że w ramach projektu odkryto dotychczas co najmniej 20 ważnych, przeoczonych błędów w powszechnie używanym oprogramowaniu i powiadomiono firmy, aby mogły je naprawić.

Jak podkreśliła Heather Adkins, proces wykrywania luk i błędów jest dzięki sztucznej inteligencji szybszy.

Hakerzy coraz częściej wykorzystują sztuczną inteligencję

Adam Meyers z CrowdStrike, firmy zajmującej się cyberbezpieczeństwem, przyznał w wywiadzie dla NBC News, że zauważa coraz więcej dowodów stosowania sztucznej inteligencji wśród chińskich, rosyjskich, irańskich i przestępczych hakerów, których śledzi jego firma.

– Bardziej zaawansowani przeciwnicy wykorzystują ją na swoją korzyść. Z każdym dniem obserwujemy coraz więcej takich przypadków – powiedział Meyers.

Reklama
Reklama

Wykorzystanie sztucznej inteligencji do bezpośredniego hakowania celów dopiero zaczyna się rozwijać, jak przyznał z kolei Will Pearce, dyrektor generalny DreadNode, jednej z niewielu nowych firm zajmujących się bezpieczeństwem, które specjalizują się w hakowaniu z wykorzystaniem metod LLM. Zdaniem tego specjalisty technologia w końcu zaczęła nadążać za oczekiwaniami. Jeszcze niespełna dwa lata temu zautomatyzowane narzędzia hakerskie oparte na sztucznej inteligencji, aby prawidłowo wykonywać swoją pracę, wymagały sporych modyfikacji. Aktualnie są one już o wiele bardziej zaawansowane.

W czerwcu start-up Xbow zajmujący się hakowaniem z wykorzystaniem sztucznej inteligencji został pierwszym w historii start-upem z AI, który znalazł się na szczycie rankingu HackerOne – istniejącego od 2016 roku zestawienia hakerów identyfikujących najważniejsze luki w zabezpieczeniach.

Sztuczna inteligencja pomoże atakującym czy obrońcom?

Wśród hakerów i specjalistów ds. cyberbezpieczeństwa nie ma zgodności w kwestii tego, czy sztuczna inteligencja ostatecznie okaże się bardziej pomocna dla atakujących czy dla broniących się. Obecnie, jak podkreśla serwis NBC News, przewagę wydają się mieć ci drudzy.

Dalsze utrzymywanie się tej tendencji prognozuje Alexei Bulazel, starszy dyrektor ds. cyberbezpieczeństwa w Radzie Bezpieczeństwa Narodowego Białego Domu, który swoje stanowisko przedstawił w czasie sierpniowej konferencji hakerów Def Con w Las Vegas. Jego zdaniem przewaga broniących się nad atakującymi utrzymać ma się przynajmniej, dopóki Stany Zjednoczone będą posiadać większość najbardziej zaawansowanych technologicznie firm na świecie. W systemach zabezpieczeń tych firm hakerzy rzadko bowiem znajdują poważne luki. Znacznie częściej udaje im się to w przypadku mniejszych firm, które nie mają tak rozwiniętych zespołów ds. cyberbezpieczeństwa. Jak zaznaczył Bulazel, w wykrywaniu tego rodzaju błędów, jeszcze zanim zrobią to przestępcy, szczególnie pomocna jest sztuczna inteligencja.

Czytaj więcej

Nowy ChatGPT rozczarował. Twórca przyznaje: „AI to bańka spekulacyjna”, ale chce wydać biliony

– Sztuczna inteligencja jest lepsza w takich dziedzinach, jak identyfikacja luk w zabezpieczeniach przy niskich kosztach i w prosty sposób, co naprawdę demokratyzuje dostęp do informacji o lukach – przyznał Bulazel.

Reklama
Reklama

Jednak trend ten może ulec zmianie wraz z rozwojem technologii. Jednym z powodów jest brak darmowego narzędzia do automatycznego hakowania lub testowania penetracyjnego, które wykorzystywałoby sztuczną inteligencję. Tego rodzaju narzędzia są już dostępne online jako programy testujące luki w praktykach stosowanych przez hakerów. Jeżeli ktoś włączy do nich zaawansowany model LLM i udostępni je za darmo, to – zdaniem Heather Adkins z Google – „sytuacja stanie się nieco niebezpieczna”.

Z kolei zdaniem Adama Meyersa z CrowdStrike poważne zagrożenie dla cyberbezpieczeństwa stanowić może rozwój agentowej sztucznej inteligencji (agentic AI), czyli narzędzi wykonujących bardziej złożone zadania, jak pisanie i wysyłanie wiadomości e-mail lub uruchamianie kodu programującego.

– Agentowa sztuczna inteligencja to tak naprawdę sztuczna inteligencja, która może podejmować działania w twoim imieniu, prawda? Stanie się to kolejnym zagrożeniem wewnętrznym, ponieważ organizacje, które wdrażają agentową sztuczną inteligencję, nie mają wbudowanych zabezpieczeń, które powstrzymałyby kogoś przed nadużyciem jej – przyznał Meyers.

Na sprawę zwraca uwagę amerykański serwis NBC News.

Sztuczna inteligencja wykorzystana w kampanii rosyjskich hakerów

Pozostało jeszcze 98% artykułu
Reklama
Technologie
Dzięki AI ludzie w przyszłości będą mieli więcej dzieci? Twórca ChatGPT o potencjale AGI
Technologie
Chiny budują latający lotniskowiec. Inspiracją pomysł NASA
Technologie
Superdzieci na zamówienie. Miliarderzy szukają lepszych genów i potomstwa z wysokim IQ
Technologie
Apple wprowadzi do domów robota z AI – i to ma być game changer
Technologie
AI osłabia umiejętności lekarzy? O badaniu z Polski rozpisują się światowe media
Reklama
Reklama