Analitycy sektora bezpieczeństwa cyfrowego ostrzegają: wchodzimy w nową erę zagrożeń. Eksperci Check Point Research przekazali właśnie, że odkryto pierwszy na świecie przypadek manipulowania AI przez złośliwe oprogramowanie. A to oznacza, że cyberprzestępcy przekraczają kolejną granicę.
Jak można zmanipulować AI?
Dotąd największą obawą, w kontekście narzędzi generatywnej sztucznej inteligencji, było ryzyko halucynacji, czyli podawania przez bota fałszywych, całkowicie zmyślonych informacji. Problem, z którym mierzą się popularne chatboty, może okazać się jednak niczym w stosunku do tego, co szykują hakerzy. Specjaliści od bezpieczeństwa IT ujawnili pierwszy przypadek użycia złośliwego oprogramowania, które zawierało technikę tzw. prompt injection. W skrócie chodzi o próbę zmanipulowania narzędzi AI. za pomocą specjalnie wstawionego tekstu. Komenda taka miałaby przekonać sztuczną inteligencję, że wirus nie jest zagrożeniem.
Czytaj więcej
Sztuczna inteligencja pomoże hakerom szybciej atakować ujawnione luki w zabezpieczeniach firm i i...
Dotąd twórcy złośliwego oprogramowania stosowali techniki takie jak „zaciemnianie kodu”, ukrywanie w pamięci, czy unikanie środowisk sandboxowych. Teraz sięgają po język naturalny i socjotechnikę, tyle że tym razem nie skierowaną do ludzi, lecz do botów. Jak chcą zmylić popularne LLM-y (duże modele językowe)?
Opisuje to przykład ujawniony przez Check Point. Doszło do tego na początku czerwca, gdy pewien złośliwy plik został anonimowo przesłany z Holandii do VirusTotal (bezpłatna internetowa usługa należąca do Google, która służy do analizy plików i adresów URL pod kątem złośliwego oprogramowania i innych zagrożeń). Jak podają badacze, plik „zawierał różne techniki unikania sandboxów”, ale przypominał raczej test lub wczesną, niekompletną wersję złośliwego komponentu. Część funkcji nie działała, a plik wypisywał informacje systemowe, które zwykle są przesyłane na zewnętrzny serwer.