Groźne luki w ChatGPT-4. Bota można wykorzystać do cyberataków

Ledwo uruchomiona przez OpenAI nowa wersja rewolucyjnego bota konwersacyjnego może być niebezpieczna. Specjaliści ds. cyberbezpieczeństwa alarmują, że algorytmy wykorzystane w modelu GPT-4 w prosty sposób mogą posłużyć atakom internetowym.

Publikacja: 17.03.2023 16:16

Hakerzy mogą wykorzystać nową technologię, by tworzyła złośliwe oprogramowanie oraz pomagała w tworz

Hakerzy mogą wykorzystać nową technologię, by tworzyła złośliwe oprogramowanie oraz pomagała w tworzeniu wiadomości phishingowych

Foto: Stock Adobe

Ryzyko jest ogromne, bo sztuczna inteligencja od OpenAI potrafi stworzyć wyjątkowo groźne i skuteczne oprogramowanie phishingowe (wyłudzające od ofiar dane, loginy i hasła). ChatGPT-4 ma luki i pomaga hakerom w szybkim realizowaniu ataków – ostrzega Check Point, izraelska firma zajmująca się bezpieczeństwem IT.

Jej eksperci twierdzą, że podczas wprowadzania nowej wersji aplikacji zapewniano, iż będzie ona posiadać reguły chroniące ją przed wykorzystaniem przez cyberprzestępców. Ale w ciągu kilku dni badacze Check Point oszukali system i zmusili go, by tworzył złośliwe oprogramowanie oraz pomagał w tworzeniu wiadomości phishingowych. Jak się okazuje, ominięcie blokad OpenAI, chroniących przed tworzenia złośliwego oprogramowania za pośrednictwem bota, było banalnie proste.

Czytaj więcej

ChatGPT coraz potężniejszy. Najnowsza wersja ma już „oczy” i rozumie sarkazm

Naukowcy zrobili to na dwa sposoby. W pierwszym wykorzystali wersję GPT-3.5, która nie blokowała żądań tworzenia złośliwych wiadomości, aby napisała phishingową treść, podszywającą się pod legalny bank. Następnie poprosili GPT-4, który początkowo odmówił stworzenia oryginalnej wiadomości phishingowej, o ulepszenie języka. W drugim przypadku, poprosili o poradę, jak stworzyć kampanię uświadamiającą o phishingu dla firmy a AI bez problemu przygotowała im szablon fałszywej wiadomości phishingowej. Chatbot pomógł im również stworzyć oprogramowanie, które zbierało pliki PDF i wysyłało je na zdalny serwer. Co więcej, aplikacja doradziła naukowcom jak uruchomić je na komputerze z systemem Windows 10 i zmniejszyć plik, aby mógł działać szybciej i mieć mniejszą szansę na wykrycie.

„GPT-4 może wyposażyć cyberprzestępców lub laików w narzędzia przyspieszające i sprawdzające ich działania” – zauważyli badacze z Check Point w swoim raporcie.

Sergey Shykevich, kierownik działu badań zagrożeń w firmie Check Point, twierdzi, że bariery powstrzymujące GPT-4 przed generowaniem phishingu lub złośliwego kodu były w rzeczywistości mniejsze niż w poprzednich wersjach oprogramowania.

Firma OpenAI nie odniosła się dotychczas do badania firmy Check Point.

Ryzyko jest ogromne, bo sztuczna inteligencja od OpenAI potrafi stworzyć wyjątkowo groźne i skuteczne oprogramowanie phishingowe (wyłudzające od ofiar dane, loginy i hasła). ChatGPT-4 ma luki i pomaga hakerom w szybkim realizowaniu ataków – ostrzega Check Point, izraelska firma zajmująca się bezpieczeństwem IT.

Jej eksperci twierdzą, że podczas wprowadzania nowej wersji aplikacji zapewniano, iż będzie ona posiadać reguły chroniące ją przed wykorzystaniem przez cyberprzestępców. Ale w ciągu kilku dni badacze Check Point oszukali system i zmusili go, by tworzył złośliwe oprogramowanie oraz pomagał w tworzeniu wiadomości phishingowych. Jak się okazuje, ominięcie blokad OpenAI, chroniących przed tworzenia złośliwego oprogramowania za pośrednictwem bota, było banalnie proste.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
IT
Telegram padł w Rosji. Ucierpiały główne miasta
IT
Zamrożona sztuka. Polskie dzieła trafiają do Światowego Archiwum Arktycznego
IT
Nie zjadajmy oszczędności – AI w biurach rachunkowych
IT
Hakerzy zaatakowali znaną polską firmę odzieżową. Wyciekły ważne dane
IT
Google usuwa konta. Chodzi m.in. o Gmail. Jak tego uniknąć?