Groźne luki w ChatGPT-4. Bota można wykorzystać do cyberataków

Ledwo uruchomiona przez OpenAI nowa wersja rewolucyjnego bota konwersacyjnego może być niebezpieczna. Specjaliści ds. cyberbezpieczeństwa alarmują, że algorytmy wykorzystane w modelu GPT-4 w prosty sposób mogą posłużyć atakom internetowym.

Publikacja: 17.03.2023 16:16

Hakerzy mogą wykorzystać nową technologię, by tworzyła złośliwe oprogramowanie oraz pomagała w tworz

Hakerzy mogą wykorzystać nową technologię, by tworzyła złośliwe oprogramowanie oraz pomagała w tworzeniu wiadomości phishingowych

Foto: Stock Adobe

Ryzyko jest ogromne, bo sztuczna inteligencja od OpenAI potrafi stworzyć wyjątkowo groźne i skuteczne oprogramowanie phishingowe (wyłudzające od ofiar dane, loginy i hasła). ChatGPT-4 ma luki i pomaga hakerom w szybkim realizowaniu ataków – ostrzega Check Point, izraelska firma zajmująca się bezpieczeństwem IT.

Jej eksperci twierdzą, że podczas wprowadzania nowej wersji aplikacji zapewniano, iż będzie ona posiadać reguły chroniące ją przed wykorzystaniem przez cyberprzestępców. Ale w ciągu kilku dni badacze Check Point oszukali system i zmusili go, by tworzył złośliwe oprogramowanie oraz pomagał w tworzeniu wiadomości phishingowych. Jak się okazuje, ominięcie blokad OpenAI, chroniących przed tworzenia złośliwego oprogramowania za pośrednictwem bota, było banalnie proste.

Czytaj więcej

ChatGPT coraz potężniejszy. Najnowsza wersja ma już „oczy” i rozumie sarkazm

Naukowcy zrobili to na dwa sposoby. W pierwszym wykorzystali wersję GPT-3.5, która nie blokowała żądań tworzenia złośliwych wiadomości, aby napisała phishingową treść, podszywającą się pod legalny bank. Następnie poprosili GPT-4, który początkowo odmówił stworzenia oryginalnej wiadomości phishingowej, o ulepszenie języka. W drugim przypadku, poprosili o poradę, jak stworzyć kampanię uświadamiającą o phishingu dla firmy a AI bez problemu przygotowała im szablon fałszywej wiadomości phishingowej. Chatbot pomógł im również stworzyć oprogramowanie, które zbierało pliki PDF i wysyłało je na zdalny serwer. Co więcej, aplikacja doradziła naukowcom jak uruchomić je na komputerze z systemem Windows 10 i zmniejszyć plik, aby mógł działać szybciej i mieć mniejszą szansę na wykrycie.

„GPT-4 może wyposażyć cyberprzestępców lub laików w narzędzia przyspieszające i sprawdzające ich działania” – zauważyli badacze z Check Point w swoim raporcie.

Sergey Shykevich, kierownik działu badań zagrożeń w firmie Check Point, twierdzi, że bariery powstrzymujące GPT-4 przed generowaniem phishingu lub złośliwego kodu były w rzeczywistości mniejsze niż w poprzednich wersjach oprogramowania.

Firma OpenAI nie odniosła się dotychczas do badania firmy Check Point.

Ryzyko jest ogromne, bo sztuczna inteligencja od OpenAI potrafi stworzyć wyjątkowo groźne i skuteczne oprogramowanie phishingowe (wyłudzające od ofiar dane, loginy i hasła). ChatGPT-4 ma luki i pomaga hakerom w szybkim realizowaniu ataków – ostrzega Check Point, izraelska firma zajmująca się bezpieczeństwem IT.

Jej eksperci twierdzą, że podczas wprowadzania nowej wersji aplikacji zapewniano, iż będzie ona posiadać reguły chroniące ją przed wykorzystaniem przez cyberprzestępców. Ale w ciągu kilku dni badacze Check Point oszukali system i zmusili go, by tworzył złośliwe oprogramowanie oraz pomagał w tworzeniu wiadomości phishingowych. Jak się okazuje, ominięcie blokad OpenAI, chroniących przed tworzenia złośliwego oprogramowania za pośrednictwem bota, było banalnie proste.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
IT
Pracownicy IT z mniejszym wzięciem i zagrożeni przez AI. Ciężki los juniora
IT
Brytyjski gigant oszukany na ogromne sumy. Stworzyli fałszywego dyrektora finansowego
IT
Polskie paradoksy dostosowań do unijnej dyrektywy
IT
Lawinowo przybywa programistów na swoim. Mają bardzo niepewną przyszłość
IT
Nowi królowie IT. Już nie programiści czy developerzy zarabiają najwięcej
Materiał Promocyjny
Technologia na etacie. Jak zbudować efektywny HR i skutecznie zarządzać kapitałem ludzkim?