Ryzyko jest ogromne, bo sztuczna inteligencja od OpenAI potrafi stworzyć wyjątkowo groźne i skuteczne oprogramowanie phishingowe (wyłudzające od ofiar dane, loginy i hasła). ChatGPT-4 ma luki i pomaga hakerom w szybkim realizowaniu ataków – ostrzega Check Point, izraelska firma zajmująca się bezpieczeństwem IT.
Jej eksperci twierdzą, że podczas wprowadzania nowej wersji aplikacji zapewniano, iż będzie ona posiadać reguły chroniące ją przed wykorzystaniem przez cyberprzestępców. Ale w ciągu kilku dni badacze Check Point oszukali system i zmusili go, by tworzył złośliwe oprogramowanie oraz pomagał w tworzeniu wiadomości phishingowych. Jak się okazuje, ominięcie blokad OpenAI, chroniących przed tworzenia złośliwego oprogramowania za pośrednictwem bota, było banalnie proste.
Czytaj więcej
Firma OpenAI pokazała najnowszy model swojej rewolucyjnej sztucznej inteligencji: GPT-4. Teraz ta budząca nadzieje, ale i obawy technologia, stanie się jeszcze inteligentniejsza i powszechniejsza. Czy jesteśmy na to gotowi?
Naukowcy zrobili to na dwa sposoby. W pierwszym wykorzystali wersję GPT-3.5, która nie blokowała żądań tworzenia złośliwych wiadomości, aby napisała phishingową treść, podszywającą się pod legalny bank. Następnie poprosili GPT-4, który początkowo odmówił stworzenia oryginalnej wiadomości phishingowej, o ulepszenie języka. W drugim przypadku, poprosili o poradę, jak stworzyć kampanię uświadamiającą o phishingu dla firmy a AI bez problemu przygotowała im szablon fałszywej wiadomości phishingowej. Chatbot pomógł im również stworzyć oprogramowanie, które zbierało pliki PDF i wysyłało je na zdalny serwer. Co więcej, aplikacja doradziła naukowcom jak uruchomić je na komputerze z systemem Windows 10 i zmniejszyć plik, aby mógł działać szybciej i mieć mniejszą szansę na wykrycie.
„GPT-4 może wyposażyć cyberprzestępców lub laików w narzędzia przyspieszające i sprawdzające ich działania” – zauważyli badacze z Check Point w swoim raporcie.