Tak jak pracownicy używają ChatGPT do ulepszania e-maili, tak hakerzy używają „złych” wersji chatbotów AI, aby zwiększyć swoją siłę rażenia. W najciemniejszych zakątkach sieci pojawiła się cała grupa botów o takich nazwach, jak BadGPT, WormGPT czy FraudGPT, a przestępcy wykorzystują w nich tę samą lub podobną sztuczną inteligencję, która stoi za ChatGPT firmy OpenAI.
Zdenerwowany szef, zrozpaczona matka
Przestępcy mogą używać chatbotów – niektórych również dostępnych bezpłatnie w otwartym internecie – do tworzenia fałszywych witryn internetowych, pisania złośliwego oprogramowania i dostosowywania wiadomości tak, aby lepiej podszywać się pod kadrę kierowniczą i inne zaufane osoby. Są na tyle zaawansowane, że potrafią naśladować ludzkie zachowania, co umożliwia omijanie zabezpieczeń typu Captcha (polegają na konieczności wyboru właściwych zdjęć, by potwierdzić, że jest się człowiekiem, a nie botem). Nie mają przy tym żadnych hamulców etycznych jak, ChatGPT czy Bard, a często powstały jeszcze przed nimi. To choćby WormGPT stworzony na zasadach open source przez EleutherAI.
Czytaj więcej
Amerykanie po cichu wdrożyli nową broń przeznaczoną do łapania oszustów podatkowych, wyłudzaczy i fałszerzy. Sztuczna inteligencja robi to błyskawicznie.
Z takich narzędzi mogą korzystać, po uiszczeniu opłaty, nawet początkujący przestępcy. Ceny usług hakerskich AI, za które często płaci się w kryptowalutach, wahają się od 5 do 200 dol. miesięcznie. – Dla hakerów zaletą narzędzi darknetu, takich jak BadGPT – które według badaczy wykorzystuje model GPT OpenAI – jest to, że są szkolone w oparciu o skradzione dane. Zawierają przydatne informacje, takie jak wycieki, listy ofiar oprogramowania ransomware i wymuszeń – mówi Joseph Thacker, etyczny haker i główny inżynier sztucznej inteligencji w firmie AppOmni zajmującej się oprogramowaniem na potrzeby cyberbezpieczeństwa.
Ofiarą może być każdy. Na początku tego roku pracownik firmy z Hongkongu przekazał 25,5 mln dol. oszustowi, który podał się za jej dyrektora finansowego podczas fałszywej telekonferencji generowanej przez sztuczną inteligencję. Z kolei w amerykańskim stanie Arizona próbowano uzyskać milion dolarów okupu od matki dziewczyny, której głos niemal idealnie sklonowano.