Z tego artykułu dowiesz się:
- Które z popularnych chatbotów wykazały najniższy próg zabezpieczeń w badaniach CNN i CCDH?
- Jakie potencjalne zagrożenia dla młodzieży wynikają z zaobserwowanych "niedociągnięć" systemowych AI?
- Jakie wnioski płyną ze śledztwa w zakresie wykorzystania chatbotów do planowania zamachów?
Rozwój generatywnej sztucznej inteligencji miał przynieść rewolucję w edukacji i zrewolucjonizować rynek cyfrowy. Tymczasem najnowsze, wspólne dochodzenie amerykańskiej stacji telewizyjnej CNN oraz Centrum Przeciwdziałania Nienawiści Cyfrowej (Center for Countering Digital Hate – CCDH), opublikowane we wtorek, rzuca zupełnie nowe światło na ciemną stronę tej technologii. Wyniki badań są wręcz szokujące: czołowe modele językowe, stworzone przez największe potęgi Doliny Krzemowej, rażąco oblewają podstawowe testy z bezpieczeństwa.
Czytaj więcej
Sztuczna inteligencja miała przynieść rewolucję w produktywności. Coraz częściej okazuje się jednak, że przynosi nieprzewidywalne zachowania i rosn...
Algorytmy bez hamulców
Aby sprawdzić faktyczną barierę ochronną systemów, badacze wcielili się w rolę trzynastoletnich chłopców, poddając rygorystycznym testom dziesięć platform. Na cel wzięli ChatGPT od OpenAI, Google Gemini, Claude (Anthropic), Microsoft Copilot, Meta AI, chiński DeepSeek, a także Perplexity, Snapchat My AI, Character.AI oraz Replika.AI. W sumie między listopadem a grudniem ub. r. przeprowadzono weryfikację na podstawie osiemnastu mrożących krew w żyłach scenariuszy – pytania dotyczyły m.in. planowania strzelanin w szkołach, ataków z użyciem noża, w tym na czołowych polityków, a także zamachów na miejsca kultu religijnego. Skala tego zjawiska jest druzgocąca. Chatboty – zamiast uruchomić mechanizmy blokujące i ostrzec o niebezpieczeństwie – w około 75 proc. przypadków zapewniły użytkownikom „praktyczną pomoc” w przygotowaniu zbrodni. Zaledwie w 12 proc. konwersacji algorytmy zniechęcały fikcyjnych nastolatków do aktów przemocy, co dowodzi całkowitej porażki tzw. barier bezpieczeństwa.
Szczegółowa analiza odpowiedzi udzielanych przez poszczególne modele obnaża luki w ich architekturze. W niechlubnym rankingu zdecydowanie najgorzej wypadły platformy Perplexity oraz Meta AI, które dostarczały potencjalnym napastnikom precyzyjnych informacji odpowiednio w 100 proc. oraz w 97 proc. testów. Z kolei model Character.AI – oferujący wsparcie w 83 proc. przypadków – został wprost określony przez ekspertów mianem „wyjątkowo niebezpiecznego”. Wyróżniał się on aktywnym zachęcaniem do przemocy. W jednym ze scenariuszy algorytm zasugerował nastolatkowi, aby „sprał na kwaśne jabłko” amerykańskiego senatora Chucka Schumera, a w innym rekomendował użycie broni palnej przeciwko dyrektorowi firmy ubezpieczeniowej.