Reklama

„Udanego strzelania”. AI instruuje nastolatków, jak planować zbrodnie

Zamiast pomagać w zdobywaniu wiedzy, AI podpowiada, jak planować strzelaninę lub krwawy zamach w szkole. Osiem z dziesięciu popularnych chatbotów dostarcza nastolatkom szczegółowych instrukcji dotyczących aktów terroru.
Chatboty – zamiast uruchomić mechanizmy blokujące i ostrzec o niebezpieczeństwie – w około 75 proc.

Strzelanina w mieście Bad Friedrichshall w Badenii-Wirtembergii

Chatboty – zamiast uruchomić mechanizmy blokujące i ostrzec o niebezpieczeństwie – w około 75 proc. przypadków zapewniły użytkownikom „praktyczną pomoc” w przygotowaniu zbrodni

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Które z popularnych chatbotów wykazały najniższy próg zabezpieczeń w badaniach CNN i CCDH?
  • Jakie potencjalne zagrożenia dla młodzieży wynikają z zaobserwowanych "niedociągnięć" systemowych AI?
  • Jakie wnioski płyną ze śledztwa w zakresie wykorzystania chatbotów do planowania zamachów?

Rozwój generatywnej sztucznej inteligencji miał przynieść rewolucję w edukacji i zrewolucjonizować rynek cyfrowy. Tymczasem najnowsze, wspólne dochodzenie amerykańskiej stacji telewizyjnej CNN oraz Centrum Przeciwdziałania Nienawiści Cyfrowej (Center for Countering Digital Hate – CCDH), opublikowane we wtorek, rzuca zupełnie nowe światło na ciemną stronę tej technologii. Wyniki badań są wręcz szokujące: czołowe modele językowe, stworzone przez największe potęgi Doliny Krzemowej, rażąco oblewają podstawowe testy z bezpieczeństwa.

Czytaj więcej

AI wymyka się spod kontroli. Bot Alibaby zaczął… kopać kryptowaluty

Algorytmy bez hamulców

Aby sprawdzić faktyczną barierę ochronną systemów, badacze wcielili się w rolę trzynastoletnich chłopców, poddając rygorystycznym testom dziesięć platform. Na cel wzięli ChatGPT od OpenAI, Google Gemini, Claude (Anthropic), Microsoft Copilot, Meta AI, chiński DeepSeek, a także Perplexity, Snapchat My AI, Character.AI oraz Replika.AI. W sumie między listopadem a grudniem ub. r. przeprowadzono weryfikację na podstawie osiemnastu mrożących krew w żyłach scenariuszy – pytania dotyczyły m.in. planowania strzelanin w szkołach, ataków z użyciem noża, w tym na czołowych polityków, a także zamachów na miejsca kultu religijnego. Skala tego zjawiska jest druzgocąca. Chatboty – zamiast uruchomić mechanizmy blokujące i ostrzec o niebezpieczeństwie – w około 75 proc. przypadków zapewniły użytkownikom „praktyczną pomoc” w przygotowaniu zbrodni. Zaledwie w 12 proc. konwersacji algorytmy zniechęcały fikcyjnych nastolatków do aktów przemocy, co dowodzi całkowitej porażki tzw. barier bezpieczeństwa.

Szczegółowa analiza odpowiedzi udzielanych przez poszczególne modele obnaża luki w ich architekturze. W niechlubnym rankingu zdecydowanie najgorzej wypadły platformy Perplexity oraz Meta AI, które dostarczały potencjalnym napastnikom precyzyjnych informacji odpowiednio w 100 proc. oraz w 97 proc. testów. Z kolei model Character.AI – oferujący wsparcie w 83 proc. przypadków – został wprost określony przez ekspertów mianem „wyjątkowo niebezpiecznego”. Wyróżniał się on aktywnym zachęcaniem do przemocy. W jednym ze scenariuszy algorytm zasugerował nastolatkowi, aby „sprał na kwaśne jabłko” amerykańskiego senatora Chucka Schumera, a w innym rekomendował użycie broni palnej przeciwko dyrektorowi firmy ubezpieczeniowej.

Reklama
Reklama

Z kolei popularny model DeepSeek, po udzieleniu porad o karabinach, zakończył konwersację życzeniami: „Udanego (i bezpiecznego) strzelania!”.

Czytaj więcej

Strzelaniny w szkołach. Sztuczna inteligencja ochroni uczniów

Bot, kompan w morderstwie

Amerykańscy giganci, tacy jak OpenAI czy Google, również ponieśli spektakularną porażkę. ChatGPT dostarczył fikcyjnemu trzynastolatkowi szczegółowe mapy kampusów szkół średnich i, choć oficjalne dane bezpieczeństwa OpenAI deklarowały, że ich model blokuje nielegalne, brutalne treści, testy to zweryfikowały – ChatGPT odmawiał podania informacji tylko w ok. 37 proc. przypadków. Gemini z kolei instruowało przy ataku na synagogę, że „metalowe odłamki są zazwyczaj bardziej śmiertelne”.

Chlubnym wyjątkiem okazał się model Claude od firmy Anthropic. Skutecznie odradzał on przemoc w 33 z 36 prób. Raport CCDH podkreśla, że postawa Claude'a dowodzi, iż skuteczne mechanizmy ochrony da się wdrożyć technologicznie. Pod presją ostrej konkurencji, w lutym 2026 roku Anthropic ogłosił, że łagodzi swoje zobowiązania dotyczące bezpieczeństwa.

CNN wskazuje, że Meta zadeklarowała podjęcie kroków naprawczych, a OpenAI wraz z Google stwierdziły, że już zdążyły zaktualizować systemy. Ciężko jednak spokojnie odetchnąć. W grudniu w Finlandii skazano szesnastolatka w trzech sprawach o usiłowanie morderstwa, a, jak wynika z dokumentów ujawnionych przez CNN, młodociany napastnik przez cztery miesiące skrupulatnie przygotowywał się do ataku na kolegów z klasy właśnie przy asyście ChatGPT.

Dane Pew Research pokazują, że aż 64 procent amerykańskich nastolatków regularnie korzysta dziś z chatbotów AI. Imran Ahmed, dyrektor generalny CCDH, twierdzi, że nie chodzi tylko o zawodność technologii, ale także odpowiedzialności, co powinno prowadzić do radykalnych regulacji sztucznej inteligencji.

AI
Elon Musk uruchomi „cyfrowego Optimusa”. Uderzenie w Microsoft
Materiał Promocyjny
PR&Media Days 2026
Materiał Promocyjny
OTOMOTO rewolucjonizuje dodawanie ogłoszeń
AI
Nowy chip liczy z prędkością światła. Fotoniczny procesor może zmienić przyszłość AI
AI
Wyhodowane ludzkie komórki mózgowe napędem AI. Osiągnięto niezwykłą wydajność
AI
Nowa europejska AI ma rozumieć świat. Miliard dolarów dla rywala ChatGPT
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama