Z tego artykułu dowiesz się:
- Jakie są konsekwencje korzystania z shadow AI w firmach?
- W jaki sposób pracownicy przetwarzają wrażliwe dane za pomocą niezatwierdzonych narzędzi AI?
- W jaki sposób shadow AI wpływa na bezpieczeństwo danych w firmach?
- Jakie wyzwania stoją przed firmami w kontekście regulacji użycia AI?
Badanie dotyczące skali shadow AI wśród pracowników przeprowadził m.in. portal Cybernews. Ankieta została wykonana w dniach 13–22 sierpnia 2025 r. wśród pracowników w USA w wieku 18–74 lat. Wzięło w niej udział 1 003 respondentów, dobranych w sposób reprezentatywny z uwzględnieniem wieku, płci i miejsca zamieszkania. Badanie przeprowadzono online za pośrednictwem panelu badawczego Cint. „59 proc. pracowników przyznaje, że korzysta z narzędzi AI, które nie zostały zatwierdzone przez ich pracodawcę” – informuje portal. Ponad połowa spośród nich (57 proc.) twierdzi, że ich bezpośredni przełożeni to akceptują. 16 proc. osób wskazało, że menedżerom jest to obojętne.
Z uzyskanych odpowiedzi wynika również, że to kadra zarządzająca przoduje w shadow AI. „93 proc. dyrektorów i menedżerów wyższego szczebla przyznało, że używa w pracy niezatwierdzonych narzędzi AI. Również kierownicy zespołów i superwizorzy robią to zaskakująco często. To swoisty paradoks – osoby, które powinny dawać przykład i dbać o bezpieczeństwo firmy, same łamią zasady” – czytamy.
Czytaj więcej
Chatboty AI, do których wiele osób zwraca się w poszukiwaniu towarzystwa lub wsparcia, używają ma...
Pracownicy przekazują AI wrażliwe dane
Badanie Cybernews pokazuje, że aż 75 proc. osób używających niezatwierdzonych narzędzi AI udostępnia im potencjalnie wrażliwe dane, np. dane pracowników, klientów lub wewnętrzne dokumenty firmowe. Okazuje się, że zdecydowana większość osób (89 proc.) zna ryzyka związane z tego typu praktykami, ale nie powstrzymuje ich to od korzystania z niezatwierdzonego AI. 57 proc. twierdzi, że przestaliby z niego korzystać dopiero po faktycznym wycieku danych.