Pracownicy dostają coraz częściej zakazy korzystania z ChatGPT. Poważne zagrożenia

Na pierwszym etapie boomu na AI biznes zachłystywał się tymi nowatorskimi rozwiązaniami, ale teraz firmy zaczynają zastanawiać się nad konsekwencjami stosowania sztucznej inteligencji.

Publikacja: 31.01.2024 17:17

Firmy obawiają się, że generatywna sztuczna inteligencja narazi na szwank bezpieczeństwo danych. Ale

Firmy obawiają się, że generatywna sztuczna inteligencja narazi na szwank bezpieczeństwo danych. Ale są też inne przyczyny coraz większej niechęci pracodawców

Foto: AdobeStock

Już 27 proc. przedsiębiorstw zakazuje stosowania systemów generatywnej AI. Powód? Obawy o prywatność i bezpieczeństwo danych. Jak wynika z najnowszych badań Cisco, 48 proc. respondentów przyznaje się do wprowadzania niepublicznych informacji do narzędzi genAI. A to poważne ryzyko wycieku wrażliwych danych. Już 91 proc. firm przyznaje, że musi zrobić więcej, aby zapewnić klientów, że ich dane są wykorzystywane przez sztuczną inteligencję do zamierzonych i zgodnych z prawem celów – czytamy w raporcie „Data Privacy Benchmark Study”.

Firmy obawiają się o bezpieczeństwo danych

Eksperci zauważają, że brak zaufania ze strony konsumentów to dziś rosnące wyzwanie dla koncernów wykorzystujących sztuczną inteligencję. Dev Stahlkopf, dyr. Cisco ds. prawnych, podkreśla, iż generatywna AI wymaga nowych technik zarządzania danymi i ryzykiem. Wśród najważniejszych obaw firmy wymieniają zagrożenia związane z własnością intelektualną danych opracowanych przez AI (69 proc.) oraz ryzyko ujawnienia informacji opinii publicznej lub konkurencji (68 proc.). Dlatego coraz więcej firm zakazuje – co najmniej tymczasowo – używania botów (tak zrobiło co czwarte przedsiębiorstwo, w 61 proc. przypadków wykluczono część narzędzi genAI).

Czytaj więcej

Sztuczna inteligencja pozbawi nas pracy? Musk: Trzeba znaleźć nowy sens życia

Inne z kolei wprowadzają specjalne mechanizmy kontroli – z badań wynika, że 63 proc. podmiotów posiada ograniczenia co do tego, jakie dane można wprowadzać do chatbotów. To dlatego, że w wielu przypadkach wpisywano np. informacje o pracownikach (45 proc.) lub tajemnice handlowe (48 proc.).

Rosną wydatki na ochronę

A firmy boją się związanych z tym naruszeń przepisów (tak wskazuje 25 proc. ankietowanych). Stąd coraz powszechniejsze w biznesie staje się etyczne i odpowiedzialne wykorzystanie AI. Do tego dochodzi kwestia regulacji w zakresie przechowywania danych na terenie danego kraju lub regionu. Na ten aspekt bezpieczeństwa uwagę zwraca aż 91 proc. badanych przez Cisco firm.

W ciągu ostatnich pięciu lat globalne wydatki na ochronę prywatności wzrosły średnio ponaddwukrotnie. Tylko w ub.r. wśród największych przedsiębiorstw (zatrudniających ponad 10 tys. pracowników) skoczyły one o 8 proc. Ten trend może zyskiwać na znaczeniu, bo 95 proc. firm deklaruje, że plusy z inwestycji w prywatność przewyższają koszty.

Już 27 proc. przedsiębiorstw zakazuje stosowania systemów generatywnej AI. Powód? Obawy o prywatność i bezpieczeństwo danych. Jak wynika z najnowszych badań Cisco, 48 proc. respondentów przyznaje się do wprowadzania niepublicznych informacji do narzędzi genAI. A to poważne ryzyko wycieku wrażliwych danych. Już 91 proc. firm przyznaje, że musi zrobić więcej, aby zapewnić klientów, że ich dane są wykorzystywane przez sztuczną inteligencję do zamierzonych i zgodnych z prawem celów – czytamy w raporcie „Data Privacy Benchmark Study”.

Pozostało 80% artykułu
2 / 3
artykułów
Czytaj dalej. Kup teraz
IT
Sztuczna inteligencja tropi oszustów. Tajna broń skarbówki i firm finansowych
IT
Apple ulepsza szyfrowanie iPhone`ów i Mac`ów. Szykuje się na potężne zagrożenie
IT
Chiński szpieg w odkurzaczu. Dokąd płyną dane z popularnych gadżetów
IT
Bonnie i Clyde XXI wieku. Powstaje film o parze hakerów, którzy ukradli 4 mld dol.
IT
Polski komunikator promowali celebryci. Założyciel Usecrypta ma zarzuty
IT
Producent oprogramowania szpiegującego Pegasus po cichu planuje powrót