Pracownicy dostają coraz częściej zakazy korzystania z ChatGPT. Poważne zagrożenia

Na pierwszym etapie boomu na AI biznes zachłystywał się tymi nowatorskimi rozwiązaniami, ale teraz firmy zaczynają zastanawiać się nad konsekwencjami stosowania sztucznej inteligencji.

Publikacja: 31.01.2024 17:17

Firmy obawiają się, że generatywna sztuczna inteligencja narazi na szwank bezpieczeństwo danych. Ale

Firmy obawiają się, że generatywna sztuczna inteligencja narazi na szwank bezpieczeństwo danych. Ale są też inne przyczyny coraz większej niechęci pracodawców

Foto: AdobeStock

Już 27 proc. przedsiębiorstw zakazuje stosowania systemów generatywnej AI. Powód? Obawy o prywatność i bezpieczeństwo danych. Jak wynika z najnowszych badań Cisco, 48 proc. respondentów przyznaje się do wprowadzania niepublicznych informacji do narzędzi genAI. A to poważne ryzyko wycieku wrażliwych danych. Już 91 proc. firm przyznaje, że musi zrobić więcej, aby zapewnić klientów, że ich dane są wykorzystywane przez sztuczną inteligencję do zamierzonych i zgodnych z prawem celów – czytamy w raporcie „Data Privacy Benchmark Study”.

Firmy obawiają się o bezpieczeństwo danych

Eksperci zauważają, że brak zaufania ze strony konsumentów to dziś rosnące wyzwanie dla koncernów wykorzystujących sztuczną inteligencję. Dev Stahlkopf, dyr. Cisco ds. prawnych, podkreśla, iż generatywna AI wymaga nowych technik zarządzania danymi i ryzykiem. Wśród najważniejszych obaw firmy wymieniają zagrożenia związane z własnością intelektualną danych opracowanych przez AI (69 proc.) oraz ryzyko ujawnienia informacji opinii publicznej lub konkurencji (68 proc.). Dlatego coraz więcej firm zakazuje – co najmniej tymczasowo – używania botów (tak zrobiło co czwarte przedsiębiorstwo, w 61 proc. przypadków wykluczono część narzędzi genAI).

Czytaj więcej

Sztuczna inteligencja pozbawi nas pracy? Musk: Trzeba znaleźć nowy sens życia

Inne z kolei wprowadzają specjalne mechanizmy kontroli – z badań wynika, że 63 proc. podmiotów posiada ograniczenia co do tego, jakie dane można wprowadzać do chatbotów. To dlatego, że w wielu przypadkach wpisywano np. informacje o pracownikach (45 proc.) lub tajemnice handlowe (48 proc.).

Rosną wydatki na ochronę

A firmy boją się związanych z tym naruszeń przepisów (tak wskazuje 25 proc. ankietowanych). Stąd coraz powszechniejsze w biznesie staje się etyczne i odpowiedzialne wykorzystanie AI. Do tego dochodzi kwestia regulacji w zakresie przechowywania danych na terenie danego kraju lub regionu. Na ten aspekt bezpieczeństwa uwagę zwraca aż 91 proc. badanych przez Cisco firm.

W ciągu ostatnich pięciu lat globalne wydatki na ochronę prywatności wzrosły średnio ponaddwukrotnie. Tylko w ub.r. wśród największych przedsiębiorstw (zatrudniających ponad 10 tys. pracowników) skoczyły one o 8 proc. Ten trend może zyskiwać na znaczeniu, bo 95 proc. firm deklaruje, że plusy z inwestycji w prywatność przewyższają koszty.

Już 27 proc. przedsiębiorstw zakazuje stosowania systemów generatywnej AI. Powód? Obawy o prywatność i bezpieczeństwo danych. Jak wynika z najnowszych badań Cisco, 48 proc. respondentów przyznaje się do wprowadzania niepublicznych informacji do narzędzi genAI. A to poważne ryzyko wycieku wrażliwych danych. Już 91 proc. firm przyznaje, że musi zrobić więcej, aby zapewnić klientów, że ich dane są wykorzystywane przez sztuczną inteligencję do zamierzonych i zgodnych z prawem celów – czytamy w raporcie „Data Privacy Benchmark Study”.

Pozostało 80% artykułu
0 / 3
artykułów
Czytaj dalej. Subskrybuj
IT
Zabezpieczenia telefonu zamachowca złamano w 40 minut. FBI ma nowe narzędzie
IT
Straty są potężne. Trwa usuwanie szkód po globalnej awarii systemu Windows
IT
Potężne skutki awarii CrowdStrike`a, która zablokowała Windows. Świat wstaje z kolan
IT
Co wiemy o CrowdStrike, firmie winnej wielkiej awarii Windows. Czeka ją trudny czas
Materiał Promocyjny
Mity i fakty – Samochody elektryczne nie są ekologiczne
Materiał Promocyjny
Czy AI może stworzyć stronę internetową?