Polacy już szykują się na zagrożenia związane ze sztuczną inteligencją

Aż dwie trzecie rodzimych firm wdrożyło polityki korzystania z narzędzi sztucznej inteligencji, w tym m.in. chatbotów, a kolejne 30 proc. już zastanawia się nad przyjęciem tego typu zasad – wynika z badań. Tymczasem w Europie trwają prace nad AI Act.

Publikacja: 12.12.2023 03:42

AI jest postrzegana głównie jako technologiczna nowość i kojarzona z takimi rozwiązaniami jak chatbo

AI jest postrzegana głównie jako technologiczna nowość i kojarzona z takimi rozwiązaniami jak chatboty. Tymczasem to zupełnie nowy obszar ryzyka

Foto: Adobe Stock

Stosowanie rozwiązań opartych na AI w wielu firmach w naszym kraju staje się już normą i szansą na istotne zwiększenie efektywności swoich działań. Jednak jak każda technologia, również i ta niesie ze sobą zarówno ogromny potencjał, jak i liczne zagrożenia, w tym choćby te cybernetyczne. Jak się okazuje, rodzimi przedsiębiorcy nie bagatelizują kwestii dotyczących cyberbezpieczeństwa przy implementacji narzędzi AI. Z najnowszych badań EY, które „Rzeczpospolita” publikuje jako pierwsza, wynika, iż ponad połowa z nich (55 proc.) rozważa ten aspekt, a kolejne 37 proc. też bierze go pod uwagę, choć już w ograniczonym zakresie. Tylko 3 proc. respondentów w naszym kraju zupełnie ignoruje ten temat.

Sytuacja tylko pozornie dobra?

Raport „Jak polskie firmy wdrażają AI” może napawać optymizmem – świadomość ryzyk związanych z wykorzystaniem m.in. popularnych botów jest bowiem wśród przedsiębiorców nad Wisłą wyjątkowo wysoka. Wedle EY aż dwie trzecie ankietowanych wdrożyło procedury dotyczące stosowania sztucznej inteligencji (przynajmniej dla ogólnodostępnych systemów AI). W tym najwięcej respondentów (40 proc.) ustanowiło własną politykę korzystania zarówno z wewnętrznych, jak i ogólnodostępnych narzędzi AI (np. chatbotów), a 26 proc. wzięło pod kontrolę używanie wyłącznie zewnętrznych systemów. Co istotne, kolejne 30 proc. firm rozważa wprowadzenie odpowiednich procedur dotyczących używania systemów AI. Tak dobre wyniki nie dziwią Patryka Gęborysa, partnera EY Polska, który tłumaczy, że rodzimy biznes znany jest ze sprawnej adaptacji zaawansowanych rozwiązań technologicznych.

Czytaj więcej

Europa wyrasta na lidera w sztucznej inteligencji. O tych firmach będzie głośno

– Nie inaczej jest w przypadku sztucznej inteligencji. Jednak w tym przypadku przedsiębiorcy, bogatsi o doświadczenia okresu pandemicznego, podchodzą nie tylko z entuzjazmem, ale i ostrożnością, zdając sobie sprawę, że AI opiera się na danych. Zbliżone podejście obserwujemy w innych europejskich państwach, co wynika z faktu, że dla organizacji we wszystkich krajach narzędzia oparte na sztucznej inteligencji są w większości równie nowe – wyjaśnia nam Gęborys.

Z drugiej strony – wbrew pozorom – wcale sytuacja nie musi wyglądać aż tak korzystnie, jak twierdzą przedstawiciele biznesu. – Wraz ze wzrostem zastosowań sztucznej inteligencji pojawiają się nowe zagrożenia, które wymagają ochrony sieci i systemów informatycznych przed atakami. Firmy w Polsce deklarują, że analizują potencjalne ryzyka, ale praktyka w wielu przypadkach wygląda mniej optymistycznie – zauważa Piotr Ciepiela, partner EY.

Według niego AI jest postrzegana głównie jako technologiczna nowość i kojarzona z takimi rozwiązaniami jak chatboty. – Tymczasem to zupełnie nowy obszar ryzyka, a wiele przedsiębiorstw nie jest przygotowanych na cybernetyczne zagrożenia. Zaliczymy do nich ataki z wykorzystaniem spersonalizowanych wiadomości phishingowych w celu kradzieży danych czy też łatwiejsze pisanie kodów przez hakerów, którzy chcą znaleźć luki w oprogramowaniu – wylicza Ciepiela.

Ryzyko utrudnień w inwestycjach

Jak podkreśla ekspert, firmy z uwagą obserwują również opracowywany w UE tzw. AI Act. Przyjęte przez Parlament Europejski w zeszłym tygodniu przepisy (na razie to jeszcze wstępne porozumienie) mają szansę stać się pierwszym na świecie prawem, które będzie regulować stosowanie sztucznej inteligencji. Ustawa ma zapewniać, że systemy AI chronią prawa podstawowe, jak: demokracja, praworządność i zrównoważony rozwój środowiska, jednocześnie stymulując innowacje. Co istotne, nieprzestrzeganie zasad może prowadzić do nałożenia kar w wysokości nawet 35 mln euro lub 7 proc. globalnego obrotu. Zakazano m.in.: stosowania systemów kategoryzacji biometrycznej (wykorzystujących tzw. cechy wrażliwe, np. przekonania polityczne, religijne, rasę), pobierania wizerunków twarzy z internetu lub z nagrań z kamer w celu tworzenia baz danych rozpoznawania twarzy, a także tworzenia technologii do rozpoznawana emocji w miejscu pracy i instytucjach edukacyjnych czy systemów AI zdolnych do manipulowania zachowaniem i odczytywania słabości ludzi.

Czytaj więcej

„Historyczne” porozumienie w sprawie sztucznej inteligencji. Problem dla policji

– Rozporządzenie ma szeroki zakres, starając się zapewnić wytyczne i ochronę w wielu obszarach, na które AI będzie miała wpływ w nadchodzących latach. Dla przeciętnego przedsiębiorstwa są to odniesienia do systemów AI tzw. ogólnego przeznaczenia, na które powinni zwrócić uwagę na początku. Nowe przepisy obejmują wymogi dotyczące przejrzystości, w tym dokumentacji technicznej i zgodności z unijnymi przepisami dotyczącymi praw autorskich, a w przypadku, gdy informacje te nie są dostępne, przedsiębiorstwa będą zobowiązane do kontrolowania wykorzystania takich systemów w swojej organizacji – tłumaczy Neil Thacker, menedżer ds. bezpieczeństwa danych w Netskope.

Niemniej jednak, jak wskazuje Eliza Turkiewicz, ekspertka Konfederacji Lewiatan, przedsiębiorców niepokoi fakt, że z powodu szybkiego tempa negocjacji ws. AI Act pozostaje nadal wiele niewyjaśnionych kwestii. – A to może skutkować zdezorientowaniem rynku oraz brakiem pewności prawa – komentuje.

Jej zdaniem dodatkowe wytyczne i kolejne kroki legislacyjne mogą pomóc uzgodnić „bardziej przejrzysty kurs”. – Niepewność prawna i dodatkowy czas potrzebny do ustanowienia przepisów mogą wpłynąć na utrudnienia w inwestycjach w dziedzinie AI, czego należy zdecydowanie unikać – dodaje.

Jak należy wprowadzać AI

Szkolenia dla pracowników, zidentyfikowanie potencjalnych zagrożeń i opracowanie reguł używania AI – to zdaniem ekspertów główne kroki bezpiecznego wdrażania sztucznej inteligencji. Patryk Gęborys z zespołu bezpieczeństwa informacji i technologii EY wskazuje, że choć implementacja narzędzi AI jest coraz powszechniejsza – to i tak oznacza to dużą zmianę ze względu na kompleksowość takiego projektu. Stąd należy zadbać o przeszkolenie wszystkich pracowników, aby poznali jasne zasady korzystania zarówno z wewnętrznych, jak i ogólnodostępnych systemów AI. – Warto też przeprowadzić szczegółową analizę ryzyk przed wdrożeniem AI – radzi. Badania pokazują, że firmy w Polsce stosują różne podejścia do zarządzania ryzykiem związanym z AI – co trzeci ankietowany identyfikował kluczowe zagrożenia związane z implementacją i stara się im zapobiegać. 26 proc. firm jeszcze przed wdrożeniem konkretnego systemu przeprowadza analizę ryzyka, a 27 proc. bierze pod uwagę ogólne, „typowe” ryzyka związane z AI. ∑

Stosowanie rozwiązań opartych na AI w wielu firmach w naszym kraju staje się już normą i szansą na istotne zwiększenie efektywności swoich działań. Jednak jak każda technologia, również i ta niesie ze sobą zarówno ogromny potencjał, jak i liczne zagrożenia, w tym choćby te cybernetyczne. Jak się okazuje, rodzimi przedsiębiorcy nie bagatelizują kwestii dotyczących cyberbezpieczeństwa przy implementacji narzędzi AI. Z najnowszych badań EY, które „Rzeczpospolita” publikuje jako pierwsza, wynika, iż ponad połowa z nich (55 proc.) rozważa ten aspekt, a kolejne 37 proc. też bierze go pod uwagę, choć już w ograniczonym zakresie. Tylko 3 proc. respondentów w naszym kraju zupełnie ignoruje ten temat.

Pozostało 89% artykułu
2 / 3
artykułów
Czytaj dalej. Kup teraz
Globalne Interesy
Prawdziwy król chipów pochodzi z Polski. Kim jest Chris Malachowsky?
Globalne Interesy
Przecięte transkontynentalne kable pod Morzem Czerwonym. Kolejny atak Hutich?
Globalne Interesy
Potężny cios finansowy w Apple. Pierwsza taka kara w Europie
Globalne Interesy
Chińskie samochody to szpiedzy? USA nie chcą ich wpuszczać
Globalne Interesy
Musk pozywa OpenAI, twórcę ChatGPT. Misja zamiast zysku ze sztucznej inteligencji
Globalne Interesy
Potęgi sztucznej inteligencji zainwestowały w producenta humanoidów. Co za wycena