7,5 mln funtów – taką karę ma zapłacić nowojorska spółka Clearview AI za masowe utrwalanie i katalogowanie zdjęć osób z internetu i mediów społecznościowych. Brytyjski regulator uznał, że działania firmy specjalizującej się w technologiach rozpoznawania twarzy są bezprawne. Podobne decyzje zapadły również w Australii czy Grecji, gdzie – w lipcu br. – za działanie sztucznej inteligencji nałożono na Clearview AI aż 20 mln euro kary. Kilka miesięcy wcześniej z kolei węgierski Urząd Ochrony Danych Osobowych obciążył Hungarian SA, jeden z tamtejszych banków, kwotą 700 tys. euro „za naruszenia w obszarze AI”.

Przykładów przekraczania przez algorytmy obowiązujących regulacji w ostatnich latach szybko przybywa. Jednocześnie technologie sztucznej inteligencji rozlewają się w biznesie niezwykle dynamicznie, narażając mniej świadome firmy na odpowiedzialność. Z badań McKinsey wynika, że pod koniec zeszłego roku już 56 proc. firm na świecie korzystało z rozwiązań AI. A to o 6 pkt proc. więcej niż jeszcze rok wcześniej. Analizy wskazują, że najczęściej technologię tego typu angażowano głównie do optymalizacji działań serwisowych (27 proc. przypadków), udoskonalania produktów (22 proc.), a także automatyzacji contact center (22 proc.) czy zapobiegania awariom (18 proc.). Jak podkreślają eksperci, wyraźnie widać na podstawie tych danych, że sztuczna inteligencja wspomaga firmy na wiele sposobów. Zagrożenie jest jednak realne, zwłaszcza w kontekście m.in. ochrony danych osobowych (co pokazują przykłady Clearview AI czy Hungarian SA). Tymczasem, jak wynika z raportu kancelarii Dentons, choć aż 81 proc. respondentów w sektorze biznesowym uznaje ową ochronę za istotną kwestię, to ledwie 55 proc. firm ma politykę ochrony owych danych, a tylko 19 proc. strategię lub mapę drogową dla AI. A to oznacza, że jest ona wdrażana bez odpowiedniego rozważenia ryzyka, właściwych przepisów lub kontroli wewnętrznych niezbędnych do dobrego zarządzania algorytmami.

Czytaj więcej

Terminator przestaje być tworem s-f. To maszyna zdecyduje, czy zabić

Świadomość problemu wśród przedsiębiorców jednak jest, gdyż 80 proc. badanych zgłasza niepewność co do zakresu odpowiedzialności za decyzje i zaniedbania dokonywane przez systemy AI. Ponad połowa ma obawy co do ryzyka dyskryminacji wynikającej z działań takich systemów – czytamy w raporcie Dentons. Anna Szczygieł, współautorka raportu, zauważa, że wykorzystanie sztucznej inteligencji przez biznes wymaga kompleksowego spojrzenia od strony prawnej. – W szczególności z perspektywy prawa autorskiego, ochrony danych, kontraktów na zakup i sprzedaż produktów wykorzystujących AI czy kwestii odpowiedzialności – kontraktowej lub odpowiedzialności ubezpieczyciela – wylicza.

Ekspertów nie dziwi, że ubezpieczyciele, którzy sami także coraz chętniej korzystają z AI w swojej działalności, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii. – W końcu współczesne samochody mają wiele funkcji autonomicznych. Systemy monitorujące wilgotność, przepływ wody czy też temperaturę w budynkach to także elementy naszej codzienności. Ponadto sami ubezpieczyciele coraz częściej oferują klientom wsparcie w postaci systemów monitorujących i predykcyjnych, pozwalających zminimalizować ryzyko awarii – zauważa Mateusz Bartoszcze, radca prawny z EIB, brokera ubezpieczeniowego.

Jak tłumaczy, mimo że funkcjonują już na rynku umowy ubezpieczenia uwzględniające udział AI w minimalizacji ryzyka, to istnieje jeszcze sporo wątpliwości co do odpowiedzialności za ewentualne szkody – za działanie bądź niezadziałanie konkretnych urządzeń. Czy zatem odpowiedzialny może być właściciel mienia, który kupił i zainstalował narzędzie monitorujące, a może jego twórca? Obowiązuje co prawda reżim odpowiedzialności producenta za produkt, ale co w sytuacji, w której samo urządzenie działa poprawnie? – A oprócz kwestii technicznych musimy też zmierzyć się z problemami etycznymi – zaznacza Bartoszcze. I podkreśla, że najlepszym przykładem są pojazdy autonomiczne. – Jak ma być oceniane ryzyko i co powinien zrobić pojazd w razie zagrożenia? Czy powinien chronić przede wszystkim pasażerów, czy ocenić potencjalne szkody w otoczeniu? Co, jeśli pojedynczy pieszy wyjdzie na jezdnię tuż przed pojazdem, którym podróżuje kilka osób? – zastanawia się prawnik. – W przypadku zdarzeń przemysłowych z kolei, czy ważniejsze jest bezpieczeństwo pracownika, czy minimalizacja szkód w linii produkcyjnej? – kontynuuje rozważania. – To trudne kwestie i nie zazdroszczę dylematów, przed którymi staną prawodawcy i twórcy oprogramowania – dodaje.

Pewne reguły gry ustalić zamierza Bruksela. UE postanowiła skodyfikować problem za pomocą Artificial Inteligence Act (AIA), który m.in. dokonuje podziału systemów. Kryterium jest stopień ryzyka wyrządzenia szkód, ingerencji i zakresu możliwej ingerencji w życie publiczne oraz społeczne. Wyróżniono więc systemy niosące wysokie ryzyko dla zdrowia, bezpieczeństwa oraz praw i wolności osobistych. Jako systemy wysokiego ryzyka zostały określone m.in. systemy znajdujące zastosowanie w służbie zdrowia, pojazdy autonomiczne czy systemy wyborcze. AIA ma być głosowana – wspólnie przez komisje Rynku Wewnętrznego i Ochrony Konsumentów oraz Wolności Obywatelskich, Sprawiedliwości i Spraw Wewnętrznych – pod koniec września.