7,5 mln funtów – taką karę ma zapłacić nowojorska spółka Clearview AI za masowe utrwalanie i katalogowanie zdjęć osób z internetu i mediów społecznościowych. Brytyjski regulator uznał, że działania firmy specjalizującej się w technologiach rozpoznawania twarzy są bezprawne. Podobne decyzje zapadły również w Australii czy Grecji, gdzie – w lipcu br. – za działanie sztucznej inteligencji nałożono na Clearview AI aż 20 mln euro kary. Kilka miesięcy wcześniej z kolei węgierski Urząd Ochrony Danych Osobowych obciążył Hungarian SA, jeden z tamtejszych banków, kwotą 700 tys. euro „za naruszenia w obszarze AI”.
Przykładów przekraczania przez algorytmy obowiązujących regulacji w ostatnich latach szybko przybywa. Jednocześnie technologie sztucznej inteligencji rozlewają się w biznesie niezwykle dynamicznie, narażając mniej świadome firmy na odpowiedzialność. Z badań McKinsey wynika, że pod koniec zeszłego roku już 56 proc. firm na świecie korzystało z rozwiązań AI. A to o 6 pkt proc. więcej niż jeszcze rok wcześniej. Analizy wskazują, że najczęściej technologię tego typu angażowano głównie do optymalizacji działań serwisowych (27 proc. przypadków), udoskonalania produktów (22 proc.), a także automatyzacji contact center (22 proc.) czy zapobiegania awariom (18 proc.). Jak podkreślają eksperci, wyraźnie widać na podstawie tych danych, że sztuczna inteligencja wspomaga firmy na wiele sposobów. Zagrożenie jest jednak realne, zwłaszcza w kontekście m.in. ochrony danych osobowych (co pokazują przykłady Clearview AI czy Hungarian SA). Tymczasem, jak wynika z raportu kancelarii Dentons, choć aż 81 proc. respondentów w sektorze biznesowym uznaje ową ochronę za istotną kwestię, to ledwie 55 proc. firm ma politykę ochrony owych danych, a tylko 19 proc. strategię lub mapę drogową dla AI. A to oznacza, że jest ona wdrażana bez odpowiedniego rozważenia ryzyka, właściwych przepisów lub kontroli wewnętrznych niezbędnych do dobrego zarządzania algorytmami.
Czytaj więcej
Zabójcze systemy broni autonomicznej zaczynają się rozprzestrzeniać. I coraz trudniej je kontrolować.
Świadomość problemu wśród przedsiębiorców jednak jest, gdyż 80 proc. badanych zgłasza niepewność co do zakresu odpowiedzialności za decyzje i zaniedbania dokonywane przez systemy AI. Ponad połowa ma obawy co do ryzyka dyskryminacji wynikającej z działań takich systemów – czytamy w raporcie Dentons. Anna Szczygieł, współautorka raportu, zauważa, że wykorzystanie sztucznej inteligencji przez biznes wymaga kompleksowego spojrzenia od strony prawnej. – W szczególności z perspektywy prawa autorskiego, ochrony danych, kontraktów na zakup i sprzedaż produktów wykorzystujących AI czy kwestii odpowiedzialności – kontraktowej lub odpowiedzialności ubezpieczyciela – wylicza.
Ekspertów nie dziwi, że ubezpieczyciele, którzy sami także coraz chętniej korzystają z AI w swojej działalności, coraz więcej uwagi poświęcają rozwiązaniom ubezpieczeniowym, które mają zapewnić ochronę ciągle rozwijającej się technologii. – W końcu współczesne samochody mają wiele funkcji autonomicznych. Systemy monitorujące wilgotność, przepływ wody czy też temperaturę w budynkach to także elementy naszej codzienności. Ponadto sami ubezpieczyciele coraz częściej oferują klientom wsparcie w postaci systemów monitorujących i predykcyjnych, pozwalających zminimalizować ryzyko awarii – zauważa Mateusz Bartoszcze, radca prawny z EIB, brokera ubezpieczeniowego.