Jak odpowiedzialnie tworzyć sztuczną inteligencję

Rozwiązania z zakresu AI otwierają przed nami ogromne szanse. Ale trzeba także pamiętać o ryzykach
Shutterstock

Określenie i przestrzeganie zasad odpowiedzialnego budowania i działania sztucznej inteligencji to poważne wyzwanie na poziomie globalnym.

Artykuł powstał we współpracy z Boston Consulting Group

Skala wykorzystania sztucznej inteligencji (ang. Artificial Intelligence, AI) m.in. w biznesie rośnie niemal z każdym dniem. Algorytmy sztucznej inteligencji mogą przyczynić się do skutecznej optymalizacji procesów biznesowych, prowadząc do bardziej efektywnego wykorzystania zasobów organizacji w różnych obszarach, także zasobów ludzkich.

Wymierne efekty

Na przykład automatyzacja powtarzalnych procesów, takich, jakie występują choćby w księgowości, uwalnia potencjał ludzi, którzy się nimi dotychczas zajmowali i pozwala na ich wykorzystanie do innych zadań w organizacji. Z kolei wykorzystanie botów na infoliniach znacznie zwiększa ich przepustowość i skraca czas oczekiwania na połączenie z konsultantem, gdyż klienci wiele informacji uzyskują już na etapie komunikatów automatycznych, które pozwalają na znalezienie rozwiązania ich problemu bez potrzeby kontaktu z konsultantami. W efekcie trafiają do nich osoby z pytaniami czy problemami niestandardowymi, co pozwala na znacznie bardziej optymalne zarządzanie pracą działów call center.

Wykorzystanie AI przekłada się także na konkretne pieniądze. Jak przypomina Komisja Europejska (KE), inwestycje w AI tylko w 2016 r. w Ameryce Północnej sięgały poziomu 12,1–18,6 mld euro, w Azji 6,5–9,7 mld euro, a w Europie 2,4–3,2 mld euro. Z kolei do 2025 r. wpływ na gospodarkę automatyzacji pracy, opartej na wiedzy robotów i pojazdów autonomicznych, może sięgnąć od 6,5 do nawet 12 bln euro rocznie.

Możliwe ryzyka

Korzyści z sięgania po nowe technologie są ogromne. Jednak widać także ryzyko. Związane jest ono np. z tworzeniem przy wykorzystaniu możliwości sztucznej inteligencji fałszywych obrazów i dźwięków (np. spreparowanych materiałów wideo z rzekomym udziałem konkretnych osób w niezaistniałych w rzeczywistości sytuacjach), do złudzenia przypominających prawdziwe nagrania. Zjawisko to określane jest jako deepfake (od angielskich słów deep learning – głębokie uczenie, oraz fake – podróbka, fałsz).

Trwa już także na dobre debata dotycząca choćby zasad zachowania AI kierującej pojazdami autonomicznymi: jak określić i wybrać, czy samochód ma uderzyć w matkę z dzieckiem, która nagle wtargnęła na jezdnię, czy też w drzewo albo jadącą prawidłowo z przeciwka ciężarówkę, bardziej narażając pasażerów… I kto po wypadku poniesie jaką odpowiedzialność, od kogo można się będzie domagać odszkodowania.

Dlatego prowadzone są prace nad określeniem zasad i regulacji zarówno na poziomie krajowym, jak i ponadnarodowym. Nad takimi rozwiązaniami pracuje choćby Unia Europejska.

Regulacje pod lupą

I właśnie nadchodzące regulacje unijne wziął pod lupę BCG Gamma – zespół w Boston Consulting Group wyspecjalizowany w obszarze sztucznej inteligencji. Tworzy go ponad 1500 specjalistów z zakresu AI oraz przetwarzania danych z całego świata, jak również konsultantów oraz ekspertów od statystyki, którzy przekuwają big data w realne rozwiązania dla biznesu.

– W naszej pracy i działaniach dla klientów związanych ze sztuczną inteligencją zwracamy szczególną uwagę na aspekt odpowiedzialności. Kiedy zaczynaliśmy, spojrzeliśmy na rynek i okazało się, że w firmach nie ma osób odpowiedzialnych za ten obszar. Sięgnęliśmy więc po literaturę i publikacje naukowe, aby uzmysłowić sobie, co jest potrzebne w obszarze odpowiedzialnego tworzenia AI i jak można te cele osiągnąć. U podstaw naszych poszukiwań znalazło się ponad 60 publikacji, m.in. OECD, ONZ, Unii Europejskiej, dokumentów rządów różnych krajów, np. Singapuru. Naszemu zespołowi nie udało się jednak znaleźć żadnego dokumentu czy regulacji mówiącej, jak postępować przy tworzeniu zasad odpowiedzialności AI. Były to zbiory wskazówek i intencji, jednak bez konkretów – relacjonował pierwsze działania zespołu Sylvain Duranton, twórca i globalny szef BCG Gamma.

– A więc zrobiliśmy dwie rzeczy: po pierwsze, zaczęliśmy budować własny zestaw narzędzi i praktyk, aby upewnić się, że nasze działania prowadzimy w sposób odpowiedzialny, łącznie z tym, czy nasze algorytmy nie powodują nadmiernej emisji CO2. Po drugie, spojrzeliśmy na praktyki na rynku. Przeprowadziliśmy pionierskie badanie, które objęło ponad 1 tys. firm, dotyczące ich praktyk w zakresie odpowiedzialności – mówił Sylvain Duranton.

Jak dodał, później Unia Europejska zaproponowała swój scenariusz rozwiązań dotyczących odpowiedzialnej AI, nieco odmienny od przyjętego przez firmę. – To było ekscytujące. Mogliśmy porównać unijne propozycje z naszymi, wiele się dowiedzieliśmy z tych propozycji, ale najważniejsze było to, że rządy dostrzegły problem – podkreślił globalny szef BCG Gamma.

Najnowsze propozycje rozwiązań „na rzecz doskonałości i wiarygodności sztucznej inteligencji” KE przedstawiła w kwietniu. – Komisja proponuje nowe przepisy i działania, aby przekształcić Europę w globalne centrum wiarygodnej AI. Połączenie pierwszych w historii ram prawnych dotyczących sztucznej inteligencji i nowego skoordynowanego planu opracowanego wraz z państwami członkowskimi zagwarantuje bezpieczeństwo i prawa podstawowe obywateli i przedsiębiorstw, co przyczyni się do upowszechnienia AI oraz do zwiększenia inwestycji i innowacyjności w tej dziedzinie w całej UE. Podejście to uzupełnią nowe przepisy dotyczące maszyn, zmieniające zasady bezpieczeństwa w taki sposób, aby zwiększyć zaufanie użytkowników do produktów nowej generacji o wszechstronnych zastosowaniach – zaznacza KE.

Kluczowe jest zaufanie

Jak mówiła Margrethe Vestager, wiceprzewodnicząca wykonawcza ds. Europy na miarę ery cyfrowej (Executive Vice-President, A Europe Fit for the Digital Age): – W dziedzinie AI zaufanie jest koniecznością, a nie tylko mile widzianym dodatkiem. Dzięki tym przełomowym przepisom UE obejmuje pozycję lidera w dziedzinie opracowywania nowych globalnych norm, które sprawią, że sztuczna inteligencja stanie się wiarygodną technologią. Ustanawiając standardy, możemy utorować drogę etycznym technologiom na całym świecie i zagwarantować, że UE pozostanie konkurencyjna. Nasze przepisy są dostosowane do przyszłych wyzwań, sprzyjają innowacjom i umożliwiają interwencję tam, gdzie jest to absolutnie potrzebne: gdy zagrożone są bezpieczeństwo i prawa podstawowe obywateli UE.

„Potencjalne korzyści, jakie AI przynosi naszym społeczeństwom, są wielorakie – od lepszej opieki medycznej po lepszą edukację. W obliczu szybkiego rozwoju technologicznego sztucznej inteligencji UE musi działać jednomyślnie, aby wykorzystać te możliwości. Chociaż większość systemów AI stwarza niskie ryzyko lub nie stwarza go w ogóle, to niektóre systemy AI powodują zagrożenia, którym należy przeciwdziałać, aby uniknąć niepożądanych skutków. Na przykład nieprzejrzystość wielu algorytmów może prowadzić do niepewności i utrudniać skuteczne egzekwowanie obowiązujących przepisów dotyczących bezpieczeństwa i praw podstawowych. W odpowiedzi na te wyzwania konieczne jest podjęcie działań legislacyjnych w celu zapewnienia dobrze funkcjonującego rynku wewnętrznego systemów AI, na którym odpowiednio uwzględnia się zarówno korzyści, jak i zagrożenia. Obejmuje to zastosowania takie jak systemy identyfikacji biometrycznej lub podejmowane przez sztuczną inteligencję decyzje dotyczące ważnych interesów osobistych, np. w dziedzinie rekrutacji, edukacji, opieki zdrowotnej lub egzekwowania prawa”, tłumaczy Komisja Europejska.

Z kolei w styczniu br. Parlament Europejski zaproponował wytyczne dotyczące wojskowego i niewojskowego wykorzystania AI. A w maju przyjął sprawozdanie ws. wykorzystania sztucznej inteligencji w edukacji, kulturze i sektorze audiowizualnym, w którym wezwał do projektowania technologii sztucznej inteligencji w sposób zapobiegający uprzedzeniom płciowym, społecznym lub kulturowym oraz chroniącym różnorodność.

Jak wskazują eksperci BCG, Unia z jednej strony wskazuje, co powinno być dobrą praktyką w wykorzystaniu głębokiego uczenia (ang. deep learning), a z drugiej przedstawia propozycje regulacji. – Obecne podejście koresponduje z tym, co my robiliśmy przez ostatnie dwa lata – zaznacza Sylvain Duranton.

Jak zauważa Steve Mills, globalny szef ds. etyki AI w BCG Gamma, przedstawione przez UE ramy działań to pierwsze tego typu regulacje na szeroką skalę. – I będzie służyć jako wzór dla wielu innych regulatorów. Jest to więc bardzo znaczący dokument – mówi.

Jak mówi, propozycja unijnych rozwiązań obejmuje trzy główne obszary. Po pierwsze, zawiera definicję sztucznej inteligencji. Po drugie, określa stopień ryzyka, jakie mogą generować systemy AI w zależności od sposobu ich wykorzystania (niedopuszczalne, wysokie, ograniczone/minimalne). Przy tym Unia bardzo dokładnie precyzuje, co obejmują poszczególne stopnie ryzyka. A po trzecie wreszcie, od poziomu tego ryzyka uzależnienia skalę regulacji i ewentualnych kar za ich nieprzestrzeganie. Chodzi zarówno o wymogi dotyczące audytów i certyfikatów firmowych, zgłoszeń do organu regulacyjnego czy rejestracji w bazie danych UE, jak i potencjalnych kar za nieprzestrzeganie regulacji, które według propozycji mają sięgać poziomu 6 proc. rocznego globalnego przychodu organizacji. Jak zwracają uwagę eksperci BCG Gamma, po podobny mechanizm UE sięgnęła w przepisach dotyczących ochrony danych osobowych (GDPR/RODO).

– Definicja przedmiotu regulacji jest bardzo szeroka. To przede wszystkim oprogramowanie, które umożliwia m.in. przewidywanie oferty i rekomendacje za pomocą całego wachlarza technik. Poza uczeniem maszynowym chodzi także np. o modele statystyczne, optymalizację wyszukiwania. Odnosi się więc nie tylko do AI, ale szerzej, do niemal całej analizy danych – tłumaczy Steve Mills.

– Całość propozycji wybiega dalej, niż się spodziewaliśmy. Obejmuje wszystkie działania związane z tworzeniem, sprzedażą, rozpowszechnianiem i użyciem AI w Unii. Jeśli więc spojrzymy z perspektywy globalnej organizacji, która próbuje ogarnąć całość tych skomplikowanych spraw i jest przy tym zaangażowana na rynku UE, to biorąc pod uwagę skalę proponowanych rozwiązań, naszym zdaniem stanie się tak, że większość firm przyjmie je globalnie jako swój domyślny standard działania, podobnie jak miało to miejsce w przypadku GDPR – podsumowuje Steve Mills.

 

OPINIA PARTNERA: BCG

dr Łukasz Bolikowski, dyrektor ds. data science w Boston Consulting Group

Sztuczna inteligencja (SI) jest dziś obecna w niemal każdym aspekcie naszego życia. To SI pomaga nam dotrzeć do celu, omijając korki, „rozumie” nas, gdy wydajemy polecenia głosowe urządzeniom, oraz podpowiada treści, które z dużym prawdopodobieństwem będą dla nas interesujące. Lekarze posiłkują się SI, diagnozując pacjentów, trenerzy sportowi – planując kolejne mecze, cementownie – redukując emisje CO2 do atmosfery, a linie lotnicze – optymalizując siatkę połączeń. Coraz częściej SI uczestniczy w podejmowaniu ważnych dla nas decyzji: kogo zaprosić na rozmowę rekrutacyjną, do kogo zadzwonić z atrakcyjną ofertą czy komu pozwolić zasiąść w ławie przysięgłych.

Pamiętajmy jednak, że dzisiejsza SI nie ma świadomości ani wolnej woli. Są to jedynie stosunkowo proste algorytmy szukające wzorców w obserwowanych danych. Algorytmy SI działają tak sprawnie, ponieważ są „karmione” ogromnymi zbiorami danych, cyfrowym zapisem najróżniejszych aktywności milionów ludzi i organizacji. Tu pojawia się jednak wyzwanie: algorytmy będą jedynie tak wiarygodne i bezstronne jak dane, których użyto w ich budowie. Dlatego automatyczne tłumaczenia tekstów powielają powszechnie obserwowane stereotypy płciowe, a chatbot jednego z gigantów cyfrowych w niecałe 24 godziny od uruchomienia nauczył się tworzyć wulgarne i rasistowskie treści. Algorytmy SI są więc swego rodzaju zwierciadłem odbijającym naszą zbiorową mądrość, ale i nasze uprzedzenia.

Na szczęście wraz z rozwojem SI tworzymy też coraz skuteczniejsze narzędzia do gwarantowania bezstronności i wiarygodności algorytmów. Zamiast traktować je jako „czarne skrzynki”, wymagamy od algorytmów wytłumaczenia swoich decyzji przez wskazanie zmiennych, które najistotniej wpłynęły na taki, a nie inny wynik. Analizujemy też przy pomocy metod statystycznych, jak algorytmy traktują tzw. grupy chronione, wobec których istnieje największe ryzyko uprzedzeń.

Stosowanie powyższych mechanizmów ochronnych było do tej pory kwestią wyboru i wyrazem odpowiedzialności tworzących je podmiotów. Dzięki proponowanej regulacji KE wiarygodna SI ma szansę stać się normą w Unii.

Artykuł powstał we współpracy z Boston Consulting Group

Tagi:

Mogą Ci się również spodobać

Polska spółka odzyskuje dostęp Facebooka. Koniec konfliktu

Spółka Brand24 podpisała porozumienie, na mocy którego odzyska dostęp do profili w serwisach Facebook ...

Na pograniczu światów czyli Managed Print Services

W pandemicznej rzeczywistości cyfryzacja zyskała na znaczeniu w tempie, jakiego nikt nie mógł się ...

Luksusowe marki modowe zaskoczyły. Wchodzą do gier

Boom na gry wideo sprawił, że ten kanał dotarcia do klientów dostrzegły największe marki ...

Amazon pracuje nad internetem z kosmosu

Amazon potwierdził, że chce w ramach „Projektu Kuipera” wysłać ponad 3 tys. satelitów, które ...

Spór o AI i rasizm. Google zwalnia niepokorne pracownice

Google zwolnił specjalistkę od etyki sztucznej inteligencji. I to nie pierwszą. Obie twierdzą, że ...

OLX skupi używane samochody Polaków

Właściciel znanej platformy internetowej, pośredniczącej przy sprzedaży rzeczy nowych i używanych, mocniej wchodzi w ...