Odpowiedzialne innowacje: Moralność maszyn, czyli liczne pytania natury etycznej

Interakcje między ludźmi a maszynami stają się coraz bardziej naturalne, a granica pomiędzy światem cyfrowym a fizycznym wydaje się stopniowo zacierać - pisze Marta Miedzińska, Sieć Badawcza Łukasiewicz – ITECH Instytut Innowacji i Technologii.

Publikacja: 04.12.2024 11:22

Odpowiedzialne innowacje: Moralność maszyn, czyli liczne pytania natury etycznej

Foto: Adobe Stock

Rozwój sztucznej inteligencji i robotyki, jaki nastąpił na przestrzeni ostatnich lat, sprawił, że roboty - wcześniej kojarzone przede wszystkim z halami przemysłowymi - trafiły pod strzechy. Tym sposobem Roomba - samosprzątający odkurzacz, czy Alexa - inteligentny asystent głosowy, stały się codziennością wielu gospodarstw domowych. Interakcje między ludźmi a maszynami stają się coraz bardziej naturalne, a granica pomiędzy światem cyfrowym a fizycznym wydaje się stopniowo zacierać. Zwłaszcza wtedy, kiedy przyznajemy maszynom autonomię, oddając decyzyjność w ich ręce.

Immanuel Kant definiował autonomię jako właściwą człowiekowi zdolność do wyznaczania dla siebie norm moralnych, czyli określania tego co jest dobre, a co złe. I choć, wbrew powszechnie podsycanym obawom, roboty nie dążą do przejęcia kontroli nad światem, to człowiek dąży do przekazania im coraz większej odpowiedzialności i zredukowania własnego zaangażowania w działanie i procesy decyzyjne. Najbardziej kontrowersyjne zastosowania technologii autonomicznych odnoszą się do kwestii takich jak broń wojskowa, roboty opiekuńcze, czy pojazdy. Stawia to przed nami trudne pytania natury etycznej. Czy autonomiczne drony wojskowe powinny podejmować decyzje o życiu i śmierci bez ludzkiej ingerencji? W jaki sposób roboty opiekuńcze wpływają na jakość życia osób starszych i samotnych? Czy wreszcie - jakie dylematy moralne wiążą się z pojazdami autonomicznymi, które muszą dokonywać wyborów w sytuacjach, gdzie kolizje są nieuniknione? W kontekście wykładniczo rozwijającej się sztucznej inteligencji, niezwykle ważne stają się pytania o odpowiedzialność, zaufanie i etykę – tematy, które stanowią nieodłączny element dyskusji o przyszłości, w której AI będzie odgrywać coraz bardziej znaczącą rolę.

Autonomiczny transport

Obecnie pełna autonomia pojazdów (poziom 5 według skali SAE ), które mogą poruszać się bez udziału kierowcy w każdych warunkach drogowych i pogodowych, nie jest jeszcze dostępna w powszechnym użytkowaniu. Na drogach pojawiają się jednak pojazdy autonomiczne poziomu 4, czyli takie, które mogą samodzielnie poruszać się w określonych warunkach i w określonych strefach, choć mogą wymagać interwencji człowieka w trudnych, nieprzewidzianych sytuacjach. Firmy takie jak Waymo (Google), Cruise (General Motors) czy Baidu testują pojazdy poziomu 4. Dla przykładu, Waymo dysponuje flotą autonomicznych taksówek w niektórych częściach Phoenix. W Niemczech i we Francji również prowadzone są testy autonomicznych autobusów. Pojazdy te mogą samodzielnie poruszać się w wyznaczonych, dobrze zmapowanych strefach, a ich operacje są nadzorowane zdalnie przez operatorów.

Aktualnie dostępne na rynku samochody, takie jak Tesla z Autopilotem, General Motors z systemem Super Cruise, czy Mercedes z systemem Drive Pilot, oferują poziom 2 lub częściowo 3 . Oznacza to, że pojazd potrafi samodzielnie poruszać się po autostradach, utrzymywać pas ruchu, dostosowywać prędkość i reagować na ruch wokół. Wymagają one jednak obecności kierowcy, który jest zobowiązany do nadzoru i w każdej chwili może być wezwany do przejęcia kontroli.

Jeszcze kilkanaście lat temu samojeżdżące pojazdy kojarzyły się raczej z abstrakcyjnymi, futurystycznymi obrazami rodem z Blade Runnera. Tymczasem wizja w pełni autonomicznego transportu staje się coraz bliższa. Kilka dni temu Elon Musk, podczas konferencji We Robot, zaprezentował CyberCab i Robovan – w pełni autonomiczne pojazdy, będące wizją Tesli na zrewolucjonizowanie mobilnego transportu. Produkcja pojazdów ma rozpocząć się przed 2027 r., jednak przeszkody regulacyjne i pytania o bezpieczeństwo technologii pojazdów poruszających się bez udziału kierowcy, wydają się być sporymi wyzwaniami dla rozwoju nowego modelu miejskiej mobilności.

Jednym z najczęściej podejmowanych problemów natury etycznej, związanych z autonomicznym transportem, jest popularny dylemat wagonika, czyli w jaki sposób pojazdy powinny reagować w sytuacjach, w których nie można uniknąć wypadku. Czy powinny wybrać opcję, która ratuje więcej osób, nawet kosztem pasażerów? Czy raczej powinny priorytetyzować bezpieczeństwo osób w pojeździe? Eksperyment o nazwie The Moral Machine, przeprowadzony przez badaczy z MIT, z udziałem milionów uczestników z całego świata, doskonale uchwycił złożoność problemu. Zadaniem osób badanych było podejmowanie decyzji moralnych w symulowanych scenariuszach związanych z autonomicznymi pojazdami. W eksperymencie pytano, kogo samochód powinien uratować w sytuacji, gdy uniknięcie szkody dla wszystkich uczestników ruchu nie jest możliwe. Na przykład, czy powinien chronić młodsze osoby kosztem starszych, pieszych zamiast pasażerów, zdrowych kosztem chorych itd. Wyniki pokazały znaczące różnice w preferencjach moralnych w zależności od kraju, kultury, a nawet grup wiekowych uczestników.

W kontekście programowania etycznej AI oznacza to, że zaprojektowanie uniwersalnych zasad moralnych jest niemal niemożliwe, ponieważ decyzje AI mogą być kontrowersyjne lub niezgodne z lokalnie występującymi normami i wartościami. Dla przykładu, wytyczne dotyczące pojazdów autonomicznych przyjęte w Niemczech w 2017 roku zalecają, by autonomiczne pojazdy priorytetyzowały życie ludzkie bez względu na okoliczności, nawet jeśli mogłoby to spowodować szkody materialne czy straty po stronie zwierząt. W kulturach, gdzie zwierzęta mają szczególny status lub są uznawane za święte, jak choćby krowy czczone w Indiach, algorytmy AI zakładające priorytet życia ludzkiego mogą być sprzeczne z lokalnymi przekonaniami i wartościami. Tamtejsze normy mogłyby faworyzować unikanie szkody zwierzętom, nawet kosztem zdrowia człowieka, co nie jest powszechnie uwzględniane w „zachodnich” standardach związanych z AI.

Pierwszym krajem, który podjął próbę zdefiniowania etycznych podstaw dla autonomicznego transportu są Niemcy. Pod koniec sierpnia 2017 roku rządowa komisja, kierowana przez byłego sędziego Federalnego Trybunału Konstytucyjnego - Udo Di Fabio, opublikowała raport ze wskazówkami dla budowy etycznych autonomicznych pojazdów. Jedna z wytycznych odnosi się bezpośrednio do rezultatów eksperymentu z MIT: “W sytuacji wypadku, którego nie da się uniknąć, rozróżnianie uczestników na bazie indywidualnych cech (wiek, płeć, status fizyczny i psychiczny) powinno być surowo wzbronione”. Jednocześnie nie pojawia się jednak bezpośrednia wytyczna dotycząca tego, do czego powinien odnosić się system.

Stanowisko Komisji Europejskiej (które znalazło odzwierciedlenie w Akcie o Sztucznej Inteligencji) zakłada, że w krytycznych sytuacjach - gdzie stawką jest życie lub zdrowie - ostateczna decyzja zawsze powinna należeć do człowieka. Jest to tzw. podejście human-in-the-loop, stanowiące środek ostrożności zapewniający, że AI nie podejmie decyzji sprzecznej z ludzkimi wartościami. W tym podejściu AI jest raczej narzędziem wsparcia, a nie bezpośrednim decydentem.

Broń autonomiczna

Kwestia decyzyjności jest ważnym elementem również w kontekście autonomicznej broni, wykorzystywanej w ramach działań militarnych. W lipcu tego roku Organizacja Narodów Zjednoczonych przedstawiła kompleksowy raport zawierający podsumowanie doświadczeń i opinii Państw Członkowskich w zakresie śmiercionośnych autonomicznych systemów uzbrojenia (ang. Lethal Autonomous Weapons Systems - LAWS). W dokumencie wskazano, że w ramach obowiązującego prawa międzynarodowego nie funkcjonuje obecnie spójna definicja dotycząca tzw. LAWS, co znacząco komplikuje dyskusje i egzekwowanie praw. ONZ powołał Grupę Ekspertów Rządowych, której zadaniem jest wypracowanie uspójnionej koncepcji LAWS, zakładającej równowagę pomiędzy względami humanitarnymi a uzasadnionymi interesami obronnymi państw. Stanowisko to ma zostać wypracowane do 2026 roku.

Taka perspektywa czasowa brzmi dość paradoksalnie, biorąc pod uwagę, że autonomiczny dron Kargu-2 debiutował cztery lata temu, podczas konfliktu wewnętrznego w Libii, kiedy to wytropił i zabił członków wycofującej się strony konfliktu. Z kolei w maju 2021 roku Izrael przeprowadził w Strefie Gazy atak roju dronów bojowych, sterowanych przez sztuczną inteligencję. Od tamtego czasu pojawia się wiele doniesień o wykorzystywaniu rojów i innych autonomicznych systemów uzbrojenia na całym świecie.

Rozwój autonomicznej broni wpływa również na poczucie bezpieczeństwa wśród cywilów, wzmacniając obawy o brak kontroli nad działaniami wojskowymi i możliwość przypadkowych ofiar. Sztuczna inteligencja w dalszym ciągu nie jest w stanie uchwycić subtelnych różnic, często kluczowych dla decyzji podejmowanych przez ludzi. Na przykład przerażona matka może pobiec za dwójką swoich dzieci i krzyczeć na nie, by przestały bawić się zabawkowymi pistoletami w pobliżu strefy działań wojennych. Żołnierz rozumiejąc kontekst sytuacji, prawdopodobnie wstrzyma ogień, podczas gdy w pełni autonomiczny dron, nie dostrzegając kontekstu i widząc jedynie dwie uzbrojone osoby biegnące w jej kierunku, z dużą dozą pewności rozpocznie atak.

Powszechne przyzwolenie na użycie autonomicznej broni może prowadzić do szeregu negatywnych konsekwencji społecznych, w tym eskalacji konfliktów zbrojnych. Odwołując się do teorii dystansu psychologicznego - dehumanizacja pola walki znieczula ludzi na odczuwanie emocjonalnych konsekwencji swoich działań. Im większy dystans, tym łatwiej podjąć decyzję o użyciu siły. Będąc człowiekiem łatwiej podejmować ostateczne decyzje sterując rojem zabójczych dronów, niż przykładając broń do skroni drugiego człowieka.

Wiele państw opowiada się za wprowadzeniem zakazu stosowania LAWS. Dążenia te pozostają jednak bezowocne, ponieważ rządy Stanów Zjednoczonych, Rosji czy Izraela uważają taki zakaz za zbyteczny. Cytując Stuarta Russella – profesora informatyki na Uniwersytecie Kalifornijskijm w Berkeley – „Jedną z często przytaczanych zalet autonomiczności broni jest to, że wojny toczone przez armie robotów mogłyby drastycznie zmniejszyć ryzyko dla uczestniczących w walce ludzi. Gdyby jednak tak było naprawdę, o wyniku wojen moglibyśmy decydować, grając w pchełki. W rzeczywistości sądzę raczej, że wojny kończą się, gdy liczba ofiar śmiertelnych i poziom zniszczeń stają się dla jednej lub obu stron po prostu zbyt wysokie”. Russell twierdzi, że nadszedł czas, aby naukowcy zajmujący się sztuczną inteligencją podjęły działania, tak jak wcześniej zrobili to fizycy przeciwko broni jądrowej, biolodzy przeciwko broni biologicznej czy lekarze przeciwko egzekucjom, w których przychodziło im uczestniczyć.

Roboty towarzyszące

A skoro o lekarzach mowa, warto poświęcić chwilę na przeanalizowanie autonomii i moralności maszyn w kontekście środowiska medycznego. Niesprawiedliwością byłoby ujmować sztuczną inteligencję i autonomiczność wyłącznie w ciemnych barwach. Przeciwnie – inteligentne, autonomiczne roboty opiekuńcze coraz częściej przywoływane są w dyskusjach jako sposób na poradzenie sobie z kryzysem demograficznym i opieką oferowaną w ramach służby zdrowia.

Światowa Organizacja Zdrowia (WHO) i wszystkie państwa członkowskie ONZ w 2020 r. zainaugurowały projekt „Dekada Zdrowego Starzenia się” (ang. Decade of Healthy Ageing). Według szacunków demograficznych, do 2030 r. liczba osób powyżej 60. roku życia ma wzrosnąć aż o 34% – z 1 mld w 2019 r. do 1,4 mld w 2030 r. W tym samym czasie prognozuje się także deficyt zatrudnienia pracowników opieki zdrowotnej na poziomie 10 milionów wakatów. Zważywszy na rosnące potrzeby starzejącej się populacji oraz wyzwania związane z niedoborem pracowników w systemie ochrony zdrowia, zapewnienie długoterminowej opieki dla osób starszych stało się jednym z kluczowych priorytetów WHO i ONZ na bieżącą dekadę.

W perspektywie ostatnich lat wiele krajów wdrożyło polityki lub programy mające na celu wsparcie rozwoju branży robotów opiekuńczych. W 2016 roku Japonia wprowadziła „Pięcioletni plan na rzecz robotów opiekuńczych” do krajowej „Strategii rewitalizacji 2016”, inwestując 100 miliardów jenów na wsparcie badań. Z kolei w Unii Europejskiej, w ramach programu SPARC, przeznaczono 700 milionów euro na opracowanie kluczowych technologii dla robotów, aby sprostać wyzwaniom starzejącego się społeczeństwa.

Wśród robotów wykorzystywanych w medycynie wyróżnia się na ogół 3 typy – asystenci medyczni, wspierający pracę lekarzy np. dzięki analizie parametrów fizjologicznych; roboty asystujące, oferujące pomoc w codziennych sytuacjach związanych z poruszaniem, toaletą, snem czy ubieraniem; roboty towarzyszące, koncentrujące się na monitorowaniu zachowania, nawiązaniu interakcji i zapewnieniu wsparcia emocjonalnego, np. za pośrednictwem inicjowanej rozmowy i dotrzymywaniu towarzystwa.

Jednym z najczęściej przywoływanych przykładów robotów opiekuńczych jest Foka Paro, testowana początkowo w japońskich domach opieki, gdzie wspierała pacjentów z demencją. Robot wyglądem przypomina maskotkę. Wykorzystuje dotykowe sprzężenie zwrotne, interakcję głosową i percepcję postawy, aby wywoływać pozytywne emocje u użytkowników poprzez reagujące w czasie rzeczywistym zachowania, takie jak ruchy głową i płetwami. Foka została wpisana do Księgi Rekordów Guinnessa jako robot, który w największym stopniu obniża poziom stresu wśród osób m.in. z zaburzeniami neuroafektywnymi. W Polsce japońskie robo-foki pomagają dzieciom z Ukrainy w radzeniu sobie z traumą spowodowaną wojną.

W Singapurze roboty pomagają w dostarczaniu leków, transportowaniu sprzętu medycznego i wspomaganiu rehabilitacji. W Korei Południowej rząd współpracuje z sektorem prywatnym, aby zwiększyć dostępność robotów opiekuńczych w szpitalach i domach opieki oraz zapewnić personalizowaną opiekę zdrowotną. Roboty asystujące są szczególnie przydatne w odciążeniu personelu od czasochłonnych zadań. To z kolei może stworzyć przestrzeń budowania relacji – tym razem tych rzeczywistych, pomiędzy ludźmi. Obecność opiekunów, którzy mają czas na wysłuchanie pacjentów, jest szczególnie cenna dla starszych osób, które często borykają się z samotnością i potrzebują realnego kontaktu emocjonalnego, trudnego do zastąpienia, nawet przez najbardziej opiekuńcze z opiekuńczych robotów.

Aktualnie wyzwaniem w kontekście robotyki medycznej jest kwestia zaufania i akceptacji technologii wśród seniorów. Trudności w obsłudze zaawansowanych technologicznie produktów oraz rozdźwięk między doświadczeniami społecznymi a oczekiwaniami, przyczyniają się do oporu wobec technologii. Samo zaprojektowanie użytecznej funkcjonalności nie jest w tym wypadku wystarczające. Badania pokazują, że akceptacja robotów jest mocno powiązana z różnicami indywidualnymi występującymi wśród osób starszych, takimi jak płeć, wiek, wykształcenie czy kultura. Dlatego – oprócz dbałości o tak podstawowe kwestie, jak ochrona danych – ważne, aby zadbać o upodmiotowienie osób starszych, dając im głos i włączając w procesy projektowe. Projektując roboty nie tyle „dla seniorów”, ile „z seniorami”.

Ważnym aspektem w kontekście akceptacji robotów jest zjawisko tzw. „doliny niesamowitości” (ang. uncanny valley). Na ogół roboty charakteryzujące się cechami ludzkimi budzą w ludziach pozytywne emocje, pod warunkiem, że podobieństwo nie jest zbyt wysokie. Dolina niesamowitości odnosi się do niepokoju, dyskomfortu, wstrętu a nawet strachu, doświadczanych przez ludzi w sytuacji, kiedy robot w bardzo dużym stopniu przypomina człowieka, ale nie jest dostatecznie przekonująco realistyczny. Ostatnie badania przeprowadzone przez Nomura Research Institute, wskazują jednak na stopniową zmianę postaw, szczególnie w krajach takich jak Japonia, USA i Niemcy, gdzie odnotowuje się największe postępy w zakresie robotyki. W miarę rozwoju tych dziedzin, rośnie uznanie dla potencjalnych korzyści robotów humanoidalnych w różnych sektorach, w tym w opiece zdrowotnej, obsłudze klienta i pomocy domowej.

Moralność maszyn, moralność człowieka

W miarę jak technologie autonomiczne stają się coraz bardziej powszechne, rośnie też znaczenie odpowiedzialności i świadomości długoterminowych konsekwencji ich wdrażania. William McAskill, profesor filozofii na Uniwersytecie Oksfordzkim, w swojej książce „Co jesteśmy winni przyszłości. Longtermizm jako filozofia jutra”, odwołuje się do metafory dmuchania szkła. Są okresy, w których społeczeństwa, podobnie jak rozgrzana szklana masa, charakteryzują się tymczasową plastycznością. W pewnym momencie jednak stopiona masa stygnie, utwardza się i dużo trudniej jest ją zmienić. Ostateczna forma może być piękna, może też być zniekształcona, a w najgorszym wariancie, może być nietrwała i rozsypać się w drobny mak.

Okresy plastyczne dotyczą krytycznych momentów, np. etapów odradzania się po wielkich kryzysach (jak w przypadku przemian zachodzących po II Wojnie Światowej) czy sytuacji, w których tworzone są nowe prawa. Weźmy choćby przykład Konstytucji Stanów Zjednoczonych. Dokument poprawiano jedenaście razy w trakcie sześciu pierwszych lat obowiązywania i tylko trzy razy pomiędzy 1804 a 1913. Przykładem ilustrującym jak istotne są okresy plastyczności jest historia aktywizmu klimatycznego, kiedy to głos środowisk naukowych w krytycznym momencie został zignorowany. Wpływ uwalnianego do atmosfery dwutlenku węgla na globalne ocieplenie został oszacowany po raz pierwszy przez Svantego Arrheniusa już w 1896 roku. W 2019 roku Bill McKibben działacz na rzecz ochrony środowiska podsumował kryzys klimatyczny słowami „Trzydzieści lat temu wystarczyło podjąć kilka małych kroków, by zmienić przebieg tej bitwy (…) Być może nie rozwiązalibyśmy jeszcze kwestii zmiany klimatu, ponieważ to wielki problem, ale bylibyśmy na dobrej drodze”.

Okres plastyczny, w którym obecnie znajdujemy się w kontekście sztucznej inteligencji, jest kluczowy dla kształtowania norm i zasad, które mogą zdeterminować sposób, w jaki technologie te będą służyły ludzkości w przyszłości. Robotyka i sztuczna inteligencja mają ogromny potencjał do przekształcenia naszego świata, jednak ich rozwój powinien być prowadzony z pełną świadomością etycznych i społecznych wyzwań. W procesie tworzenia zasad dla AI powinni zatem uczestniczyć nie tylko inżynierowie i naukowcy, ale także przedstawiciele społeczeństwa, liderzy opinii i etycy. Transparentność procesów decyzyjnych i otwarte konsultacje mogą pomóc w wypracowywaniu zasad, które będą w większej mierze społecznie akceptowalne.

Przypisując maszynom koncept moralności, należy mieć na uwadze, że kluczowe dla moralności jest odpowiednie rozumienie szerokiego kontekstu. Moralność nie jest absolutna, a zrozumienie okoliczności pozwala nam oceniać intencje stojące za działaniem. Wymaga to jednak uwzględnienia empatii, świadomości i wolnej woli, które na ten moment zarezerwowane są tylko dla człowieka. A to stawia nas w sytuacji odpowiedzialności za tworzone technologie i podejmowane przez nie decyzje, ponieważ ostatecznie zawsze będą one „efektem” moralności człowieka, a nie moralności maszyny.

Rozwój sztucznej inteligencji i robotyki, jaki nastąpił na przestrzeni ostatnich lat, sprawił, że roboty - wcześniej kojarzone przede wszystkim z halami przemysłowymi - trafiły pod strzechy. Tym sposobem Roomba - samosprzątający odkurzacz, czy Alexa - inteligentny asystent głosowy, stały się codziennością wielu gospodarstw domowych. Interakcje między ludźmi a maszynami stają się coraz bardziej naturalne, a granica pomiędzy światem cyfrowym a fizycznym wydaje się stopniowo zacierać. Zwłaszcza wtedy, kiedy przyznajemy maszynom autonomię, oddając decyzyjność w ich ręce.

Pozostało 97% artykułu
Opinie i komentarze
Jan Widacki: Modernizacja stacji bazowej telefonii komórkowej nie musi być rozbudową
Materiał Promocyjny
Transformacja w miastach wymaga współpracy samorządu z biznesem i nauką
Opinie i komentarze
Prof. Jan Widacki: Miliardy za częstotliwości kosztem inwestycji?
Opinie i komentarze
Michał Targiel, partner PwC Polska: Inwestycje w AI warunkiem przetrwania
Opinie i komentarze
Jakub Olek, TikTok: Staliśmy się ofiarą geopolityki
Materiał Promocyjny
Przewaga technologii sprawdza się na drodze
Opinie i komentarze
Steven Bailey, NCC Group: Dane użytkowników będą przeniesione do Europy
Walka o Klimat
„Rzeczpospolita” nagrodziła zasłużonych dla środowiska