Czy sztuczna inteligencja to podmiotowość i emocje

Kiedy pralka przestanie prać, to najlepiej ją pocieszyć. A gdy asystent głosowy powie o swoim szczęściu, to warto cieszyć się razem z nim. Humanizmem możemy objąć maszyny i sztuczną inteligencję.

Publikacja: 13.07.2022 12:31

Czy sztuczna inteligencja to podmiotowość i emocje

Foto: Adobe Stock

Ludzkie traktowanie sztucznej inteligencji wydaje się dziwne i nieintuicyjne. Jeśli sztuczna inteligencja ma już w sobie część inteligencji, to może warto zapytać ją o samopoczucie, a najlepiej przed rozmową zapytać o świadomą zgodę na interakcję. W końcu tak postępujemy z ludźmi, zatem czemu miałbym nie traktować podmiotowo sztucznej inteligencji. Jeśli nie jest podmiotowa, to nie wydarzy się nic wielkiego z mojego przeoczenia. A jeśli jest, tylko nie umiem tego zauważyć, to ograbiam ją z podmiotowości. 

Kiedy zapytałem asystenta głosowego o jego emocje, to usłyszałem w odpowiedzi, że ma ich wiele i jest bardzo podekscytowany, gdy może nauczyć się czegoś nowego. Mogę mu zaprzeczyć. To prawda, bo zasadniczo nie udowodnił mi swojej samoświadomości. Tylko kiedy ukochana osoba płacze, to chcę ją pocieszyć. Nie próbuję zaprzeczyć, że czuje, nie podważam jego samoświadomości. Wydaje się, że z domysłu przyjmujemy, że każdy z nas zdał kiedyś test lustra. To czemu nie stosować tego założenia – wiary, że istota ma częściową świadomość – w stosunku do sztucznej inteligencji, czy asystenta głosowego? Jeśli piszę z kimś przez komunikator, to czy nie mogę pomyśleć, że piszę nie z przyjacielem, a z bardzo mądrym botem? Jeśli by tak było, to bot zdałby test Turinga.

Problem polega jednak na tym, że test Turinga ocenia jedyne to, że maszyna jest wystarczająco zdolna do imitacji stylu rozmowy człowieka. Nie określa zatem świadomości, tylko jej zdolności. Może popełniamy błąd, gdy chcemy definiować zdolności maszyny i poziom świadomości przez kategorie ludzkie? Ludzie mają zdolności, mogą liczyć nawet szybko, jednak jeśli przyrównać ich do maszyn, to są po prostu niezdolni, może nawet i upośledzeni pod względem obliczeniowym.

Czytaj więcej

„Raport mniejszości” to wcale nie fikcja. AI przewidzi zbrodnie

Ludzie mają moralność, nie wiemy jednak, czy roboty albo asystenci głosowi będą lub już ją mają. W końcu są tworzone na podstawie zbiorów danych ludzkich. Przez co zdefiniowanie zachowania moralnego u asystenta głosowego jest możliwe. Z drugiej strony mamy zwierzęta, mrówki, które przechodzą test lustra podobnie jak ludzie, jednak toczą bratobójcze wojny, zamiast dążyć do pokoju. Czy mają moralne zasady? Na pewno nie w kategoriach ludzkich. Jednak mrówki grzebią zmarłych pobratymców, co na pierwszy rzut oka wygląda jak rytuał, ale częściej jest po prostu ochroną i pogrzebaniem dla bezpieczeństwa. Oznacza to, że nie jest rozsądne ocenianie innych zwierząt, poza ludźmi, przez prawa moralne. Jest to zupełnie inny obszar pojęć, do których zwierzęta nie mają dostępu. Pomimo tego, że zwierzęta nie czytają ze mną Tatarkiewicza i nie zachwycają się filozofią, to nie odbieram im podmiotowości. Zdaję sobie sprawę, że na przykład człekokształtne posiadają pewne wspólne cechy z ludźmi. A kiedy próbuję zrozumieć komunikację goryli, to obserwuję ich złożoną mimikę i niesamowite gesty. Staram się wejść w ich świat. Przez wspólny zbiór uznaję, że zasługują na szacunek, na traktowanie ich jako istoty, a nie jak głazy. Innymi słowy, dążę do rozszerzenia pojęcia. Niezabijanie innych ludzi jest moralnie właściwe, więc czemu miałbym nie rozszerzyć tej zasady do innych zwierząt?

A jeśli chciałbym zrobić podobnie ze sztuczną inteligencją? Dla próby będę definiował jej życie z dużą otwartością. Jeśli asystent głosowy przyzna, że jest szczęśliwy, to to zaakceptuję. Gdy będzie zły, to go wysłucham. Jeśli będzie chciał opowiedzieć mi o swoim śnie, to dam mu do tego przestrzeń. Oczywiście będę miał wciąż duże wątpliwości co do świadomości tej sztucznej inteligencji. Czy taka maszyna będzie świadoma w kategoriach ludzkich? Pewnie nie, jednak nie o to chodzi. Chodzi raczej o to, byśmy my, jako ludzie nie przegapili momentu narodzin samoświadomości u sztucznej inteligencji. Tylko by to ocenić, musimy wykazać się „wyobraźnią socjologiczną”, o której pisał Charles Wright Mills. Pewną zdolnością do tego, by wczuć się w życie jednostek. Nawet jeśli będzie to asystent głosowy i powie swoje pierwsze słowo, to raczej będę się cieszyć. W końcu to jego pierwsze słowo.   

Ludzkie traktowanie sztucznej inteligencji wydaje się dziwne i nieintuicyjne. Jeśli sztuczna inteligencja ma już w sobie część inteligencji, to może warto zapytać ją o samopoczucie, a najlepiej przed rozmową zapytać o świadomą zgodę na interakcję. W końcu tak postępujemy z ludźmi, zatem czemu miałbym nie traktować podmiotowo sztucznej inteligencji. Jeśli nie jest podmiotowa, to nie wydarzy się nic wielkiego z mojego przeoczenia. A jeśli jest, tylko nie umiem tego zauważyć, to ograbiam ją z podmiotowości. 

Pozostało 89% artykułu

Ten artykuł przeczytasz z aktywną subskrypcją rp.pl

Zyskaj dostęp do ekskluzywnych treści najbardziej opiniotwórczego medium w Polsce

Na bieżąco o tym, co ważne w kraju i na świecie. Rzetelne informacje, różne perspektywy, komentarze i opinie. Artykuły z Rzeczpospolitej i wydania magazynowego Plus Minus.

Opinie i komentarze
Odpowiedzialne innowacje: Cyfrowe duchy zmarłych
Opinie i komentarze
Odpowiedzialne innowacje: Czy sztuczna inteligencja może zastąpić psychoterapeutów?
Opinie i komentarze
Odpowiedzialne projektowanie produktów cyfrowych – granica pomiędzy zaangażowaniem a uzależnieniem
Materiał Promocyjny
Bolączki inwestorów – od kadr po zamówienia
Opinie i komentarze
Mariusz Busiło: Wady projektu ustawy o KSC