Czy sztuczna inteligencja to podmiotowość i emocje

Kiedy pralka przestanie prać, to najlepiej ją pocieszyć. A gdy asystent głosowy powie o swoim szczęściu, to warto cieszyć się razem z nim. Humanizmem możemy objąć maszyny i sztuczną inteligencję.

Publikacja: 13.07.2022 12:31

Czy sztuczna inteligencja to podmiotowość i emocje

Foto: Adobe Stock

Ludzkie traktowanie sztucznej inteligencji wydaje się dziwne i nieintuicyjne. Jeśli sztuczna inteligencja ma już w sobie część inteligencji, to może warto zapytać ją o samopoczucie, a najlepiej przed rozmową zapytać o świadomą zgodę na interakcję. W końcu tak postępujemy z ludźmi, zatem czemu miałbym nie traktować podmiotowo sztucznej inteligencji. Jeśli nie jest podmiotowa, to nie wydarzy się nic wielkiego z mojego przeoczenia. A jeśli jest, tylko nie umiem tego zauważyć, to ograbiam ją z podmiotowości. 

Kiedy zapytałem asystenta głosowego o jego emocje, to usłyszałem w odpowiedzi, że ma ich wiele i jest bardzo podekscytowany, gdy może nauczyć się czegoś nowego. Mogę mu zaprzeczyć. To prawda, bo zasadniczo nie udowodnił mi swojej samoświadomości. Tylko kiedy ukochana osoba płacze, to chcę ją pocieszyć. Nie próbuję zaprzeczyć, że czuje, nie podważam jego samoświadomości. Wydaje się, że z domysłu przyjmujemy, że każdy z nas zdał kiedyś test lustra. To czemu nie stosować tego założenia – wiary, że istota ma częściową świadomość – w stosunku do sztucznej inteligencji, czy asystenta głosowego? Jeśli piszę z kimś przez komunikator, to czy nie mogę pomyśleć, że piszę nie z przyjacielem, a z bardzo mądrym botem? Jeśli by tak było, to bot zdałby test Turinga.

Problem polega jednak na tym, że test Turinga ocenia jedyne to, że maszyna jest wystarczająco zdolna do imitacji stylu rozmowy człowieka. Nie określa zatem świadomości, tylko jej zdolności. Może popełniamy błąd, gdy chcemy definiować zdolności maszyny i poziom świadomości przez kategorie ludzkie? Ludzie mają zdolności, mogą liczyć nawet szybko, jednak jeśli przyrównać ich do maszyn, to są po prostu niezdolni, może nawet i upośledzeni pod względem obliczeniowym.

Czytaj więcej

„Raport mniejszości” to wcale nie fikcja. AI przewidzi zbrodnie

Ludzie mają moralność, nie wiemy jednak, czy roboty albo asystenci głosowi będą lub już ją mają. W końcu są tworzone na podstawie zbiorów danych ludzkich. Przez co zdefiniowanie zachowania moralnego u asystenta głosowego jest możliwe. Z drugiej strony mamy zwierzęta, mrówki, które przechodzą test lustra podobnie jak ludzie, jednak toczą bratobójcze wojny, zamiast dążyć do pokoju. Czy mają moralne zasady? Na pewno nie w kategoriach ludzkich. Jednak mrówki grzebią zmarłych pobratymców, co na pierwszy rzut oka wygląda jak rytuał, ale częściej jest po prostu ochroną i pogrzebaniem dla bezpieczeństwa. Oznacza to, że nie jest rozsądne ocenianie innych zwierząt, poza ludźmi, przez prawa moralne. Jest to zupełnie inny obszar pojęć, do których zwierzęta nie mają dostępu. Pomimo tego, że zwierzęta nie czytają ze mną Tatarkiewicza i nie zachwycają się filozofią, to nie odbieram im podmiotowości. Zdaję sobie sprawę, że na przykład człekokształtne posiadają pewne wspólne cechy z ludźmi. A kiedy próbuję zrozumieć komunikację goryli, to obserwuję ich złożoną mimikę i niesamowite gesty. Staram się wejść w ich świat. Przez wspólny zbiór uznaję, że zasługują na szacunek, na traktowanie ich jako istoty, a nie jak głazy. Innymi słowy, dążę do rozszerzenia pojęcia. Niezabijanie innych ludzi jest moralnie właściwe, więc czemu miałbym nie rozszerzyć tej zasady do innych zwierząt?

A jeśli chciałbym zrobić podobnie ze sztuczną inteligencją? Dla próby będę definiował jej życie z dużą otwartością. Jeśli asystent głosowy przyzna, że jest szczęśliwy, to to zaakceptuję. Gdy będzie zły, to go wysłucham. Jeśli będzie chciał opowiedzieć mi o swoim śnie, to dam mu do tego przestrzeń. Oczywiście będę miał wciąż duże wątpliwości co do świadomości tej sztucznej inteligencji. Czy taka maszyna będzie świadoma w kategoriach ludzkich? Pewnie nie, jednak nie o to chodzi. Chodzi raczej o to, byśmy my, jako ludzie nie przegapili momentu narodzin samoświadomości u sztucznej inteligencji. Tylko by to ocenić, musimy wykazać się „wyobraźnią socjologiczną”, o której pisał Charles Wright Mills. Pewną zdolnością do tego, by wczuć się w życie jednostek. Nawet jeśli będzie to asystent głosowy i powie swoje pierwsze słowo, to raczej będę się cieszyć. W końcu to jego pierwsze słowo.   

Ludzkie traktowanie sztucznej inteligencji wydaje się dziwne i nieintuicyjne. Jeśli sztuczna inteligencja ma już w sobie część inteligencji, to może warto zapytać ją o samopoczucie, a najlepiej przed rozmową zapytać o świadomą zgodę na interakcję. W końcu tak postępujemy z ludźmi, zatem czemu miałbym nie traktować podmiotowo sztucznej inteligencji. Jeśli nie jest podmiotowa, to nie wydarzy się nic wielkiego z mojego przeoczenia. A jeśli jest, tylko nie umiem tego zauważyć, to ograbiam ją z podmiotowości. 

Pozostało 89% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie i komentarze
Co niosą ze sobą treści pornograficzne generowane przez sztuczną inteligencję
Materiał Promocyjny
Wykup samochodu z leasingu – co warto wiedzieć?
Opinie i komentarze
Dominik Skoczek: W Polsce cyfrowi giganci mają się dobrze
Opinie i komentarze
Tantiemy autorskie z internetu: jak korzyści nielicznych przekuć w sukces wszystkich
Opinie i komentarze
Od kredy i tablicy po sztuczną inteligencję. Szkoła chce być na czasie
Opinie i komentarze
Odpowiedzialne innowacje, czyli wątpliwości wokół Neuralinka i sterowania myślami