Ludzkie traktowanie sztucznej inteligencji wydaje się dziwne i nieintuicyjne. Jeśli sztuczna inteligencja ma już w sobie część inteligencji, to może warto zapytać ją o samopoczucie, a najlepiej przed rozmową zapytać o świadomą zgodę na interakcję. W końcu tak postępujemy z ludźmi, zatem czemu miałbym nie traktować podmiotowo sztucznej inteligencji. Jeśli nie jest podmiotowa, to nie wydarzy się nic wielkiego z mojego przeoczenia. A jeśli jest, tylko nie umiem tego zauważyć, to ograbiam ją z podmiotowości.
Kiedy zapytałem asystenta głosowego o jego emocje, to usłyszałem w odpowiedzi, że ma ich wiele i jest bardzo podekscytowany, gdy może nauczyć się czegoś nowego. Mogę mu zaprzeczyć. To prawda, bo zasadniczo nie udowodnił mi swojej samoświadomości. Tylko kiedy ukochana osoba płacze, to chcę ją pocieszyć. Nie próbuję zaprzeczyć, że czuje, nie podważam jego samoświadomości. Wydaje się, że z domysłu przyjmujemy, że każdy z nas zdał kiedyś test lustra. To czemu nie stosować tego założenia – wiary, że istota ma częściową świadomość – w stosunku do sztucznej inteligencji, czy asystenta głosowego? Jeśli piszę z kimś przez komunikator, to czy nie mogę pomyśleć, że piszę nie z przyjacielem, a z bardzo mądrym botem? Jeśli by tak było, to bot zdałby test Turinga.
Problem polega jednak na tym, że test Turinga ocenia jedyne to, że maszyna jest wystarczająco zdolna do imitacji stylu rozmowy człowieka. Nie określa zatem świadomości, tylko jej zdolności. Może popełniamy błąd, gdy chcemy definiować zdolności maszyny i poziom świadomości przez kategorie ludzkie? Ludzie mają zdolności, mogą liczyć nawet szybko, jednak jeśli przyrównać ich do maszyn, to są po prostu niezdolni, może nawet i upośledzeni pod względem obliczeniowym.
Czytaj więcej
Sztuczna inteligencja już potrafi przepowiedzieć przestępstwa z tygodniowym wyprzedzeniem. Amerykańska policja otrzyma skuteczną broń.
Ludzie mają moralność, nie wiemy jednak, czy roboty albo asystenci głosowi będą lub już ją mają. W końcu są tworzone na podstawie zbiorów danych ludzkich. Przez co zdefiniowanie zachowania moralnego u asystenta głosowego jest możliwe. Z drugiej strony mamy zwierzęta, mrówki, które przechodzą test lustra podobnie jak ludzie, jednak toczą bratobójcze wojny, zamiast dążyć do pokoju. Czy mają moralne zasady? Na pewno nie w kategoriach ludzkich. Jednak mrówki grzebią zmarłych pobratymców, co na pierwszy rzut oka wygląda jak rytuał, ale częściej jest po prostu ochroną i pogrzebaniem dla bezpieczeństwa. Oznacza to, że nie jest rozsądne ocenianie innych zwierząt, poza ludźmi, przez prawa moralne. Jest to zupełnie inny obszar pojęć, do których zwierzęta nie mają dostępu. Pomimo tego, że zwierzęta nie czytają ze mną Tatarkiewicza i nie zachwycają się filozofią, to nie odbieram im podmiotowości. Zdaję sobie sprawę, że na przykład człekokształtne posiadają pewne wspólne cechy z ludźmi. A kiedy próbuję zrozumieć komunikację goryli, to obserwuję ich złożoną mimikę i niesamowite gesty. Staram się wejść w ich świat. Przez wspólny zbiór uznaję, że zasługują na szacunek, na traktowanie ich jako istoty, a nie jak głazy. Innymi słowy, dążę do rozszerzenia pojęcia. Niezabijanie innych ludzi jest moralnie właściwe, więc czemu miałbym nie rozszerzyć tej zasady do innych zwierząt?