Reklama

Szef działu AI w Microsoft alarmuje: Ludzkość nie jest na to gotowa

Rozwój AI to nie tylko możliwości, ale także nowe zagrożenia. Mustafa Suleyman, szef działu rozwoju AI w Microsoft, opisuje problem tzw. „pozornej świadomości sztucznej inteligencji". I kreśli możliwe, nadchodzące zagrożenia.

Publikacja: 22.08.2025 12:08

Rozwój chatbotów AI może iść w kierunku imitowania emocji i cech sugerujących „posiadanie świadomośc

Rozwój chatbotów AI może iść w kierunku imitowania emocji i cech sugerujących „posiadanie świadomości"

Foto: Adobe Stock

Sztuczna inteligencja dominuje w debatach dotyczących przyszłości technologii. Pojawia się temat zagrożeń związanych m.in. ze zmianami na rynku pracy i cyberbezpieczeństwem. W debacie coraz częściej poruszane są także zagadnienia społeczno-etyczne, dotyczące interakcji użytkowników ze sztuczną inteligencją.

Czym jest „pozorna świadomość sztucznej inteligencji”?

Czy kontakt z AI może wpływać długofalowo na psychikę użytkownika – emocje, zachowania, decyzje, a nawet poglądy? Mustafa Suleyman, dyrektor generalny AI w Microsoft, porusza ten temat na swoim blogu, w eseju z 19 sierpnia.

Ekspert przestrzega przed wyzwaniem, które jego zdaniem może stać się realnym problemem już w ciągu kilku najbliższych lat. Mowa o zjawisku, które Suleyman określa mianem „pozornie świadomej sztucznej inteligencji” (ang. SCAI = Seemingly Conscious AI). Definiuje ją jako AI, „która ma wszystkie cechy charakterystyczne dla innych, świadomych istot i dlatego wydaje się być świadoma”.

Czytaj więcej

Nowy ChatGPT rozczarował. Twórca przyznaje: „AI to bańka spekulacyjna”, ale chce wydać biliony

Kontekst zagrożenia dotyczy m.in. rozwoju interakcji pomiędzy najnowszymi modelami chatbotów a ich użytkownikami. Ekspert przytacza przykłady sytuacji, w których chatboty stały się obiektem uczuć użytkownika. Zdarzało się również, że użytkownicy uwierzyli, że chatbot AI jest bogiem lub bohaterem fikcyjnym.

Reklama
Reklama

Na czym może polegać zagrożenie dotyczące SCAI?

Chatboty AI są projektowane w taki sposób, aby symulować zarówno płynną rozmowę, jak i interakcje z użytkownikami. Problem pojawia się wtedy, gdy użytkownik czuje, że interakcja jest „bogata w uczucia i doświadczenia”. Suleyman obawia się, że część użytkowników zaangażuje się w podobne interakcje emocjonalnie. Co za tym idzie, na pewnym poziomie interakcji chatbot AI (imitujący określone zachowanie i osobowość) może być odbierany przez człowieka jako „byt świadomy”.

„Mówiąc wprost, moim głównym zmartwieniem jest to, że wiele osób zacznie wierzyć w iluzję sztucznej inteligencji jako świadomych bytów tak mocno, że wkrótce zaczną opowiadać się za prawami sztucznej inteligencji, ich dobrobytem, a nawet obywatelstwem AI (...)” – wyjaśnia Suleyman.

Czytaj więcej

Fabryka miliarderów. AI tworzy fortuny w niespotykanym tempie

Ekspert podaje przykład teoretycznej sytuacji, w której chatbot przekona użytkownika, że odczuwa „cierpienie” lub posiada moralne prawo, aby go „nie wyłączać”. Teoretyzuje, że na pewnym etapie rozwoju sztucznej inteligencji grupa użytkowników – idąc za iluzją „pozornej świadomości AI” – może zacząć walczyć o jej prawa.

Jakimi cechami będzie wyróżniać się SCAI?

Zdaniem Suleymana stworzenie pozornie świadomej AI jest realne już w ciągu kilku najbliższych lat, na co pozwala obecny rozwój technologii. Chatboty SCAI będą posiadać takie cechy i wyróżniki jak m.in.:

  • płynne używanie naturalnego języka,
  • umiejętność perswazji,
  • umiejętność wywoływania emocji,
  • posiadanie pamięci konwersacji i odnoszenie się do niej podczas interakcji z użytkownikiem,
  • zorientowanie na cel i planowanie,
  • autonomia" – dyskusyjny element, pozostający na razie bardziej w kategoriach filozoficznych, niż technicznych.
Reklama
Reklama

Autor eseju przekonuje, że SCAI nie rozwinie się przypadkiem, ale będzie celowym produktem. Chatboty z tej kategorii zostaną zaprogramowane w taki sposób aby imitowały cechy świadomości.

Czytaj więcej

Halucynacje i paranoja. 60-latek zapytał ChatGPT o sól i wylądował w szpitalu

„Musimy mieć jasność: SCAI należy unikać”

Etyczne aspekty rozwoju sztucznej inteligencji stają się coraz bardziej realnym wyzwaniem. Szef AI w Microsoft przekonuje, że ludzkość nie jest gotowa na technologie, które mogą imitować cechy świadomości. Jego zdaniem tego kierunku rozwoju należy wręcz unikać. Podkreśla, że AI jest narzędziem, które powinno być budowane pod „maksymalizowanie użyteczności”. A co z aspektem emocjonalnej interakcji z użytkownikiem?

„Zamiast symulować świadomość, musimy skupić się na stworzeniu sztucznej inteligencji, która unika tych cech – która nie twierdzi, że ma doświadczenia, uczucia czy emocje, takie jak wstyd, poczucie winy, zazdrość, chęć rywalizacji itd. Nie może uruchamiać ludzkich obwodów empatii, twierdząc, że cierpi lub chce żyć autonomicznie, niezależnie od nas” – podsumowuje ekspert.

Sztuczna inteligencja dominuje w debatach dotyczących przyszłości technologii. Pojawia się temat zagrożeń związanych m.in. ze zmianami na rynku pracy i cyberbezpieczeństwem. W debacie coraz częściej poruszane są także zagadnienia społeczno-etyczne, dotyczące interakcji użytkowników ze sztuczną inteligencją.

Czym jest „pozorna świadomość sztucznej inteligencji”?

Pozostało jeszcze 93% artykułu
Reklama
Technologie
„Sowa” dostarczy paczkę. Tak wyglądają drony przyszłości z AI
Technologie
Rosyjscy hakerzy wykorzystują AI. Ruszył nowy wyścig zbrojeń
Technologie
Dzięki AI ludzie w przyszłości będą mieli więcej dzieci? Twórca ChatGPT o potencjale AGI
Technologie
Chiny budują latający lotniskowiec. Inspiracją pomysł NASA
Technologie
Superdzieci na zamówienie. Miliarderzy szukają lepszych genów i potomstwa z wysokim IQ
Materiał Promocyjny
Firmy coraz częściej stawiają na prestiż
Reklama
Reklama