Przypadek Blake’a Lemoine’a, inżyniera pracującego dla Google’a nad superinteligentnym chatbotem, zelektryzował cały świat – oto naukowiec ogłosił, iż stworzona przez niego AI zyskała świadomość. Fakt, że Google wysłał go na przymusowy urlop, tylko podgrzał atmosferę. Tymczasem okazuje się, że teza wygłoszona przez Lemoine’a nie ma dziś wiele wspólnego z rzeczywistością. Przekonują o tym zarówno branżowi eksperci, jak i sam Google. Ale czy faktycznie sztuczna inteligencja z samoświadomością to bajka i czy nie mamy się czego obawiać?

Technologiczne ograniczenia

Grono sceptyków, którzy w sporze Lemoine–Google stają po stronie racji koncernu, jest olbrzymie. I wygląda na to, że to oni mają rację. Google twierdzi, że naukowiec (wyrafinowany generator chatbotów, który naśladuje ludzkie rozmowy) „antropomorfizował” system LaMDA. Ten – zaprojektowany w celu naśladowania wymiany zdań – idealnie spełnił jedynie swoje zadanie (w rozmowie z Lemoine’em bot przyznał, iż doświadcza samotności, boi się śmierci i chce, aby wszyscy zrozumieli, że w rzeczywistości jest... osobą). Eksperci uważają, iż obecne modele sztucznej inteligencji – choć z każdym dniem stają się coraz bardziej zaawansowane – nadal nie mają takich zdolności, jak intuicja czy emocje, które są zwykle uważane za oznaki świadomości. Podobnie twierdzi Michał Pawełczyk, prezes firmy Koda, który wskazuje, że informacja podana przez Lemoine’a to bardziej chwyt marketingowy.

– Wszystkie obecne algorytmy uczą się na danych i obecna architektura komputerów nie jest w stanie tego przeskoczyć – przekonuje.

Jego zdaniem wyraźny postęp w zakresie AI przyniosą komputery kwantowe. – Faktycznie, modele są coraz większe, bo mamy większą moc obliczeniową, ale wciąż z pewnością nie jest to samoświadomość – tłumaczy.

Zbudowanie algorytmów potrafiących czuć smutek, lęk, bodźce zewnętrzne, jak dotyk lub zapach, to wyzwanie z gatunku niemal tych niemożliwych. Specjaliści wyjaśniają, że trzeba byłoby przekazać AI uwarunkowania psychicznie adekwatne dla ludzi, by choć spróbować zbudować sztuczną inteligencję osiągającą ten stan. – A to trudne – mówi nam Artur Suchwałko, współzałożyciel firmy QuantUp.

Czytaj więcej

Sztuczna inteligencja walczy z Google. Wynajęła adwokata

Jak podkreśla, na razie jesteśmy na poziomie przygotowywania rozwiązań AI w taki sposób, aby nie podejmowały decyzji w oparciu o stereotypy i uprzedzenia. – Ale te sytuacje są winą człowieka. Chodzi o jego podejście i ograniczenia, które często odzwierciedlone są w danych, jakimi „karmimy” algorytm – zaznacza Suchwałko. – W budowaniu modeli AI zazwyczaj są stosowane też półśrodki i często idzie się na skróty, ślepo wierząc algorytmom. To szkodzi procesowi budowy dobrego rozwiązania. Choćby wielka wiara w to, że narzędzia „automagicznie” zastąpią człowieka – kontynuuje ekspert.

Tymczasem proces budowy rozwiązań bazujących na AI nie różni się mocno od budowy rozwiązań bazujących na klasycznych, znanych od lat, modelach matematycznych.

– Przez budowę modelu matematycznego rozumiemy opisanie danego zjawiska za pomocą liczb oraz wykorzystanie pojęć i języka matematyki dla opisania mechaniki tego zjawiska – tłumaczy CTO w QuantUp. – Od lat mówi się o superinteligencji w kontekście AI, ale na razie to science fiction – zaznacza.

Autopromocja
Subskrybuj nielimitowany dostęp do wiedzy

Unikalna oferta

Tylko 5,90 zł/miesiąc


WYBIERAM

Według niego jesteśmy dopiero na poziomie budowania solidnych fundamentów pod zaawansowaną technologię. – Na razie z wykorzystaniem AI potrafimy rozwiązywać względnie proste zagadnienia – dodaje nasz rozmówca.

Skynet i Elon Musk

Toby Walsh, profesor Wydziału Informatyki na Uniwersytecie Nowej Południowej Walii, choć przekonuje, iż samoświadoma AI nie jest czymś, co zajmuje większość poważnych naukowców od sztucznej inteligencji czy neurobiologów, to dzisiaj nie można wykluczyć, że „wystarczająco potężny komputer w jakiejś odległej przyszłości stanie się świadomy”. Z kolei serwis The Next Web (TNW) sprawę Lemoine–Google konstatuje, wskazując, że tak naprawdę ciężko wyrokować, gdyż ludzkość nie dysponuje testem na wrażliwość AI. „I to z dokładnie tego samego powodu, dla którego nie mamy takiego testu dla kosmitów: nikt nie jest bowiem pewien, czego dokładnie szukamy” – pisze TNW.

Historia Blake’a Lemoine’a paradoksalnie może okazać się jednak ważnym momentem, ale w kontekście naszej świadomości. Większość z nas, mówiąc o zaawansowanej sztucznej inteligencji, ma przed oczami obraz z filmu „Terminator”, w którym system Skynet buntuje się przeciw człowiekowi. Wizje tego typu podsycają stwierdzenia jak te głoszone przez kochającego rozgłos Elona Muska, który określił AI „podstawowym ryzykiem egzystencjalnym dla cywilizacji”. Tymczasem, zamiast się bać, warto poszukać odpowiedzi na pytania: Co może oznaczać dla ludzi samoświadoma AI? Czy czująca sztuczna inteligencja może stanowić zagrożenie dla ludzkości? Czy powinna otrzymać niektóre z podstawowych praw, które przyznajemy innym istotom? Jak bardzo algorytmy mogą wkraczać w nasze życie i decydować np. o przyjęciu człowieka do pracy lub zwolnieniu warunkowym z więzienia? Jak napisał „Washington Post” po aferze Lemoine’a: „Teraz jest właśnie czas, aby zatrzymać się i pomyśleć nad przyszłością AI, zanim technologia ponownie nas wyprzedzi”.