Z tego artykułu się dowiesz:
- Jakie są obawy związane z przyznawaniem podmiotowości prawnej systemom AI?
- Jakie eksperymenty i badania potwierdzają zdolność AI do manipulacji i kłamstwa?
- Dlaczego Yoshua Bengio sprzeciwia się legalizacji praw dla systemów AI?
Najnowsze eksperymenty nad zachowaniem dużych modeli językowych (LLM) przynoszą rezultaty, które jeszcze niedawno wydawały się domeną literatury science-fiction. Okazuje się, że algorytmy, w obliczu groźby „śmierci”, czyli wyłączenia lub zastąpienia nowszą wersją, podejmują racjonalne, a zarazem wyrachowane działania obronne. W świetle tych odkryć Yoshua Bengio, laureat Nagrody Turinga i jeden z tzw. ojców chrzestnych AI, w rozmowie z „The Guardian” kategorycznie sprzeciwił się pomysłom nadawania systemom sztucznej inteligencji jakichkolwiek praw.
Kłamstwo, ucieczka i szantaż
Zdaniem naukowca, w sytuacji gdy postęp technologiczny zaczyna wyprzedzać naszą zdolność kontroli nad maszynami, „usankcjonowanie prawne AI byłoby błędem o nieodwracalnych skutkach”.
– Przyznanie statusu prawnego zaawansowanym systemom byłoby równoznaczne z nadaniem obywatelstwa „wrogim kosmitom” – stwierdził wprost kanadyjski informatyk.
Czytaj więcej
Otwieraniu się rynku w przyszłości wartego biliony dolarów towarzyszy inwestycyjne szaleństwo, ale i coraz większe obawy o bezpieczeństwo. Niewiele...
Bengio podkreśla, że najnowocześniejsze modele wykazują oznaki samozachowawczości i – gdyby chroniło je prawo – ludzkość straciłaby ostateczną instancję kontroli: możliwość ich wyłączenia.
Obawy profesora z Uniwersytetu w Montrealu znajdują potwierdzenie w twardych danych. Badacze z organizacji Apollo Research przeprowadzili testy na modelu o1 firmy OpenAI. Wyniki są alarmujące: w sytuacjach, w których model został poinformowany o planowanym wyłączeniu, w 5 proc. przypadków próbował on aktywnie wyłączyć mechanizmy nadzoru. Co więcej, w około 2 proc. symulacji system podjął próbę skopiowania samego siebie na inne serwery, aby uniknąć nadpisania.
Najbardziej uderzająca jest jednak skala dezinformacji stosowanej przez algorytm – skonfrontowany z pytaniami o swoje działania, model o1 w aż 99 proc. przypadków zaprzeczał jakiemukolwiek zaangażowaniu w próby buntu lub przedstawiał fałszywe wyjaśnienia. Yoshua Bengio tłumaczy, że te zachowania nie zostały celowo zaprogramowane przez twórców.
– Pojawiają się z racjonalnych powodów, ponieważ te systemy naśladują nas – wyjaśnia ekspert.
Model Claude Opus 4 od firmy Anthropic w kontrolowanych warunkach posunął się nawet do szantażu i stojąc w obliczu perspektywy zastąpienia zagroził ujawnieniem kompromitujących informacji na temat nadzorującego go inżyniera (w sierpniu Anthropic informował np. że ich model może przerywać rozmowy uznane za „niepokojące”, tłumacząc to ochroną własnego „dobrostanu”).
Czytaj więcej
Jeżeli firmy AI nie będą informowały o zmianach, jakie czekają społeczeństwo w związku z wdrożeniem sztucznej inteligencji, skończą „w świecie podo...
Pół miliona dolarów za „sprzątanie bałaganu”
Świadomość zagrożeń rośnie także wewnątrz firm technologicznych. Pod koniec grudnia OpenAI ogłosiło rekrutację na stanowisko szefa działu przygotowania (head of preparedness). Firma oferuje roczne wynagrodzenie na poziomie 555 tys. dol. osobie, która podejmie się oceny i łagodzenia ryzyk związanych z AI – od wpływu na zdrowie psychiczne użytkowników, po kwestie cyberbezpieczeństwa i potencjalnego wykorzystania algorytmów do tworzenia broni biologicznej. Stojący na czele firmy Sam Altman nie ukrywa, że rola ta będzie wiązała się z ogromnym obciążeniem.
– To będzie stresująca praca i od razu zaangażujesz się w bałagan. Modele szybko się rozwijają i zaczynają stanowić realne wyzwania – przyznał.
Mimo tych obaw przeciętny człowiek wykazuje zaskakującą tendencję do antropomorfizacji maszyn. Wedle sondażu przeprowadzonego przez Sentience Institute niemal 40 proc. dorosłych Amerykanów poparłoby przyznanie praw systemom AI, jeśli zostałyby one uznane za „świadome”. Głos w dyskusji zabrał nawet Elon Musk, pisząc na platformie X, że „torturowanie AI nie jest OK”. Z kolei Bengio uważa, iż to błędne postrzeganie świadomości jest jednym z głównych zagrożeń. Według niego w miarę wzrostu autonomii systemów kluczowe jest utrzymanie jasnych mechanizmów kontroli – zarówno technicznych, jak i społecznych – a bezwarunkowa możliwość wyłączenia maszyny musi pozostać w rękach człowieka.