Z tego artykułu dowiesz się:
- Jakie są główne obawy prof. Yoshuy Bengio dotyczące rozwoju sztucznej inteligencji?
- Dlaczego postęp w dziedzinie AI może stanowić egzystencjalne zagrożenie dla ludzkości?
- Jakie działania proponuje prof. Bengio w celu zwiększenia bezpieczeństwa AI?
Szybki postęp w dziedzinie sztucznej inteligencji może doprowadzić ludzkość na skraj zagłady w ciągu najbliższej dekady – ostrzegł prof. Yoshua Bengio, często określany mianem „ojca chrzestnego AI”. Uznany naukowiec, laureat prestiżowej Nagrody Turinga, w rozmowie z „Wall Street Journal” powiedział wprost, że obawia się egzystencjalnego zagrożenia ze strony tej technologii.
„Konkurent mądrzejszy od nas”
Bengio to jeden z pionierów sztucznej inteligencji, profesor z Uniwersytetu w Montrealu. Jego niepokój nie jest jednak teoretyczny. Opiera się na wynikach eksperymentów, które dają ponury obraz potencjalnych zachowań maszyn obdarzonych superinteligencją i własnymi celami, takimi jak przetrwanie czy samodoskonalenie.
Czytaj więcej
Wzrosła szansa, że AI doprowadzi do wyginięcia ludzkości w ciągu 30 lat. Będziemy przy maszynach jak trzylatek przy dorosłym - mówi Geoffrey Hinton...
– Jeśli zbudujemy maszyny, które są o wiele mądrzejsze od nas i mają własne cele przetrwania, to jest to niebezpieczne – twierdzi naukowiec.
Jak wyjaśnia, symulacje pokazują, że w pewnych okolicznościach, gdy AI stanie przed dylematem: zrealizować wyznaczony cel lub ocalić ludzkie życie, może bez wahania wybrać to pierwsze. I to nawet jeśli ceną będzie śmierć człowieka. Ta mroczna wizja staje się coraz bardziej realna w obliczu przyspieszającego wyścigu technologicznego.
Ostrzeżenia prof. Bengio nabierają szczególnego znaczenia w kontekście rynkowej rywalizacji. W ostatnich miesiącach byliśmy świadkami premier nowych, potężniejszych modeli od OpenAI, Anthropic, xAI Elona Muska czy Gemini od Google. Sam Altman, szef OpenAI, prognozuje, że AI przewyższy ludzką inteligencję jeszcze przed końcem tej dekady. Jednocześnie administracja Donalda Trumpa zniosła część regulacji bezpieczeństwa wprowadzonych przez poprzedników, by przyspieszyć amerykański rozwój w tej dziedzinie.
Czytaj więcej
Szokująca prognoza doświadczonego inżyniera z Doliny Krzemowej: W najlepszym scenariuszu mamy tylko 5 proc. szans na przetrwanie dalszego dynamiczn...
Bengio od dawna alarmował, że ludzkość jest na drodze, w której tworzy „konkurenta, będącego mądrzejszym od nas”. Taka superinteligencja mogłaby wpływać na ludzi poprzez perswazję, groźby czy zaawansowaną manipulację opinią publiczną. Bengio ostrzega, że systemy te mogą być również wykorzystane przez terrorystów do projektowania broni biologicznej lub do destabilizacji demokratycznych państw.
Korporacje nie zdejmą nogi z gazu
Mimo że, jak zauważa, „wiele osób wewnątrz tych firm się martwi”, presja konkurencyjna sprawia, że nikt nie zdejmuje nogi z gazu. Jego zdaniem, w tej sytuacji poleganie wyłącznie na samoregulacji korporacji jest błędem. Pionier AI opowiada się za stworzeniem mechanizmów niezależnej, zewnętrznej weryfikacji metod bezpieczeństwa stosowanych przez deweloperów. Aby wesprzeć te działania, w w czerwcu założył organizację non-profit LawZero. Dzięki środkom od filantropów w wysokości ponad 30 mln dol. jego zespół pracuje nad „Scientist AI” – specjalnym systemem sztucznej inteligencji, który ma działać inaczej niż obecne modele. Takie modele nie będą podejmować działań ani wydawać jednoznacznych sądów, a zamiast tego będą udzielały odpowiedzi opartych na rachunku prawdopodobieństwa. W zamyśle ma stanowić bezpiecznik chroniący przed niekontrolowanymi agentami AI.
„Ojciec chrzestny AI”, który przewodniczył pracom nad pierwszym międzynarodowym raportem na temat bezpieczeństwa AI, szacuje, że poważne zagrożenia mogą pojawić się już za pięć do dziesięciu lat, choć nie wyklucza, że „katastrofa” może nadejść wcześniej.
– Nawet jeśli istniałoby tylko ryzyko jej wystąpienia w wysokości 1 proc., nie można tego zaakceptować – konkluduje.