Leike w firmie, która stoi za stworzeniem ChatGPT, pracował około trzech lat. Za zadanie miał pilnować, by algorytmy były przede wszystkim bezpieczne. W ubiegłym tygodniu odszedł jednak z pracy, co w branży wywołało niemałe poruszenie. Przyczyn zmian personalnych nie ujawniono, ale teraz sam zainteresowany – za pośrednictwem platformy X – wyciąga na światło dzienne wątpliwości, z jakimi bił się będąc w OpenAI.
Bezpieczeństwo nie jest priorytetem
„Odejście z tej pracy było jedną z najtrudniejszych rzeczy, jakie kiedykolwiek zrobiłem, gdyż dziś musimy pilnie wymyślić, jak sterować i kontrolować systemy sztucznej inteligencji, które są znacznie mądrzejsze od nas. Dołączyłem do OpenAI, bo uważałem, że to będzie najlepsze miejsce na świecie do przeprowadzenia takich badań. Jednak od dłuższego czasu nie mogłem się zgodzić z kierownictwem firmy co do priorytetów. I w końcu dotarliśmy do punktu krytycznego” – ujawnia w serwisie X Jan Leike.
Czytaj więcej
Profesor Geoffrey Hinton przestrzega przed światowym wyścigiem zbrojeń w dziedzinie AI i zostawianiem jej decyzji o zabijaniu. Twierdzi, że rządy będą musiały ustanowić bezwarunkowy dochód podstawowy, aby zapobiec wzrostowi nierówności.
Był szef bezpieczeństwa w OpenAI podkreśla, że firma znacznie większą część swojej „przepustowości” powinna przeznaczyć nie na zwiększanie mocy AI, lecz na przygotowanie się na kolejne generacje dużych modeli językowych (LLM), monitorowanie, gotowość, bezpieczeństwo i wpływ społeczny. „To tematy trudne do rozwiązania i obawiam się, że nie jesteśmy na dobrej drodze, aby te cele osiągnąć” – pisze Leike.
W tweetach alarmuje, iż w ciągu ostatnich lat procesy bezpieczeństwa zeszły na dalszy plan. „A budowanie maszyn mądrzejszych od ludzi jest niebezpieczne. OpenAI bierze na siebie ogromną odpowiedzialność w imieniu całej ludzkości” – tłumaczy ekspert. Zastrzega przy tym, iż świat musi się przygotować na implikacje związane z generalną sztuczną inteligencją (AGI).