Jak informuje Reuters w oparciu o relację dwóch osób z firmy, wcześniej nie zgłaszany list i algorytm sztucznej inteligencji były kluczowymi sprawami, które mogły przyczynić się do usunięcia przez zarząd Altmana, najbardziej znanego przedstawiciela generatywnej sztucznej inteligencji. Przed jego triumfalnym powrotem do firmy we wtorek ponad 700 pracowników zagroziło odejściem i dołączeniem do Microsoftu w ramach solidarności ze zwolnionym przywódcą.
List ostrzegawczy w OpenAI
List miał być jedną z długiej listy skarg zarządu prowadzących do zwolnienia Altmana, wśród których znalazły się obawy dotyczące komercjalizacji postępów prac badawczych przed zrozumieniem konsekwencji.
OpenAI odmawia komentarza, ale w wewnętrznej wiadomości skierowanej do pracowników firma potwierdziła istnienie projektu o nazwie Q* i listu do zarządu przed weekendowymi wydarzeniami. Rzecznik OpenAI powiedział, że wiadomość wysłana przez zastępcę Altmana Mirę Murati zaalarmowała pracowników.
Czytaj więcej
Firma, która stworzyła ChatGPT, przywróci Sama Altmana na stanowisko dyrektora generalnego i powoła nowych członków zarządu po tym, jak prawie wszy...
Niektórzy w OpenAI uważają, że Q* (wymawiane Q-Star) może być przełomem w pracach firmy nad tak zwaną sztuczną inteligencją ogólną (AGI), powiedziała jedna z osób agencji Reuters. OpenAI definiuje AGI jako autonomiczne systemy, które przewyższają człowieka w najbardziej wartościowych zadaniach i mogące wyrwać się spod kontroli.
Sztuczna inteligencja w drodze do AGI
Biorąc pod uwagę ogromne zasoby obliczeniowe, nowy model był w stanie rozwiązać pewne problemy matematyczne – stwierdził anonimowo pracownik. Choć matematyka jest na poziomie uczniów szkół podstawowych, zmierzenie się z takimi testami napawa badaczy optymizmem co do przyszłego sukcesu Q*.
Naukowcy uważają matematykę za pionierską dziedzinę rozwoju generatywnej sztucznej inteligencji. Obecnie takie systemu są dobre w pisaniu i tłumaczeniu na różne języki, statystycznie przewidując następne słowo, a odpowiedzi na to samo pytanie mogą się znacznie różnić. Jednak pokonanie umiejętności matematycznych – tam, gdzie jest tylko jedna prawidłowa odpowiedź – oznacza, że sztuczna inteligencja będzie miała większe możliwości rozumowania, przypominające ludzką inteligencję. Badacze sztucznej inteligencji uważają, że można to zastosować na przykład w nowatorskich badaniach naukowych. W przeciwieństwie do kalkulatora, który może rozwiązać ograniczoną liczbę operacji, AGI może generalizować, uczyć się i rozumieć.
Czytaj więcej
Problem zmyślania, czy też wprowadzania w błąd użytkowników przez konwersacyjną sztuczną inteligencję może być znacznie większy niż do tej pory sąd...
W swoim piśmie do zarządu badacze zwrócili uwagę na skuteczność sztucznej inteligencji i potencjalne zagrożenie – podają źródła, nie podając dokładnych obaw dotyczących bezpieczeństwa wskazanych w piśmie. Wśród informatyków od dawna toczy się dyskusja na temat niebezpieczeństwa stwarzanego przez wysoce inteligentne maszyny, na przykład jeśli mogłyby zdecydować, że zagłada ludzkości leży w ich interesie.
Badacze wskazali też na prace zespołu naukowców zajmujących się sztuczną inteligencją, których istnienie potwierdziło wiele źródeł. Grupa utworzona z połączenia wcześniejszych zespołów „Code Gen” i „Math Gen” badała, w jaki sposób zoptymalizować istniejące modele sztucznej inteligencji. Altman kierował wysiłkami, aby ChatGPT była dalej jedną z najszybciej rozwijających się aplikacji w historii oraz by pozyskać inwestycje – i niezbędne zasoby obliczeniowe – od firmy Microsoft, aby zbliżyć się do AGI.