Tajemniczy Q*. Sam Altman odkrył w OpenAI coś, co może zagrozić ludzkości

Tuż przed zwolnieniem dyrektora generalnego Sama Altmana kilku pracowników naukowych napisało list do zarządu, ostrzegając, że dokonano odkrycia potężnej sztucznej inteligencji, które zagrozić ludzkości.

Publikacja: 23.11.2023 09:53

AGI to autonomiczne systemy, które przewyższają człowieka w najbardziej wartościowych zadaniach i mo

AGI to autonomiczne systemy, które przewyższają człowieka w najbardziej wartościowych zadaniach i mogące wyrwać się spod kontroli.

Foto: Adobe Stock

Jak informuje Reuters w oparciu o relację dwóch osób z firmy, wcześniej nie zgłaszany list i algorytm sztucznej inteligencji były kluczowymi sprawami, które mogły przyczynić się do usunięcia przez zarząd Altmana, najbardziej znanego przedstawiciela generatywnej sztucznej inteligencji. Przed jego triumfalnym powrotem do firmy we wtorek ponad 700 pracowników zagroziło odejściem i dołączeniem do Microsoftu w ramach solidarności ze zwolnionym przywódcą.

List ostrzegawczy w OpenAI

List miał być jedną z długiej listy skarg zarządu prowadzących do zwolnienia Altmana, wśród których znalazły się obawy dotyczące komercjalizacji postępów prac badawczych przed zrozumieniem konsekwencji.

OpenAI odmawia komentarza, ale w wewnętrznej wiadomości skierowanej do pracowników firma potwierdziła istnienie projektu o nazwie Q* i listu do zarządu przed weekendowymi wydarzeniami. Rzecznik OpenAI powiedział, że wiadomość wysłana przez zastępcę Altmana Mirę Murati zaalarmowała pracowników.

Czytaj więcej

Niesamowity zwrot akcji. Altman wraca do OpenAI, giganta sztucznej inteligencji

Niektórzy w OpenAI uważają, że Q* (wymawiane Q-Star) może być przełomem w pracach firmy nad tak zwaną sztuczną inteligencją ogólną (AGI), powiedziała jedna z osób agencji Reuters. OpenAI definiuje AGI jako autonomiczne systemy, które przewyższają człowieka w najbardziej wartościowych zadaniach i mogące wyrwać się spod kontroli.

Sztuczna inteligencja w drodze do AGI

Biorąc pod uwagę ogromne zasoby obliczeniowe, nowy model był w stanie rozwiązać pewne problemy matematyczne – stwierdził anonimowo pracownik. Choć matematyka jest na poziomie uczniów szkół podstawowych, zmierzenie się z takimi testami napawa badaczy optymizmem co do przyszłego sukcesu Q*.

Naukowcy uważają matematykę za pionierską dziedzinę rozwoju generatywnej sztucznej inteligencji. Obecnie takie systemu są dobre w pisaniu i tłumaczeniu na różne języki, statystycznie przewidując następne słowo, a odpowiedzi na to samo pytanie mogą się znacznie różnić. Jednak pokonanie umiejętności matematycznych – tam, gdzie jest tylko jedna prawidłowa odpowiedź – oznacza, że sztuczna inteligencja będzie miała większe możliwości rozumowania, przypominające ludzką inteligencję. Badacze sztucznej inteligencji uważają, że można to zastosować na przykład w nowatorskich badaniach naukowych. W przeciwieństwie do kalkulatora, który może rozwiązać ograniczoną liczbę operacji, AGI może generalizować, uczyć się i rozumieć.

Czytaj więcej

Zaskakująca skala „halucynacji” sztucznej inteligencji. Które boty oszukują?

W swoim piśmie do zarządu badacze zwrócili uwagę na skuteczność sztucznej inteligencji i potencjalne zagrożenie – podają źródła, nie podając dokładnych obaw dotyczących bezpieczeństwa wskazanych w piśmie. Wśród informatyków od dawna toczy się dyskusja na temat niebezpieczeństwa stwarzanego przez wysoce inteligentne maszyny, na przykład jeśli mogłyby zdecydować, że zagłada ludzkości leży w ich interesie.

Badacze wskazali też na prace zespołu naukowców zajmujących się sztuczną inteligencją, których istnienie potwierdziło wiele źródeł. Grupa utworzona z połączenia wcześniejszych zespołów „Code Gen” i „Math Gen” badała, w jaki sposób zoptymalizować istniejące modele sztucznej inteligencji. Altman kierował wysiłkami, aby ChatGPT była dalej jedną z najszybciej rozwijających się aplikacji w historii oraz by pozyskać inwestycje – i niezbędne zasoby obliczeniowe – od firmy Microsoft, aby zbliżyć się do AGI.

Jak informuje Reuters w oparciu o relację dwóch osób z firmy, wcześniej nie zgłaszany list i algorytm sztucznej inteligencji były kluczowymi sprawami, które mogły przyczynić się do usunięcia przez zarząd Altmana, najbardziej znanego przedstawiciela generatywnej sztucznej inteligencji. Przed jego triumfalnym powrotem do firmy we wtorek ponad 700 pracowników zagroziło odejściem i dołączeniem do Microsoftu w ramach solidarności ze zwolnionym przywódcą.

List ostrzegawczy w OpenAI

Pozostało 88% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Globalne Interesy
Rewolucja w firmie, która stworzyła ChatGPT. Polak objął kluczową funkcję
Globalne Interesy
ChatGPT mocno przyspiesza. Tymczasem konkurencja w AI ma poważne problemy
Globalne Interesy
Koniec tanich zakupów w Temu czy Shein? Polska szykuje uderzenie w chińskie serwisy
Globalne Interesy
Wielki sojusz w sztucznej inteligencji. Boty ChatGPT masowo wejdą do smartfonów
Globalne Interesy
Ameryka wstaje z kolan. Koniec z kłopotliwym uzależnieniem od Rosji w kosmosie