OpenAI, firma z Doliny Krzemowej, jest dziś na ustach całego świata – jej technologia ChatGPT otworzyła oczy wielu osobom i uświadomiła, jaki potencjał drzemie w sztucznej inteligencji. Opracowany przez nią model języka naturalnego, który może być używany do generowania tekstu na podstawie określonego kontekstu, stał się hitem. Algorytm jest w stanie odpowiadać na pytania i kontynuować rozmowę w sposób, który może być trudny do odróżnienia od ludzkiej komunikacji. Naukowcy nie mają wątpliwości, że w przyszłości takie rozwiązania mogą zastąpić ludzi w niektórych zadaniach. Ale równie wiele co szans na horyzoncie, pojawia się i zagrożeń. Gdzie zaprowadzą nas projekty AI, jak ten tworzony w kalifornijskich laboratoriach Wojciecha Zaremby i Sama Altmana?
AI w rękach gigantów
OpenAI to dzieło m.in. Altmana i Elona Muska (wycofał się już z tego projektu). Mało kto jednak wie, że jednym z założycieli jest również nasz rodak – Wojciech Zaremba. Pochodzący z Kluczborka 34-letni matematyk, programista i doktor filozofii na New York University od lat zajmuje się sztuczną inteligencją. Pracował dla gigantów – karierę zaczynał w koncernie NVIDIA, potem trafił do Google (w Google Brain zajmował się sieciami nauronowymi), a następnie prowadził badania w laboratoriach Facebook AI. Finalnie jednak na przełomie 2015 i 2016 r. – podobnie jak Musk, Altman, czy znany technologiczny inwestor Peter Thiel – został założycielem OpenAI. Instytucja ta początkowo otrzymała 1 mld dol. na badania nad rozwojem przyjaznej sztucznej inteligencji. O osiągnięciach ostatnich lat może świadczyć sukces ChatGPT. Ale nie tylko. Wyznacznikiem jest także wycena OpenAI – szacuje się, że dziś sięga ona 20 mld dol. Ten dwudzestokrotny wzrost to wyraźny sygnał jak gigantyczny potencjał drzemie w AI. Zaremba i spółka pchają świat w ręce algorytmów, a celem ma być dobro ludzi i cywilizacyjny skok. Zagrożeń jest jednak bez liku.
Czytaj więcej
Możliwości sztucznej inteligencji szokują – od ręki tworzy obrazy i pisze artykuły. Tak jak ten poniżej. Tak zaawansowane algorytmy, coraz powszechniej dostępne, to szansa, ale i zagrożenie.
Choć ideą, jaka przyświecała stworzeniu OpenAI, było opracowywanie zdecentralizowanej sztucznej intelgencji, to widać, iż możliwości algorytmów na technologicznych hegemonów działają niczym magnes. Jednym z kluczowych inwestorów kierowanej przez Altmana firmy jest Microsoft. Inne potężne narzędzie – podobne do ChatGPT – stworzył brytyjski DeepMind, przejęty przez Google. Mowa o Dramatronie, algorytmach, które potrafią wyręczyć specjalistów w pisaniu scenariuszy (same generują opisy postaci, dialogi czy opisy lokalizacji).
Sztuczna inteligencja może być hakerem
Wiele wskazuje na to, że rozwiązania typu ChatGPT w przyszłości będą w stanie zastąpić tradycyjne wyszukiwarki. A właśnie nad technologią WebGPT oraz algorytmami zbierającymi dane na polecenie użytkownika pracuje zespół Zaremby. – Chcemy, by AI pomagała ludziom w rozwiązywaniu zadań wykraczających poza ich umiejętności – oznajmił Polak na Twitterze.
Czytaj więcej
To wyjątkowe narzędzie, które odpowie na pytania jak człowiek, nie zważając na język czy zakres tematyczny, stworzy wiersz, wymyśli dowcip, pomoże odrobić lekcję. Jest jednak zagrożeniem dla wielu zawodów i miejsc pracy.
Ale strach już zajrzał w oczy Google. Jak donosi „New York Times”, lider na rynku wyszukiwarek zorganizował serię wewnętrznych spotkań, na których „zlecił pracownikom wzmożenie wysiłków, by opracować strategię przeciw zagrożeniu ze strony ChatGPT”. Co ciekawe, Google posiada własnego bota tekstowego – LaMDA (niedawno wybuchła afera z udziałem jednego z twórców tej technologii, który stwierdził, że bot uzyskał samoświadomość), nie chce go jednak zaprezentować światu. Może słusznie? Eksperci wskazują, że problemem tego typu rozwiązań jest często brak poprawności politycznej AI i ryzyko szerzenia dezinformacji. Coraz więcej mówi się też o cyberzagrożeniach. W Check Point Research twierdzą, że udało im się zlecić sztucznej inteligencji napisanie wiadomości e-mail z „zaszytym” kodem hakerskim.