Reklama
Rozwiń

Arabska guru AI: Sztuczna inteligencja zyska wpływ na politykę zagraniczną

W ciągu najbliższych kilku lat wpływ sztucznej inteligencji na badania naukowe będzie wręcz monumentalny, przyspieszy przełomy w różnych dziedzinach – podkreśla dr Ebtesam Almazrouei, współtwórczyni arabskiego konkurenta ChatGPT.

Publikacja: 21.11.2023 11:47

Arabska guru AI: Sztuczna inteligencja zyska wpływ na politykę zagraniczną

Foto: mat. pras.

W Technology Innovation Institute (TTI) stworzyliście Falcon 180B – nowy duży model językowy (LLM), który jest nr. 1 wśród algorytmów o otwartym dostępie. Obejmuje 180 mld parametrów i jest trenowany na podstawie 3,5 bln tokenów, ma cztery razy większe zasoby obliczeniowe niż model LLaMA 2 firmy Meta. Jak ważne jest to osiągnięcie?

Ebtesam Almazrouei: Falcon 180B stanowi znaczący krok w rozwoju generatywnej AI, osiągając podobne wyniki co największe modele na rynku. To pokazuje zaangażowanie TTI w efektywne posuwanie naprzód technologii AI. W mojej jednostce, AI Cross Center, jesteśmy pionierami w AI – rozwinęliśmy projekt Falcon, generatywną sztuczną inteligencję, budując na sukcesie NOOR.

Czym jest NOOR?

To jeden z największych modeli przetwarzania języka naturalnego (NLP) w języku arabskim. Mówiąc inaczej, stworzyliśmy arabski ChatGPT. Po NOOR skupiliśmy się na stworzeniu Falcon 40, zaawansowanego modelu wytrenowanego na różnorodnych danych, w tym jakościowych artykułach i tekstach technicznych, wykorzystując 1 bln parametrów. W marcu br. uruchomiliśmy Falcon 40B, który przewyższał wydajnością model Llama od Mety. Udostępniliśmy go zarówno w celach komercyjnych, jak i badawczych na Hugging Face (internetowa społeczność specjalistów od uczenia maszynowego – red.). Potem stworzyliśmy Falcon 180B. Nie tylko zajął on miejsce wyżej niż Llama 2 na listach Hugging Face, ale wykazał się porównywalną wydajność do dużych modeli Google’a, a ma tylko połowę ich wielkości.

A nad czym teraz pracujecie?

Kieruję jednostką AI-Cross Center w TTI w Abu Zabi, gdzie w ostatnich miesiącach zanurzyliśmy się w kilka przełomowych projektów: od genAI (generatywna sztuczna inteligencja) i „ekstremalnie skalowalnych” tzw. modeli podstawowych AI, poprzez wizję komputerową, aż po rozwój humanoidalnych robotów. Nasze odkrycia chcemy patentować, ale też przekształcać je w gotowe rozwiązania rynkowe.

Rzucacie wyzwanie gigantom, jak Google, Meta i Microsoft?

W kontekście rozwoju sztucznej inteligencji nie należy się skupiać na konkurencji, ale na tym, jak wprowadzać innowacje w odpowiedzialny sposób, aby służyć ludzkości. Naszym celem jest wykorzystanie AI do transformacji branż, jak inżynieria, opieka zdrowotna. Mimo że ostatnio widzimy wzrost zainteresowania genAI, to dopiero zaczynamy poznawać jej potencjał.

Czytaj więcej

Japoński ekspert: Przygotujmy się na rządy AI i przyznanie praw człowieka robotom

Patrząc w przyszłość, zmierzamy w kierunku tzw. ogólnej sztucznej inteligencji (AGI), ale wciąż wiele jest do zbadania – w tym etyczna i emocjonalna AI. Kluczowe dla skalowania tej technologii są postępy w efektywności energetycznej i mocy obliczeniowej oraz przełomy algorytmiczne.

Czy powinniśmy się obawiać, że AI zyska świadomość i będzie w stanie samodoskonalić się całkowicie poza naszą kontrolą?

Ten moment jest wciąż daleko poza naszym zasięgiem. AI – zwłaszcza w modelach generatywnych – jest ograniczona i energochłonna. W przeciwieństwie do dziecka, które rozpoznaje kota niezależnie od jego wyglądu, AI wymaga obszernych danych i zasobów do realizacji tak prostych zadań.

Naszym celem nie jest osiągnięcie tzw. osobliwości technologicznej (przyszły moment w rozwoju cywilizacji, w którym postęp techniczny będzie tak dynamiczny, że ludzkie przewidywania staną się nieaktualne – red.). Chcemy wykorzystać AI do zaspokojenia ludzkich potrzeb, jak przyspieszenie odkrywania leków, przy tym zachowując granice etyczne.

Czy zatem to, co dziś nazywamy sztuczną inteligencją, jeszcze nią nie jest? Może to tylko zaawansowane chatboty?

To dość trafna ocena. To, z czym mamy obecnie do czynienia, to modele fundamentalne, jak GPT-4 czy Falcon 180B. Są one zaawansowanymi aplikacjami genAI, ale nie powinny być mylone z ogólną sztuczną inteligencją. Te systemy zostały przeszkolone z użyciem obszernych zestawów danych z internetu, aby symulować konwersacje, lecz ich możliwości są nadal dość ograniczone. Wymagają znaczących mocy obliczeniowych i mogą mieć trudności z takimi zadaniami, jak rozpoznawanie obrazów. Jako modele AI nie są one samoświadome i nie mogą podejmować autonomicznych decyzji, odbiegających od ich programowania. Są podatne na „halucynacje”, gdy pyta się je o coś, co wybiega poza zakres treningu.

To kiedy nastąpi przełom w rozwoju AI?

Badacze pracują nad nowymi architekturami sztucznej inteligencji i starają się odblokować „czarną skrzynkę” procesu decyzyjnego AI, aby tworzyć bardziej zaawansowane modele. Dziś jeszcze jesteśmy na wczesnym etapie rozumienia multimodalnych danych wejściowych. To podróż odkryć, którą prowadzi społeczność badaczy, naukowców i liderów branżowych.

Jednym z najważniejszych kroków był trend otwartego udostępniania technologii AI. Dzięki temu, że nasze badania i postępy w AI są ogólnodostępne, każdy z zapałem i wiedzą może się przyczynić do rozwoju tej dziedziny. Demokratyzuje to rozwój AI i pomaga rozumieć jej ograniczenia oraz potencjalne zastosowania.

Nie rozumiemy jeszcze w pełni, jak działa AI?

Posiadamy podstawową wiedzę na ten temat. Można to porównać do gotowania, gdzie obecny jest proces prób i błędów. Możemy znać składniki, a więc zestawy danych, ale znalezienie idealnego połączenia dla skutecznego modelu AI wymaga eksperymentowania.

Czytaj więcej

Pierwszy w Polsce wywiad z humanoidem. „Muszę zrozumieć ludzkie emocje"

W dziedzinie AI nie istnieje ostateczny przewodnik, który dyktowałby najlepszą architekturę lub zestaw danych dla konkretnego rozwiązania. Ten brak precyzyjnych wytycznych wynika z faktu, że AI jest rozwijającą się technologią, znajdującą się na etapie badań. Choć niektóre techniki są zaawansowane, inne są w fazie początkowej, a nasze zrozumienie ewoluuje wraz z trwającymi eksperymentami. Znamy podstawy modeli, które budujemy, ale niuanse ich optymalnego działania nie są zrozumiałe.

Czy zatem ludzie wciąż mają przewagę nad AI?

Dziś istnieje znaczna dysproporcja między możliwościami ludzi a AI, na korzyść człowieka. Potrafimy komunikować się poprzez emocje, język oraz niewerbalne wskazówki, jak mimika twarzy czy gesty. Obecna komunikacja z maszynami ogranicza się do wprowadzania danych przez pisanie lub specyficzne komendy programistyczne, aby „wyprodukować” pożądany rezultat. Interakcja w czasie rzeczywistym jest nadal poza naszym zasięgiem. Choć ChatGPT może wygenerować przemówienie, brakuje mu zdolności do oferowania wglądów wykraczających poza to, na czym został przeszkolony, lub do prawdziwego odczuwania lub rozumienia ludzkich emocji. AI pozostaje wciąż niedojrzała – niezdolna do replikacji głębi ludzkiego transferu wiedzy lub wytwarzania prawdziwie nowej wiedzy.

A co w takim razie z kontrolą człowieka nad tą technologią?

To kwestia obecna dziś na agendzie każdego kraju. Niezbędne wydaje się opracowanie regulacji do nadzorowania AI. Gdy te zostaną wprowadzone, prawdopodobnie włączone zostaną do korporacyjnych i instytucjonalnych ram. AI, którą rozwijamy i wdrażamy, musi być odpowiedzialna, bezpieczna i budować zaufanie. A tworzenie zaufania opiera się na przejrzystości. Weźmy na przykład samochód: rozumiemy jego możliwości i ograniczenia, takie jak konsekwencje przekroczenia prędkości, jesteśmy szkoleni do jazdy, nim otrzymamy licencję. I to samo dotyczy AI. Jeśli jakaś firm oferuje tę technologię, powinna też dostarczyć „instrukcję obsługi”, która opisuje możliwości AI, sposób tworzenia, ale i ryzyka. Tak buduje się zaufanie – wiesz, co technologia może zrobić, jak jej odpowiedzialnie używać i jakie są jej granice.

Czy AI stanie się autonomiczna, czy ludzie pozostaną integralną częścią systemów AI?

Technologię postrzegam jako środek do wzbogacania naszego życia, a nie jako „zastępstwo” dla ludzi. Celem rozwijania zaawansowanej technologii jest wsparcie nas poprzez przejęcie rutynowych i monotonnych zadań, co optymalizuje naszą wydajność i zwalnia nasz czas. Ten dodatkowy czas można zainwestować w działania odzwierciedlające ludzką istotę: krytyczne myślenie i innowacje, czyli w obszary, w których maszyny wciąż mają braki.

Dziś jesteśmy na wczesnym etapie rozwoju AI i nie widzę bezpośrednich zagrożeń.

Jak pani sądzi, kiedy będzie możliwe stworzenie AGI?

Badając potencjał ogólnej sztucznej inteligencji, zdajemy sobie sprawę, że genAI odgrywa kluczową rolę. Jednak czy AGI jest osiągalne w ciągu najbliższej dekady? Przed nami liczne wyzwania, jak m.in. określenie potrzebnego sprzętu wykraczającego poza obecne GPU do przetwarzania ogromnych zbiorów danych i wskazanie pożądanych atrybutów AGI, takich jak świadomość środowiskowa. Obecnie brakuje nam konkretnego zrozumienia AGI i jasnego planu. Jesteśmy świadomi, że kluczowe korporacje stojące na czele projektów AI posuwają aspekty multimodalnej inteligencji ogólnej, choć te wysiłki pozostają nieujawnione. Droga do ogólnej sztucznej inteligencji to nie tylko przełomy technologiczne, ale także zajmowanie się kwestiami etycznymi. Gdy będziemy mogli odpowiedzieć na fundamentalne pytania, zbliżymy się do osiągnięcia poziomu inteligencji i świadomości, których szukamy w AGI.

Jak zatem, w oczekiwaniu na AGI, rozwinie się sama AI?

Przewiduję, że AI w wciągu pięciu najbliższych lat w drastyczny sposób odmieni liczne sektory, stając się integralną częścią naszych systemów edukacyjnych i codziennych rutyn. W ciągu dekady prawdopodobnie będzie głęboko wpleciona we wszystkie nasze działania. Zdolność AI do analizowania anonimizowanych zbiorów danych umożliwi jej rejestrowanie naszych ruchów, rozpoznawanie złożonych związków i wzorców, a nawet przewidywanie przyszłych planów na podstawie analizy zachowań. Tego rodzaju modelowanie predykcyjne stanie się powszechne już za dwa–trzy lata. Wpływ AI na badania naukowe będzie wręcz monumentalny, przyspieszy przełomy w różnych dziedzinach. Technologia ta odegra znaczącą rolę w kształtowaniu polityk zagranicznych i strategii rządowych. Kraje, które pozostaną na czele rozwoju AI, prawdopodobnie będą liderami w kształtowaniu geopolityki, staną się bardziej odporne gospodarczo. To zasadniczo zmieni globalny krajobraz. Niektóre narody rozwiną się dzięki inwestycjom w AI, mogą wyłonić się nowi gracze. Zmiany zajdą też na poziomie indywidualnym.

KONKURS POD PATRONATEM „RZECZPOSPOLITEJ”

„Join The Rebels – Impact The Future” z pulą nagród 200 tys. euro to konkurs mający na celu stworzenie sztucznej inteligencji przyszłosci – Compassion AI (z ang. współodczuwającej). Konkurs opiera się na wynikach pracy action tanku Virtual Florence, w którym uczestniczyli światowej klasy eksperci i humanoid Mika (sesja ta miała miejsce 14 marca 2023 r. w Salzburgu).

W ramach projektu do 30 listopada br. poszukiwane są rozwiązania wspierane przez sztuczną inteligencję, która pomaga ludziom i społeczeństwu w ich rozwoju psychologicznym, emocjonalnym, duchowym i intelektualnym. Finał zaplanowano na grudzień, a zwycięzca zostanie ogłoszony w marcu 2024 r. podczas AI Impact Summit w Salzburgu. Otrzyma 20 tys. euro za swój pomysł i dodatkowe nagrody o wartości 180 tys. euro na przyspieszenie realizacji pomysłu (pod warunkiem podjęcia prac nad produktem). Najbardziej przyszłościowy projekt zostanie także nagrodzony programem mentoringowym opracowanym przez iMind Institute.

Zadanie konkursu „Join the Rebels” to stworzenie środowiska, platformy lub rozwiązania wykorzystującego gamifikację i tzw. stan flow, aby uczyć w psychologicznie bezpieczny sposób pozytywnego i moralnego zachowania, odpowiedzialności i poczucia własnej wartości, zachowań prospołecznych i rozwijających współpracę, wspierania zrównoważonego rozwoju oraz rozwijania sztuki i nauki. Organizatorem konkursu jest Fundacja GAIA (Global Artificial Intelligence Alliance) we współpracy z firmą Dictador i iMind Institute.

Więcej szczegółów: www.globalai.life/join. ∑

Opinie i komentarze
Odpowiedzialne innowacje. Jak mądra będzie „smart” wieś?
Opinie i komentarze
Odpowiedzialne innowacje: Moralność maszyn, czyli liczne pytania natury etycznej
Opinie i komentarze
Jan Widacki: Modernizacja stacji bazowej telefonii komórkowej nie musi być rozbudową
Opinie i komentarze
Prof. Jan Widacki: Miliardy za częstotliwości kosztem inwestycji?
Materiał Promocyjny
Najlepszy program księgowy dla biura rachunkowego
Opinie i komentarze
Michał Targiel, partner PwC Polska: Inwestycje w AI warunkiem przetrwania
Materiał Promocyjny
„Nowy finansowy ja” w nowym roku