Reklama

74 miliardy dolarów i 2,5 miliarda promptów dziennie. Krótki przewodnik po świecie AI

Sztuczna inteligencja w kilka lat stała się jedną z najważniejszych technologii współczesnego świata. Aby lepiej zrozumieć, jak działa ta rewolucja technologiczna, warto poznać podstawowe pojęcia związane z AI i big data. Wyjaśnia je dr Anna Gomola z Uniwersytetu Ekonomicznego w Krakowie.
74 miliardy dolarów i 2,5 miliarda promptów dziennie. Krótki przewodnik po świecie AI

Foto: Adobe Stock

Od chwili udostępnienia ChatGPT, czyli sztucznej inteligencji dla każdego, zadomowiła się ona na dobre w naszym życiu. Warto jednak pamiętać, że sama idea nie jest niczym nowym – jej początki to lata 50. XX wieku – dziś mamy do czynienia z jej dynamicznym rozwojem i wszechobecnością praktycznie w każdej dziedzinie życia. W USA rynek AI osiąga wartość 74 miliardy dol., w Europie 46,7 miliarda dolarów, a w Polsce około 1,75 miliarda dolarów. Prognozy na 2030 r. wskazują wzrost do 827 miliardów dolarów na całym świecie. Według raportu „No Fluff Jobs – Rynek pracy IT 2024/2025” ponad 70 proc. pracowników w Polsce korzysta z narzędzi AI w swoich organizacjach, co czyni Polskę pod tym względem liderem tej części Europy (średnia dla Unii Europejskiej to 59 proc.). Wprowadzeniem do świata sztucznej inteligencji i pomocą w zrozumieniu tego fascynującego i szybko ewoluującego tematu może być słowniczek jej kluczowych pojęć – aktualnych dziś, przydatnych zawsze.

Algorytm

Słowo bodaj najbardziej kojarzone ze sztuczną inteligencją. W dużym uproszczeniu algorytmy to ciągi instrukcji wykonywane przez komputer, aby rozwiązać dany problem lub przetworzyć dane. Podczas gdy klasyczne systemy informatyczne działają według sztywnie zaprogramowanych reguł, systemy oparte na AI wykorzystują algorytmy uczenia maszynowego i sieci neuronowe, dzięki czemu potrafią modyfikować swe działanie na podstawie nowych danych. Tę różnicę można porównać do różnicy między kalkulatorem a uczniem matematyki: pierwszy wykonuje instrukcje, drugi potrafi się uczyć i korzystać ze zdobytej wiedzy w praktyce.

Big data

Ogromne zbiory danych niezbędne do trenowania nowoczesnych modeli AI. We współczesnej gospodarce tym terminem określa się nie tylko duże zbiory danych, lecz również cały ekosystem wzajemnie powiązanych ze sobą technologii, rynków czy regulacji. Rynek big data jest dziś kluczowy dla współczesnej światowej gospodarki oraz wzrostu gospodarczego, wycenia się go na setki miliardów dolarów Według raportu OECD „Exploring Data‑Driven Innovation as a New Source of Growth”, big data definiuje się jako nowe źródło wzrostu produktywności w takich sektorach, jak reklama internetowa, zdrowie, logistyka czy administracja publiczna.

Duży Model Językowy czyli LLM (Large Language Model)

Technologia najbardziej utożsamiana ze sztuczną inteligencją i najpopularniejszą obecnie aplikacją ChatGPT. Jest to rodzaj sztucznej inteligencji zdolnej generować naturalnie brzmiący tekst. W dużych modelach językowych stosuje się miliony parametrów, aby jak najwszechstronniej wytrenować model. Modele językowe uczą się na gigantycznych zbiorach tekstu, by przewidywać kolejne słowa oraz frazy i dzięki temu generować spójne odpowiedzi na zadawane pytania. Na świecie do najbardziej znanych modeli należą obecnie serie GPT (Generative Pre-trained Transformer, np. GPT 3.5, GPT 4) używane m.in. w aplikacjach ChatGPT i Copilot, będącej częścią pakietu Microsoft. W Polsce mamy zaś rozwijane lokalnie modele językowe Bielik i PLLuM. Są one doskonale dostosowane do języka polskiego, rozumiejące jego idiomy oraz kontekst kulturowy. Bielik to społecznościowy projekt non-profit, z kolei PLLuM jest rozwijany przez polskie jednostki naukowe na zlecenie Ministerstwa Cyfryzacji.

Heurystyka

Jest to metoda rozwiązywania problemów, polegająca na poszukiwaniu „wystarczająco dobrego” rozwiązania, gdy dążenie do ideału staje się zbyt kosztowne obliczeniowo. Oparta na optymalizacjach bayesowskich. W przeciwieństwie do tradycyjnych metod, takich jak grid search, które sprawdzają wszystkie kombinacje, heurytyki analizują próbki danych losowo, a potem w najbardziej obiecujących obszarach znajdują najlepsze rozwiązanie. Stosowanie heurystyk jest zatem dużo bardziej opłacalne i szybsze. Średnia poprawa efektywności heurystyk wynosi od 50 do 90 proc. w procesach optymalizacji w porównaniu z metodami tradycyjnymi. Przykładowo, w logistyce umożliwiają one skrócenie planowania tras o 70-80 proc., przy jednoczesnej utracie optymalności na poziomie poniżej 5 proc.. W dziedzinach takich jak medycyna czy finanse, heurystyczne modele uczenia maszynowego działają nawet 5-10 razy szybciej niż tradycyjne metody. To sprawia, że heurystyka staje się nieocenionym narzędziem w wielu branżach, przyspieszając procesy decyzyjne i zwiększając ogólną efektywność operacyjną.

Reklama
Reklama

Jakość danych

Jeden z najważniejszych czynników sukcesu, stojących za dobrą implementacją AI. Im lepsze i czystsze dane wejściowe, tym mniejszy błąd modelu. Dane niekompletne, niespójne lub źle oznaczone zwiększają ryzyko błędu, tzw. „GIGO” (Garbage In, Garbage Out). Jest to szczególnie niebezpieczne w kontekście rzetelności badań naukowych czy decyzji biznesowych podejmowanych na podstawie algorytmów AI. Jeśli dane są niskiej jakości, algorytmy generują błędne przewidywania, co w praktyce może prowadzić do realnych strat finansowych. Co interesujące, dynamiczny rozwój generatywnej sztucznej inteligencji wcale nie gwarantuje poprawy jakości danych: przykładowo, w 2024 r. wykorzystanie generatywnego AI wzrosło o 17 proc. w stosunku do 2023 r., przy jednoczesnym spadku dokładności danych o 9–10 proc.

Machine Learning (Uczenie maszynowe)

Dynamiczna dziedzina sztucznej inteligencji, która koncentruje się na tworzeniu systemów zdolnych do nauki na podstawie własnych doświadczeń bez polegania na zaprogramowanych algorytmach. Modele te mają umiejętność samodzielnego wyciągania wniosków z ukrytych trendów w ogromnych zbiorach danych. Zgodnie z raportami firmy Radix globalny rynek uczenia maszynowego w 2025 r. osiągnie wartość 113 miliardów, a przewidywania wskazują na dalszy wzrost do ponad 1,4 biliona dolarów do 2034 r. Uczenie maszynowe dzieli się na trzy rodzaje: nienadzorowane oraz nadzorowane. W uczeniu nienadzorowanym system analizuje dane bez oznaczonych etykiet, próbując znaleźć ukryte wzorce lub grupy. Dzięki tej metodzie modele są w stanie odkrywać zależności i struktury w danych, co jest niezwykle przydatne w takich dziedzinach jak segmentacja klientów, analiza obrazów czy rekomendacje produktów. Z kolei w uczeniu nadzorowanym model jest trenowany na podstawie danych zawierających odpowiednie etykiety (wyniki). W tym przypadku, system uczy się wzorców, które pozwalają mu przewidywać wyniki na podstawie nowych danych. Przykładami zastosowania uczenia nadzorowanego są klasyfikacja e-maili jako spam lub nie-spam, prognozowanie cen nieruchomości na podstawie ich cech albo analiza obrazów – na przykład identyfikacja osób na zdjęciach. W uczeniu maszynowym możemy wyróżnić ponadto uczenie przez wzmacnianie (Reinforcement Learning). W tym przypadku, system, zwany agentem, otrzymuje nagrody za dobre decyzje oraz kary za złe. W badaniach nad tym podejściem analizuje się tysiące epizodów treningowych, gdzie kluczową miarą jest skumulowana nagroda w odniesieniu do liczby wykonanych kroków lub epizodów. Głośnym przykładem zastosowania uczenia przez wzmacnianie jest program AlphaGo, który w 2016 r. pokonał koreańskiego mistrza gry w go, Lee Sedola, wynikiem 4:1. Sukces AlphaGo nie byłby możliwy bez zastosowania uczenia przez wzmacnianie. System ten był trenowany na podstawie 30 milionów pozycji zaczerpniętych z 160 tysięcy partii go rozegranych przez ludzi, a następnie wygenerował dziesiątki milionów własnych ruchów. AlphaGo rozegrał ze sobą miliony partii, zanim pokonał ludzkiego mistrza. Uczenie przez wzmacnianie znajduje zastosowanie w optymalizacji decyzji w czasie rzeczywistym w różnych dziedzinach, takich jak robotyka, autonomiczne pojazdy, przemysł, finanse czy opieka zdrowotna. Szacuje się, że rynek aplikacji związanych z uczeniem przez wzmacnianie osiągnie w 2025 r. wartość około 4,6 mld dol., z prognozą wzrostu do około 13,2 mld dol. do 2033 r., co daje średni roczny wzrost na poziomie około 15,6 proc.

Sieci neuronowe (Neural networks)

Zaawansowane modele obliczeniowe, które czerpią inspirację z niezwykłej struktury ludzkiego mózgu. Zbudowane są z połączonych „neuronów”, które programista organizuje w warstwy. Każda warstwa odgrywa przypisaną jej rolę: warstwy wejściowe przyjmują dane, warstwy ukryte uczą się wzorców, a warstwy wyjściowe generują trafne predykcje. Sieci neuronowe są idealne do przetwarzania obrazów czy w analizie danych sekwencyjnych. A te najbardziej zaawansowane zbudowane z wielu warstw głębokie sieci neuronowe są zdolne do rozwiązywania złożonych problemów, czyli Deep Learning. Deep learning w polskim tłumaczeniu to uczenie głębokie. Jest to zaawansowana forma uczenia maszynowego. Takie sieci mogą mieć nawet tysiące warstw, a ich trening wymaga potężnych procesorów graficznych (GPU) i mnóstwa energii. Na przykład trening modelu GPT-3 pochłonął 1287 MWh energii, co jest równe rocznemu zużyciu prądu 120 amerykańskich gospodarstw domowych, a to wszystko w ciągu 34 dni intensywnego treningu modelu i i przy wykorzystaniu tysięcy chipów GPU. Co więcej, trening modelu GPT-4 miał kosztować aż 50 razy więcej energii! Jednak oprócz olbrzymich wydatków energetycznych, sieci neuronowe przynoszą wiele korzyści. Dzięki nim możemy szybciej analizować wyniki zaawansowanych form diagnostyki medycznej, takich jak rezonans magnetyczny albo tomografia komputerowa. Zaawansowane sieci neuronowe osiągają dzisiaj dokładność diagnostyczną przekraczającą 95 proc., co umożliwia im wykrywanie chorób nowotworowych we wczesnych stadiach. W Polsce technologie te są wykorzystywane m.in. do prognozowania cen energii na Towarowej Giełdzie Energii. Sieci neuronowe to zatem nie tylko potężne narzędzie w świecie technologii, ale także klucz do rozwoju wielu dziedzin, które mogą zrewolucjonizować nasze życie.

Nadmierne dopasowanie (Overfitting)

To negatywne zjawisko w uczeniu maszynowym polegające na tym, że model zbyt mocno zapamiętuje szczegóły danych treningowych, w tym szum i anomalie, zamiast ogólnych wzorców. W rezultacie osiąga świetne wyniki na danych treningowych, ale nie radzi sobie z analizą nowych danych w zastosowaniu praktycznym. Przykładowo, banki trenowały swoje modele na danych z okresu stabilnej gospodarki, i modele te idealnie przewidywały upadłości w takich spokojnych warunkach. Jednak podczas kryzysu ekonomicznego poprawność ich przewidywań uległa znacznemu pogorszeniu, ponieważ modele zapamiętały tylko specyficzne wzorce i ignorowały szersze zmiany rynkowe. W innym przypadku system rekomendacyjny sklepu internetowego, trenowany na danych historycznych sprzedaży, sugerował letnie produkty w środku zimy.

Prompt

Polecenie lub pytanie wpisywane przez użytkownika, kierujące działaniem modelu AI. OpenAI poda w lipcu 2025 r., że ChatGPT przetwarza globalnie 2,5 miliarda promptów dziennie, z czego około 330 milionów pochodzi z USA. Biorąc pod uwagę, że w grudniu 2024 r. będzie to globalnie ponad miliard promptów dziennie, ta liczba odzwierciedla postępujący w bardzo szybkim tempie wzrost znaczenia i stosowania sztucznej inteligencji.

Dynamiczny wzrost liczby generowanych promptów oraz miliardowe inwestycje w rynki uczenia maszynowego i big data sugerują, że znajdujemy się w punkcie zwrotnym historii technologii. Kluczem do pełnego wykorzystania potencjału sztucznej inteligencji jest nasza świadomość i jej zrozumienie. Sztuczna inteligencja znacząco wpłynie na gospodarki krajów i rynek pracy. Niezależnie od tego, czy budujemy własne modele AI, czy korzystamy z globalnych rozwiązań, jedno jest pewne: AI przestała być futurystyczną wizją, a stała się naszą codzienną partnerką w pracy i rozwoju.

Opinie i komentarze
Szefowa Microsoft Polska: Suwerenność cyfrowa nie musi oznaczać izolacji
Materiał Promocyjny
PR&Media Days 2026
Materiał Promocyjny
Skala sprzedaży rośnie szybciej niż logistyka – typowe wyzwania firm
Opinie i komentarze
Mario Mariniello: Europa może zbudować otwarty i konkurencyjny system sztucznej inteligencji
Opinie i komentarze
Karol Skupień, prezes KIKE: KSC to nieodpowiedzialna ustawa
Opinie i komentarze
Szef analityki w ING: Europie brakuje jeszcze skali w AI
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama