Reklama

Jak mądrze korzystać z AI? Firmy zaczynają realne wdrożenia i szukają „wartości”

Sztuczna inteligencja w Polsce wychodzi z fazy entuzjazmu i wchodzi w etap realnych wdrożeń – choć często dzieje się to poza oficjalnymi statystykami. Eksperci, przedstawiciele biznesu i administracji publicznej podczas debaty „Rzeczpospolitej” dyskutowali o tym, gdzie dziś naprawdę wykorzystuje się AI, jakie niesie ona szanse i zagrożenia oraz czy Polska ma szansę stać się ważnym graczem w wyścigu technologicznym.
Sztuczna inteligencja przeszła już od fazy „rozpoznania bojem” i eksperymentów do etapu standaryzacj

Sztuczna inteligencja przeszła już od fazy „rozpoznania bojem” i eksperymentów do etapu standaryzacji i realnego wdrażania w firmach. Nowa technologia daje oszczędności i podnosi jakość, ale wymaga odpowiedniego podejścia – zgodzili się uczestnicy debaty

Foto: tv.rp.pl

Debata „Jak mądrze wykorzystać AI w biznesie, nauce i administracji publicznej?” miała pokazać stan wdrażania sztucznej inteligencji w Polsce, ograniczenia, potencjał i kierunki odpowiedzialnego rozwoju. To element nowego projektu „Rzeczpospolitej” AI Made in Poland. Debatę prowadzili Michał Szułdrzyński, redaktor naczelny „Rzeczpospolitej” i Paweł Rożyński, kierujący serwisem „Rzeczpospolita Cyfrowa” (cyfrowa.rp.pl).

– Chcielibyśmy, żeby osoby czytające „Rzeczpospolitą”, w tym prawnicy czy biznes, traktowali ją jako miejsce, gdzie się odbywają ważne dyskusje na temat sztucznej inteligencji. Widzimy ogromne zainteresowanie tym tematem. To ma być platforma do dyskusji o tym, jak Polska może wykorzystać swój wielki potencjał. O patronat nad projektem poprosiliśmy Ministerstwo Cyfryzacji, bo możemy być największymi zwolennikami wolnego rynku, ale bez państwa, które da zachęty i stworzy odpowiednie warunki, nie da się polskiej myśli technologicznej rozwijać i zatrzymać na miejscu – mówił, otwierając debatę, Michał Szułdrzyński.

Gdzie jesteśmy w AI?

Uczestnicy debaty ocenili, w jakim punkcie rozwoju i adopcji nowych narzędzi się znajdujemy i czy można już mówić o głębokiej adopcji tej technologii w gospodarce. – Znajdujemy się między pierwszą falą entuzjazmu a etapem realnego sprawdzenia możliwości AI. Bądźmy szczerzy: pierwsze dwa lata to był czas dyskusji i chwalenia się planami, a nie rzeczywistych wdrożeń w firmach czy instytucjach. Obecnie implementacja faktycznie rusza, ale często w miejscach, których byśmy o to nie podejrzewali – mówił wiceminister cyfryzacji Dariusz Standerski. Powołał się na badania resortu sprzed roku, z których wynikało, że oficjalny poziom wdrożeń AI w Polsce oscyluje między 6 a 8 proc., z czego połowa przypada na marketing i promocję. Jednak pod tymi liczbami kryje się ogromna „szara strefa” nieoficjalnego wdrożenia. Statystyki twórców technologii oraz anonimowe deklaracje pracowników jasno pokazują, że ludzie korzystają z AI w codziennej pracy, nie przyznając się do tego przełożonym. Dlaczego tak się dzieje? – Pracownicy często obawiają się negatywnych konsekwencji lub brakuje im oficjalnej polityki firmy w tym zakresie – przekonywał minister Standerski. Jego zdaniem rewolucja ta pójdzie teraz w stronę bardzo konkretnych nisz i to ich znalezienie będzie kluczowe. Stąd budowa dwóch fabryk sztucznej inteligencji – w Krakowie i Poznaniu, które będą dostępne też dla przedsiębiorstw, by mogły one dopasowywać modele do swoich potrzeb: od warsztatu samochodowego automatyzującego zamawianie części, po biura księgowe monitorujące zmiany w prawie rachunkowym.

Wiceminister Standerski zwrócił uwagę, że obecny rozwój AI naznaczony jest nowymi zagrożeniami, szczególnie w obszarze dezinformacji. Widać szybką ewolucję: od prymitywnych deepfake’ów, przez zaawansowane grafiki wprowadzające w błąd, aż po boty podszywające się pod konkretne osoby w mediach społecznościowych. Dlatego kluczowe są regulacje, jak nadchodzący AI Act, który nakłada obowiązek oznaczania treści wygenerowanych przez AI w metadanych każdego posta, by użytkownik od razu widział cyfrowy znak wodny.

Z optymizmem o obecnych zastosowaniach AI wypowiadał się Igor Zacharjasz, Head of Digital & Innovation w regionie Europy Środkowo-Wschodniej VISA. – Zgadzam się, że w biznesie jesteśmy dopiero na początku drogi wdrożeniowej, ale z perspektywy mojej firmy widzę, że AI już teraz radykalnie zmienia zachowania konsumentów, co przekłada się na nasz biznes – przekonywał. Jego zdaniem zmienia się sposób wyszukiwania informacji, robienia zakupów w internecie i zarządzania procesem płatniczym i jest to trend, którego firmy nie mogą zignorować. – Musimy w sposób odpowiedzialny przygotować bezpieczne narzędzia, które odpowiedzą na te nowe potrzeby. AI przenika do coraz większej liczby obszarów życia codziennego, a nowe use case'y powstają niemal codziennie – dodał.

Reklama
Reklama

Artur Stankiewicz, dyrektor wykonawczy ds. Transformacji, AI i Digitalizacji Orange Polska, zwrócił uwagę na obawy firm dotyczące niekontrolowanego wycieku danych klienckich i tajemnic przedsiębiorstwa do ogólnodostępnych modeli. To realne ryzyko, którym korporacje próbują zarządzać. – Chęć wykorzystania AI przez pracowników jest naturalna, ale musi odbywać się w warunkach pełnej kontroli. Firmy, udziałowcy i państwo muszą mieć pewność, że technologia jest używana właściwie, zgodnie z powstającymi aktami normatywnymi. Musimy mieć świadomość, jakie modele wykorzystujemy i robić to w sposób przejrzysty – dodał Stankiewicz. Jego zdaniem dziś widać już konkretne zastosowania, np. w obsłudze klienta. Wielkim wyzwaniem pozostaje jednak pomiar efektywności. To, że pracownik dzięki AI ma więcej czasu, nie generuje jeszcze automatycznie wartości dla firmy, jeśli nie wiadomo, jak ten czas zagospodarować. – Musimy umieć precyzyjnie określić tę wartość, zwrot z inwestycji w AI. W obszarze voicebotów czy chatbotów w Orange Polska potrafimy to już dość dobrze mierzyć – mówił. – Mamy wyzwanie: jak uchwycić realną korzyść? Czy potrzebujemy mniej developerów, czy po prostu są oni w stanie wytworzyć więcej w tym samym czasie? To są pytania, na które szukamy odpowiedzi – dodał.

– Obserwujemy przejście od fazy „rozpoznania bojem” i eksperymentów do etapu standaryzacji. Wypracowywane są wspólne formaty technologiczne, a także – powoli – standardy procesowe. Uczymy się, jak powinna wyglądać optymalna współpraca człowieka z maszyną. Drugim istotnym trendem jest przejście od AI jako prostego asystenta w stronę tzw. agentyzacji. Nadajemy maszynom coraz większą autonomię. Wkład człowieka przesuwa się w stronę specyfikacji zadań i sprawdzania rezultatów. Z wykonawców stajemy się menedżerami agentów AI. To wymusza całkowitą zmianę zestawu umiejętności: kluczowa staje się precyzja w wydawaniu poleceń, umiejętność delegowania zadań maszynie oraz weryfikacja wyników. To kompetencje menedżerskie, których większość pracowników będzie dopiero musiała się nauczyć – mówił Łukasz Bolikowski, Chief AI Officer w Comarch.

Rafał Siejca, CEO startupów Mazer Inc. oraz XR Wizards, zwrócił uwagę, że AI to nie tylko modne ostatnio duże modele językowe (LLM). – Dla przykładu: AI jest stosowane od lat w korporacjach w systemach wspierających automatyczną dekretację masowej korespondencji. Nowością jest skala szumu wokół dużych modeli językowych, które robią ogromne wrażenie. Mimo to, wciąż jesteśmy na wczesnym etapie. Weźmy systemy agentowe – to słowo jest dziś nadużywane. Prawdziwy agent powinien dostać ogólne zadanie i samodzielnie ułożyć plan jego wykonania. To wciąż rzadkość – mówił. Jego zdaniem ideałem, na razie w fazie eksperymentów, jest agent potrafiący w locie rekonstruować własną strukturę, by wykonać powierzone mu zadanie. LLM nie myślą abstrakcyjnie. – Obecnie w mojej firmie nie odbieramy pracy intelektualnej, tylko ją przyspieszamy – powiedział.

Co daje w firmie AI?

– Jeśli nie oczekujemy cudów i używamy AI jako wsparcia, oszczędności są widoczne. Przyspiesza pracę programisty, nie odbierając jej intelektualnego charakteru, wspiera w efektywnym poszukiwaniu informacji. To mierzalne i bezpieczne zastosowania. Jednak ci sami programiści przyznają, że gdy próbuje się zmusić AI do samodzielnego kodowania większych systemów, wyniki są poniżej poziomu juniora. Model nie myśli abstrakcyjnie – to wciąż zaawansowana maszynka do przetwarzania i przewidywania tokenów – przekonywał Rafał Siejca.

Michał Szułdrzyński, redaktor naczelny „Rzeczpospolitej”, zauważył, że kluczowa jest dyskusja o tym, jak i po co pracownicy używają AI oraz czy pracodawcy o tym wiedzą i ich do tego zachęcają. – Już dwa lata temu przyjęliśmy kartę etyczną dotyczącą AI. Chcieliśmy, aby dziennikarze wiedzieli, że to narzędzie, ale to oni – podpisując się pod tekstem – biorą pełną odpowiedzialność za treść. Nie ma tłumaczenia, że „to model językowy tak napisał” – mówił Szułdrzyński. Wskazał na kilka przeprowadzonych z sukcesem wdrożeń AI w pracy redakcji, dzięki którym podniosła się jakość publikowanych materiałów.

Nie wszystkie firmy, których pracownicy korzystają z AI – zdaniem Szułdrzyńskiego – mają z tego namacalne korzyści. Powołał się na „The Economist”, który niedawno napisał, że wielu pracowników podnosi własną efektywność, ale zaoszczędzony czas pracownicy przeznaczają po prostu na dłuższą przerwę na kawę.

Reklama
Reklama

Czy tempo rozwoju AI jednak trochę nie rozczarowuje? Niektóre firmy w USA po zwolnieniu pracowników, zaczęły ich przywracać, bo AI nie spełniła ich wyśrubowanych oczekiwań.

dr Bolikowski z Comarchu zauważył podobieństwo do popularności „big data” sprzed 15 lat. – Pojawiają się te same obawy, te same memy i to samo pytanie: gdzie jest realna wartość, skoro na razie widzimy głównie koszty? Historia uczy, że należy zarządzać oczekiwaniami, unikać hurraoptymizmu i rozważnie szukać konkretnych pól eksploatacji. Wartość z AI znajdujemy w trzech obszarach: wzroście wydajności pracowników, poprawie jakości wyników oraz rozwoju biznesu. Jako firma produkująca software widzimy to najwyraźniej w szybkości tworzenia i jakości kodu – mówił.

Amerykańskie giganty oferują uniwersalne rozwiązania dla miliardów ludzi, które często nie pasują do potrzeb polskich firm

– Każdego pracownika obejmujemy wielopoziomowym szkoleniem z AI. Chcemy być kuźnią talentów – gwarantujemy, że każdy u nas zostanie przeszkolony w zakresie najnowszych technologii oraz wyposażony w najlepsze narzędzia AI.

Na to, że hype to jedno, a rzeczywistość biznesowa to drugie, zwrócił uwagę Artur Stankiewicz z Orange Polska. – Mamy za sobą etap wewnętrznych testów. Mój ulubiony przykład to robotyzacja raportowania: pracownik, który sam generował raport raz w roku, teraz dostaje go co miesiąc. Prawdziwa wartość nie leży jednak w samym robocie, ale w tym, co ten człowiek zrobi z danymi, które otrzymuje teraz częściej. Proste chatboty przyniosły nam w Orange Polska 40 proc. oszczędności niemal z dnia na dzień. Teraz idziemy dalej – chcemy, by boty operowały w kontekście konkretnego klienta i podejmowały akcje na bazie jego danych. Inwestujemy też w voiceboty, które mają być znacznie lepsze od obecnych systemów, których klienci nie lubią – mówił Artur Stankiewicz. Wskazał na kolejny ciekawy projekt, którym jest bot-szkoleniowiec dla handlowców, który symuluje rozmowy z klientem. Świetnie się sprawdza. – Moim marzeniem jest firmowy bot, który pozwoli każdemu pracownikowi – a zwłaszcza kadrze zarządzającej – na błyskawiczny dostęp do danych firmowych, by skrócić proces decyzyjny – dodał.

Czas wyzwań

Katarzyna Szymielewicz, współzałożycielka i prezeska Fundacji Panoptykon, mówiła o interesie społecznym w kontekście wprowadzania rozwiązań AI. – Jako organizacja od 15 lat badająca styk człowieka i technologii, widzimy tu wiele zagrożeń. Martwi nas, że AI jest dziś wkładana do każdej debaty jako gotowe rozwiązanie, bez wcześniejszego policzenia kosztów i zysków. Widzimy w tym zagrożenie dla budżetu państwa i jakości usług publicznych – mówiła. Wskazała na dylemat: ograniczone zasoby w szpitalach czy pomoc społeczna. Zamiast doinwestować „zbyt krótki kocyk”, państwo może ulec pokusie użycia AI do decydowania, komu pomoc odebrać, a komu przyznać. A skupienie się na narzędziu zamiast na istocie problemu, może doprowadzić do tragicznych błędów. – Takie systemy, będące wcześniej de facto „szybciej myślącymi Excelami”, wywoływały już afery w całej Europie – powiedziała, wskazując na głośną aferę w Holandii, gdzie system do wykrywania nadużyć podatkowych błędnie ukarał tysiące ludzi, co niemal doprowadziło do upadku rządu. – To dlatego Unia Europejska dąży do standaryzacji – by użytkownik biznesowy czy publiczny wiedział, co kupuje i jaki jest margines błędu – mówiła.

Reklama
Reklama

Z kolei Rafał Siejca zwrócił uwagę, że dla małej organizacji największym wyzwaniem jest brak kompetencji na pokładzie. – Wdrożenie AI wcale nie obniża kosztów na początku – wręcz je podnosi, bo wymaga inwestycji i wiedzy. To eksperyment. Jeśli mała firma chce na przykład zautomatyzować obsługę zgłoszeń klientów za pomocą agenta, musi najpierw zatrudnić kogoś, kto to zaprojektuje i wdroży – mówił. Jego zdaniem decyzja o pójściu w stronę AI to bilet w jedną stronę – system trzeba utrzymywać i dostrajać. Duże korporacje stać na dedykowane zespoły badawcze, małe firmy mają z tym kłopot. Kolejnym zagrożeniem jest własność intelektualna. Duże firmy mogą budować własną infrastrukturę, ale małe są skazane na API zewnętrznych dostawców, jak OpenAI, co oznacza wyprowadzanie danych na zewnątrz. Pracownicy często nie wiedzą, czy mogą korzystać z AI, bo brakuje ustrukturyzowanych działów, które określiłyby zasady bezpieczeństwa.

Nie tylko małe firmy mają z tym problem. – Duże korporacje produkują tyle procedur bezpieczeństwa, że paraliżują innowacyjność. Pracownik po przeczytaniu skomplikowanej instrukcji boi się czegokolwiek dotknąć. Wyzwaniem dla dużych firm jest znalezienie balansu między bezpieczeństwem a swobodą tworzenia – dodał Artur Stankiewicz z Orange Polska.

Igor Zacharjasz z firmy VISA wskazał, że największym wyzwaniem jest poszukiwanie kolejnych use case'ów, które uzasadnią ekonomicznie nowe wdrożenia. Drugim wyzwaniem jest edukacja. – Mamy grupę pasjonatów AI, ale też wielu pracowników, którzy dopiero się uczą. Wyrównanie tego poziomu to duży koszt czasowy i finansowy – mówił.

Poruszył też wątek bezpieczeństwa konsumentów w sytuacji pojawienia się agentów AI. Do jakiego stopnia agenci AI będą mogli podejmować decyzje w ich imieniu i kto poniesie odpowiedzialność za błędy? – Dziś w sektorze płatniczym wiemy, jak zidentyfikować oszustów w tradycyjnych modelach. Ale w modelu, gdzie agent AI podejmuje decyzje finansowe za konsumenta, sprawa się komplikuje. Tu potrzebujemy ścisłej współpracy z rządem, by stworzyć regulacje chroniące konsumentów – przekonywał.

Big tech i regulacje

Zdaniem wiceministra Standerskiego problemem jest nierównowaga rynkowa. Rynek AI w USA jest przeinwestowany, tam rośnie bańka, a w Europie niedoinwestowany. Skutek? Amerykańskie giganty oferują uniwersalne rozwiązania dla miliardów ludzi na całym świecie, które często nie pasują do potrzeb polskich firm. Polskie przedsiębiorstwa stoją przed wyborem: budować własną, suwerenną infrastrukturę, na co stać tylko największych, albo stosować „płytkie” i niedopasowane gotowce. – W Unii Europejskiej mamy głód infrastruktury. Inwestycje publiczne trwają długo przez procedury przetargowe, a budżety są ograniczone. W USA inwestuje sektor prywatny, w Europie mamy większą awersję do ryzyka i mniejszy kapitał prywatny. To powoduje, że mniejsi przedsiębiorcy są skazani na wielkie modele, które nie przystają do ich biznesu – tłumaczył.

Reklama
Reklama

Zdaniem min. Standerskiego największą przeszkodą w Europie jest brak inwestycji prywatnych. Sprawia, że nawet jeśli ktoś zbuduje w Polsce centrum danych, nie znajduje popytu, bo rozwiązania big techów są tańsze, choć bywają nieefektywne. – Dopóki w Europie nie przełamiemy tej bariery inwestycyjnej, będziemy mieli problem. I nie łudźmy się – gigant z USA nie będzie tworzył specjalnej oferty dla polskiej firmy transportowej, skoro może podpisać kontrakt na budowę centrów danych dla amerykańskiej armii. Biznesplan gigantów po prostu nie zauważa mniejszych klientów – mówił.

Kiedy Katarzyna Szymielewicz z Panoptikonu zwróciła uwagę na szanse związane z funduszami unijnymi i zapowiedzianymi w UE wielkimi inwestycjami, wiceminister Standerski odparł: – To wciąż za mało. Inwestycje w Polsce w stosunku do PKB są na szarym końcu Unii. W inwestycjach publicznych radzimy sobie nieźle, ale w prywatnych jesteśmy na szarym końcu UE.

Zauważył, że środki publiczne mają swoje granice. Nawet ambitne plany Ursuli von der Leyen dotyczące nawet 200 mld euro opierają się na założeniu, że większość kapitału przyjdzie z sektora prywatnego. W modelu Giga Fabryki AI Unia daje 17 proc., państwo członkowskie 17 proc., ale 66 proc. musi pochodzić od prywatnych inwestorów. I tu pojawia się problem z domknięciem finansowania.

Czy w takim razie powinniśmy inwestować we własne polskie centra danych i modele językowe, by uniknąć roli klienta uzależnionego od USA czy Chin? – Oczywiście – przekonywał Dariusz Standerski. – Dlatego budujemy fabryki AI, które udostępnią moc obliczeniową administracji, nauce i przedsiębiorcom w ramach pomocy de minimis. Kluczowe jest jednak stworzenie rynku usług AI w Polsce. Dziś centra danych w Polsce są małe i często puste. Musimy sprawić, by te 600 tysięcy polskich firm, które deklarują chęć inwestycji w AI, miało realną i dobrą ofertę, a nie tylko subskrypcję na zagranicznego czatu – dodał.

Uczestnicy debaty zastanawiali się, czy regulacje unijne nie idą za daleko, nakładając kaganiec na europejską innowacyjność? – Są konieczne, ale nie mogą blokować nas w stosunku do reszty świata. W AI Act są zapisy ograniczające użycie AI w procesach rekrutacji czy awansów. Rozumiem intencje, ale wyobraźmy sobie model assessmentu dla menedżerów w wirtualnej rzeczywistości. Dotychczas takie badania były bardzo drogie i rzadkie. Dzięki AI mogłyby stać się standardem, czyniąc rekrutację celniejszą. Czy naprawdę musimy to ograniczać tylko dlatego, że „to maszyna”? Zła rekrutacja to problem dla obu stron – zatrudniającej i kandydata. Powinniśmy być ostrożni z zakazami na tak wczesnym etapie rozwoju produktów – mówił Rafał Siejca.

Reklama
Reklama

– Nie znoszę frazy: „regulacje zabijają innowacje”. Powinna być zakazana, bo tak często jest niepoparta faktami. Jeśli dron wykrywa śmieci w lesie, standardy są inne niż dla drona na granicy, który ocenia ludzi. Rozwiązaniem jest zostawienie człowieka w pętli decyzyjnej. AI sugeruje, człowiek akceptuje. To wystarczy, by spełnić wymogi bezpieczeństwa i zachować wartość technologii – przekonywała Katarzyna Szymielewicz. Jej zdaniem największą wartością Europy może być właśnie ten „miękki interfejs” – szkolenie ludzi do bycia mądrymi nadzorcami maszyn. Jeśli nie możemy pokonać big techy w twardej technologii, to możemy być liderem w kontrolowaniu AI przed błędnymi decyzjami. Na końcu musi być jednak kontroler ludzki.

Zdaniem Szymielewicz AI Act nie jest kagańcem na firmy, ale formą standaryzacji, która ma pomóc klientom big techów zrozumieć, co kupują. Ma on też podnieść poprzeczkę gigantom w kwestii rozliczalności i przejrzystości, by chronić mniejszych graczy z Europy.

Jak AI zmieni pracę?

Czy AI wywróci rynek pracy? Czy obawy o masowe zwolnienia są uzasadnione? Amerykańskie firmy, które szybko zwalniały, teraz często przywracają pracowników, bo przeceniły tempo rozwoju technologii.

Zdaniem Artura Stankiewicza z Orange, wyzwaniem w świecie innowacji jest to, że ludzie się boją, że stracą pracę. – Tymczasem nie sądzę, byśmy nagle wszyscy stracili pracę. Struktura mojego zespołu pokazuje, że 80 proc. dzisiejszych ról nie istniało 15 lat temu. Za 10 lat pojawią się zawody, których dziś nie potrafimy nazwać. Istnieje hipoteza, że gospodarka wpadnie w spiralę: ludzie tracą pracę przez AI, tracą pieniądze, spada popyt, więc firmy jeszcze bardziej tną koszty przez AI. Ja jednak wierzę, że powstaną nowe obszary zatrudnienia – powiedział.

A może świat podzieli się na tych, którzy potrafią czerpać zyski z AI i na tych, którzy zostaną na marginesie, bo nie zaadaptowali narzędzia? Nie wierzy w to Igor Zacharjasz z firmy VISA. Jego zdaniem podobną dyskusję o podziale na użytkowników komputerów i Excela i resztę mogliśmy mieć 20 lat temu. AI to narzędzie, które zostanie zaadaptowane przez wszystkich. Być może podział będzie dotyczył raczej tego, kto potrafi na AI robić duże pieniądze, a kto nie.

Reklama
Reklama

Dr Bolikowski z Comarchu zwrócił uwagę na badania Uniwersytetu Stanforda, które pokazały, że AI pomaga zwiększać efektywność przede wszystkim najlepszym, podczas gdy słabszym w zasadzie nie pomaga, a czasem wręcz obniża ich produktywność. To powoduje, że dystans między pracownikami może się pogłębiać. W programowaniu mówi się o pojęciu „10x engineer” – inżyniera dziesięć razy wydajniejszego od reszty. AI może to rozwarstwienie jeszcze pogłębić. – Dlatego tak ważne są szkolenia, by każdy mógł pracować wydajniej i wygodniej. To rewolucja większa niż internet czy rewolucja przemysłowa. Pewne zawody znikną, ale powstaną nowe – przekonywał.

– Każda rewolucja tworzy nowe zawody. W ostatnim roku podpisałem obwieszczenia dla około 20 nowych klasyfikacji zawodowych: od administratorów chmury i projektantów cyberbezpieczeństwa, po „prompterów AI”. Niektóre państwa na tej rewolucji skorzystają, inne stracą. Naszym zadaniem jest być w tej części, która na tym skorzysta – powiedział min. Standerski.

Zdaniem dr Bolikowskiego „prompter AI” za kilka lat będzie to taka sama umiejętność jak obsługa Excela dzisiaj. To nie będzie osobny zawód, tylko podstawowa kompetencja każdego pracownika.

Polityka narodowa AI

Jaka powinna być nasza narodowa strategia na AI? Czy budować własne technologie? – Nasza polityka zakłada maksymalizację zasobów: kompetencji ludzi i dużego rynku MŚP. Chcemy wspierać obszary takie jak fintech, medtech czy technologie dual-use. Nie chcemy wskazywać palcem konkretnych branż, ale tworzyć warunki: inwestycje publiczne i piaskownice regulacyjne. Firmy zyskałyby 12 miesięcy na bezpieczne testy na publicznej infrastrukturze przed wejściem na rynek globalny – mówił minister Standerski. – Możemy być hubem dla Europy Środkowej, współpracując z Litwą czy Czechami. Mamy świetne kadry i większy budżet na inwestycje publiczne niż mniejsze gospodarki regionu – dodał.

– Kluczowa będzie umiejętność wykorzystania technologii, a nie tylko tworzenie samych modeli. Mamy świetne kompetencje, szybko się uczymy i jesteśmy przedsiębiorczy. To widać po wynikach kraju, pozwala nam marzyć o byciu graczem globalnym, jeśli stworzymy produkty skalowalne na cały świat – mówił Artur Stankiewicz z Orange Polska.

– Kompetencje w Polsce to fundament rozwoju. Firma Visa przeniosła do Polski dwa wielkie centra deweloperskie właśnie ze względu na dostęp do wybitnych specjalistów i uczelni technicznych na światowym poziomie – mówił Igor Zacharjasz z firmy VISA.

Również zdaniem dr. Bolikowskiego z Comarchu kluczowym atutem Polski w wyścigu AI są wysokie kompetencje. Zwrócił uwagę, że liczba medali zdobywanych przez Polaków na olimpiadach informatycznych oraz olimpiadach sztucznej inteligencji stawia nas w ścisłej światowej czołówce. Wkład Polaków w sukcesy Doliny Krzemowej jest powszechnie znany. To dzięki świetnie wykształconym pracownikom mamy szansę stać się liczącym graczem w nowej erze.

– Widzę dwa obszary: w wykorzystaniu AI i budowaniu usług na bazie modeli jesteśmy nieźli. Ale w samym trenowaniu wielkich modeli mamy problem przez monopol USA i brak naszych europejskich zasobów obliczeniowych. Inicjatywy jak polski „Bielik” są cenne, ale dysponujemy ułamkiem zasobów konkurencji i możliwości jego trenowania. Boję się, że będziemy skazani na Google czy OpenAI przy dużych i skomplikowanych zadaniach – dodał Rafał Siejca.

– W walce o suwerenność kluczowe jest, byśmy nie ograniczali sobie szybkości innowacji i nie odcięli się od nich. By strach przed regulacjami nas nie odciął od postępu – ostrzegał Artur Stankiewicz z Orange Polska.

Zdaniem przedstawicielki Panoptikonu w kwestii suwerenności AI musimy występować jako blok europejski. Samodzielna budowa całego stosu technologicznego przez Polskę to fikcja. Powinniśmy kontrolować nie tylko krytyczne elementy: kable, światłowody, ale też warstwę oprogramowania i algorytmów używanych do celów krytycznych jak np. zarządzanie mediami społecznościowymi. Chodzi o możliwość „przełączenia” logiki algorytmów Big Techów w sytuacjach kryzysowych, by uniemożliwić dezinformację. To zadanie dla Unii. Taniej jest wytrenować algorytm korygujący model Big Techu, niż budować własny od zera. – AI wpychane jest często tam, gdzie nie działa dobrze. Wartością byłby np. asystent AI w interfejsie ZUS-u czy wyszukiwarka, która podaje rzetelne źródła zamiast błędnych podsumowań. Chcemy AI, które wspiera użytkownika w skomplikowanym oprogramowaniu czy samochodzie, a nie tylko „modnego dodatku”. To jest pole do realnej innowacji – mówiła Katarzyna Szymielewicz.

AI
AI wymyka się spod kontroli. Bot Alibaby zaczął… kopać kryptowaluty
Materiał Promocyjny
Bezpieczeństwo to nie dodatek. To fundament systemu płatności
Materiał Promocyjny
Dane zamiast deklaracji. ESG oparte na faktach
AI
Dwugodzinny dzień pracy? Taką przyszłość przewiduje szef Xiaomi
AI
Kontrowersyjny kontrakt z Pentagonem. Kluczowa menedżerka opuszcza OpenAI
AI
AI dzieli kobiety i mężczyzn. Badanie ujawnia niepokojącą lukę
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama