ChatGPT coraz potężniejszy. Najnowsza wersja ma już „oczy” i rozumie sarkazm

Firma OpenAI pokazała najnowszy model swojej rewolucyjnej sztucznej inteligencji: GPT-4. Teraz ta budząca nadzieje, ale i obawy technologia, stanie się jeszcze inteligentniejsza i powszechniejsza. Czy jesteśmy na to gotowi?

Publikacja: 16.03.2023 03:00

Najnowszy bot ChatGPT-4 zdał egzamin adwokacki osiągając rezultat jak 10 proc. prymusów.

Najnowszy bot ChatGPT-4 zdał egzamin adwokacki osiągając rezultat jak 10 proc. prymusów.

Foto: Blue Planet Studio / shutterstock

Wystarczy zrobić zdjęcie wnętrza lodówki, a algorytmy sztucznej inteligencji (AI) zidentyfikują jej zawartość, przeanalizują, co można przygotować z dostępnych składników, i zaoferują szereg przepisów. To tylko przykład nowych możliwości bota od OpenAI.

Firma, finansowana przez Microsoft miliardami dolarów, uruchomiła właśnie zaawansowany model: GPT-4. Do tej pory ich popularny bot GPT-3 „rozumiał” jedynie tekst i tylko w ten sposób można było się z nim komunikować. Teraz zyskał „oczy” – potrafi analizować obraz, a na nasze żądanie stworzy dowolną grafikę czy wideo. Co więcej, potrafi wytłumaczyć chociażby, co jest śmiesznego w zdjęciowym memie. Nowy system, operujący na 500 razy większej bazie parametrów niż GPT-3, którego szkolono na 175 mld danych, to potężna moc – AI w kilka sekund odpowie na najbardziej zawiłe kwestie prawne czy podatkowe. Dostęp do niemal nieograniczonych możliwości tej technologii demokratyzuje się i nie jest już ona zastrzeżona tylko dla wąskiego grona naukowców. Zainteresowanie jest tak duże, że by skorzystać, trzeba się zapisać na listę oczekujących na https://openai.com/waitlist/gpt-4-api.

– ChatGPT-4 zmieni rynek edukacji i oblicze biznesu. W kapitalizmie żadna innowacja, która zastępuje stary porządek w procesie twórczej destrukcji, nie rodzi się dla chwały, ale dla zysku. Tak samo będzie z AI – mówi prof. Grzegorz Mazurek, rektor Akademii L. Koźmińskiego.

Czytaj więcej

Nowa wersja ChatGPT już ruszyła. Możliwości bota GPT-4 są imponujące

Jego zdaniem nie ma wątpliwości, że mamy do czynienia z rewolucją. Ta nastąpi zwłaszcza w edukacji. – Oto mamy narzędzie, które realnie wspiera proces uczenia się, gromadzi wiedzę na zadany temat, pogłębia ją i – w pewnym stopniu – porządkuje – tłumaczy. – Wbrew pojawiającym się opiniom nie warto zakazywać uczniom i studentom narzędzi AI jak ChatGPT, a wkrótce Bard szykowany przez Google’a. Trzeba ich nauczyć używania AI do przyspieszenia pracy nad oryginalnymi materiałami i rozeznania zadanego tematu – przekonuje. I dodaje, że podobnie będzie w biznesie, administracji, a nawet w nauce. – Zwłaszcza w naukach społecznych i humanistycznych, gdzie wstępne wersje dokumentów, tekstów czy artykułów – opracowane na bazie pytań postawionych AI – z pewnością będą przydatne dla menedżerów, urzędników i badaczy – twierdzi.

Nie zakazywać AI

ChatGPT jest narzędziem, które posiada zdolność porozumiewania się w języku kontekstowym, co oznacza, że aby uzyskać jakiś efekt, nie trzeba pisać kodu, czy dodawać skomplikowanego zapytania do bazy danych. – Wystarczy zadać pytanie, aby uzyskać bardzo poprawne informacje, które pozwoliły np. zdać egzamin ósmoklasisty czy maturę. Są uczelnie i szkoły, w których wprowadzono zakazy używania ChatGPT, ale – jak powszechnie wiadomo– zabranianie czegoś może prowadzić często do odwrotnej sytuacji. Już dziś warto się zastanowić nad tym, jak wykorzystać to narzędzie i włączyć je w proces nauczania, aby miało to pozytywny wpływ na edukację – radzi Jan Koziarski, dyrektor w firmie Vulcan, cyfryzującej sektor oświaty.

Czytaj więcej

Filmowy Skynet coraz bliżej. Microsoft szkoli ChatGPT do kontrolowania robotów

Biznes już wie, że od AI nie ma odwrotu. Np. firma Globalworth wdrożyła właśnie w sektorze nieruchomości swój projekt AI Jane. – Służy nam jako narzędzie m.in. do projektowania wstępnych koncepcji graficznych czy kierunków w projektowaniu materiałów sprzedażowych. Chcemy, by projekt ten stał się pomocnym narzędziem, zwiększającym wydajność i generującym unikatowe rozwiązania w kluczowych obszarach – od marketingu, przez wynajem, po projektowanie przestrzeni pracy w biurach – mówi Paweł Słupski, dyrektor w Globalworth Poland.

Platforma doradztwa zawodowego Resumebuilder.com przeprowadziła niedawno ankietę wśród 1000 menedżerów, którzy korzystają lub planują korzystać z ChatGPT. Okazało się, że połowa wprowadziła chatbota, a niemal 50 proc. z tej grupy stwierdziło, iż ChatGPT zastąpił już pracowników w ich przedsiębiorstwach. Firmy korzystające z ChatGPT używają go do pisania kodu (66 proc.), tworzenia treści i copywritingu (58 proc.), obsługi klientów (57 proc.) oraz tworzenia podsumowań spotkań (52 proc.).

Narzędzie od OpenAI niebawem trafi do samochodów. Wdrożenie takie planuje choćby General Motors. Scott Miller, wiceprezes GM, tłumaczy tę decyzję krótko: – ChatGPT niedługo będzie już we wszystkim.

Rewolucja ruszyła i będzie przyspieszać. W czwartek Microsoft ujawni swoją wizję pracy przyszłości z wykorzystaniem AI – szef koncernu Satya Nadella ma przedstawić rozwiązania, które zmienią sposób prowadzenia biznesu.

Czytaj więcej

ChatGPT nakręca biznes. Za sztuczną inteligencję biorą się nawet restauracje

Część ekspertów nie ma wątpliwości, że AI wygryzie z pracy m.in. prawników, programistów, a nawet stanie się wyzwaniem dla artystów – muzyków, malarzy, pisarzy. W Google’u, które rozwija konkurencyjne systemy AI, uspokajają i wskazują, że wielu pracowników dzięki tej technologii zyska lepsze narzędzia. – Część zawodów może zniknąć, ale w ich miejsce powstaną nowe, których nie jesteśmy sobie w stanie jeszcze wyobrazić – tłumaczy Elżbieta Różalska z warszawskiej centrali Google’a.

Kluczem etyka danych

Sieć neuronowa – karmiona zasobami internetu – budzi jednak obawy specjalistów. Okazuje się, że może być źródłem dezinformacji czy cyberataków. –Wykorzystanie ChatGPT w złośliwym oprogramowaniu może stanowić poważne wyzwanie dla specjalistów ds. bezpieczeństwa. To realny problem – ostrzega Robert Dziemianko, menedżer w G Data Software.

Google, który pracuje nad konkurencyjnymi względem OpenAI rozwiązaniami (firma od 2017 r. rozwija projekt Transformer, model uczenia maszynowego wykorzystującego AI, a w latach 2021–2022 ruszyła z zaawansowanymi modelami LaMDA oraz PaLM), deklaruje, że chce robić to w sposób odpowiedzialny. – Jak w przypadku każdej nowo powstającej technologii musimy się zastanowić nad zarówno pozytywnymi, jak i potencjalnie negatywnymi konsekwencjami rozwoju sztucznej inteligencji. Kluczem jest tu etyczne wdrożenie, więc opowiadamy się za rozsądną, świadomą dyskusją – podkreśla Elżbieta Różalska.

Czytaj więcej

Chatbot ChatGPT wpadł w szał. Obrażał i domagał się przeprosin

Zdaniem ekspertów polityka i regulacje związane z AI powinny skupiać się na danych, które leżą u podstaw algorytmów. Piotr Rozenbajgier, ekspert firmy SAS, wyjaśnia, że kluczowe jest, aby podmioty budujące innowacje oparte na sztucznej inteligencji zadbały o ich etyczne gromadzenie oraz wykorzystanie. – Wystarczy wyobrazić sobie, że wykorzystujemy dane pochodzące z inteligentnych piekarników i lodówek do badania nawyków żywieniowych pod kątem ubezpieczeń na życie. Proste dane szybko stają się bardzo wrażliwe. Stąd tak ważne jest, aby postępować z nimi etycznie – przestrzega Rozenbajgier.

Materiał Promocyjny
Geopolityka i sztuczna inteligencja. Nowa normalność wokół nas
Sztuczna Inteligencja
Pisklę pawia niszczy internet. AI przejęła wyniki wyszukiwania Google’a
Sztuczna Inteligencja
Nowy napęd smartfonów. Rekordowe wzrosty
Materiał Promocyjny
Naukowa Fundacja Polpharmy ogłasza start XXIII edycji Konkursu o Grant Fundacji
Sztuczna Inteligencja
Algorytmy znad Wisły mogą zdziałać cuda
Materiał Promocyjny
Nest Lease wkracza na rynek leasingowy i celuje w TOP10