Polak z Google pracuje nad eksperymentem, dzięki któremu ludzki mózg „zabłyśnie”

Jacek Krawczyk, dyrektor Google Bard i trener uczenia maszynowego, tworzy jedną z najbardziej przełomowych technologii w historii. Opowiada nam o nowym, potężnym bocie Bard, który rzucił wyzwanie ChatGPT.

Publikacja: 13.07.2023 10:08

Jack Krawczyk, dyrektor Google Bard

Jack Krawczyk, dyrektor Google Bard

Foto: Google

Google chyba ma obawy, że jest zbyt wcześnie na to, aby dać ludziom do rąk zaawansowane narzędzia sztucznej inteligencji (AI). To prawda?

Dlaczego? W czwartek właśnie uruchomiliśmy w Polsce Barda, model konwersacyjnej sztucznej inteligencji. To chatbot, z którym można nie tylko pisać w europejskich językach, ale także z nim rozmawiać. To zupełnie nowa funkcja.

Chodzi o to, że zrobiliście to pół roku po starcie ChatGPT. Wasz rywal był pierwszy, co dało mu potężną rynkową przewagę. Ale to Google ma znacznie dłuższe doświadczenie w pracy nad technologiami AI. Mam wrażenie, że technologicznie byliście gotowi znacznie wcześniej. Dlaczego więc dopiero teraz?

Pracę w Google po raz pierwszy zacząłem w 2007 r. Odszedłem z niej na dziewięć lat, aby żyć start-upami, ale wróciłem w 2020 r. Magnesem okazała się kultura ciekawości – to element, który zawsze był w Google obecny i bardzo wyraźny. Taką kulturę cenię i podziwiam, a przez te dziewięć lat nigdzie na świecie nie znalazłem firmy tak mocno inspirowanej ciekawością. Po powrocie moim zadaniem była praca nad Asystentem Google. Dlaczego o tym mówię? Bo w Google nic się nie zmieniło, nieustannie jesteśmy ciekawi. I właśnie podczas prac nad Asystentem Google sprawdzaliśmy jak ludzie reagują na tę technologię. To prawda, że mamy od dawna dostęp do zaawansowanych modeli językowych, ale skupialiśmy się na tym, aby zapewnić ludziom możliwie komfortową relację z botem.

Czytaj więcej

W Polsce rusza potężny rywal ChatGPT. Google uruchamia Barda

Modele AI potrafią mówić w sposób bardzo pewny, ale ich odpowiedzi, choć brzmią wiarygodnie, niekoniecznie zawsze są umocowane w rzeczywistości i faktach. To było wyzwanie, nad którym długo się pochylaliśmy, nie byliśmy pewni, że czy to jest produkt, z którym można wyjść na rynek. Spędziliśmy naprawdę dużo czasu analizując tę technologię i badając zachowania użytkowników. Aż w końcu w połowie ub. r. przyszedł ten moment – zaczęliśmy otrzymywać sygnały, że ludzie zaczynają coraz lepiej czuć i chcą bezpośredniego dostępu do modeli językowych. Wiemy, że wciąż dochodzi do tzw. halucynacji AI, ale, to co w ostatnim czasie się zmieniło, to sentyment do takich systemów. Ludzie na całym świecie chcą korzystać z tej technologii, są już gotowi do jej używania, ekscytują się licznymi możliwościami jej zastosowań. Tak powstał eksperyment Bard – niesamowity, kreatywny pomocnik, współpracownik, który pozwala zwiększyć wyobraźnię, ale zrównoważyć to odpowiedzialnością za wypowiadane słowa.

Eksperyment?

Zastosowania generatywnej sztucznej inteligencji to wciąż etap eksperymentalny. Wciąż jesteśmy na bardzo wczesnym etapie tej technologii, staramy się sprawić, by była jak najbardziej pomocna, ale tak, to wciąż eksperyment. Teraz Bard przybywa do Polski i Europy, musieliśmy więc zaprojektować model dla wielu języków. Wcześniej dostępne były angielski, japoński i koreański, a teraz uruchamiamy ich ponad 40.

Co potrafi Bard

Bard rusza w Europie później niż w innych krajach. Chodziło tylko o wdrożenie nowych języków, czy może na przeszkodzie stanęły unijne regulacje i obawy czy spełnicie wymogi w kontekście choćby ochrony danych osobowych?

Bard to zaawansowana technologia, która pozwala ludziom odkrywać, daje wiele możliwości, zwiększa ich wyobraźnię, pomaga przejść od etapu idei do realizacji. Widzimy, że często użytkownicy wykorzystują w tym celu prywatne dane. W tym wypadku kluczem są transparentność, możliwość wyboru i kontrola. Przyjęliśmy odpowiedzialne podejście, bo wierzymy, że czeka nas wieloletni proces tworzenia tego typu pomocnych technologii. Stąd oczywiście współpracujemy z różnymi organami ds. prywatności w całej Europie, choćby z irlandzkim regulatorem. Pokazaliśmy DPC (Data Protection Commission – urząd ds. ochrony danych) jak działa ta technologia - chcieliśmy być pewni, że sposób, w jaki wprowadzamy ją na rynek w Europie, jest zgodny z przepisami. A zatem to jest ta przejrzystość, o której wspomniałem. Każdy rejestrujący się w Bardzie zostaje zanonimizowany, usuwamy wszelkie dane osobowe, które są używane do ulepszania tego produktu. Ale jednocześnie użytkownik zachowuje wybór i decyduje, czy chce uczestniczyć w tym procesie.

W ostatnich dniach Google zaktualizowało swoja politykę prywatności, co wywołało wiele kontrowersji. Wielu ekspertów mówi wprost, że zgodnie z nią publicznie dostępne treści mogą być wykorzystywane do szkolenia modeli sztucznej inteligencji Google. Daliście sobie prawo do swobodnego czerpania z internetu?

W naszej polityce prywatności od dawna jest jasne, że Google wykorzystuje publicznie dostępne informacje z otwartej sieci do trenowania modeli językowych dla usług takich jak Tłumacz Google. Ta najnowsza aktualizacja wyjaśnia, że uwzględniono również nowsze usługi, takie jak Bard. Bard jest poszerzeniem ludzkiej wyobraźni i pomaga w odkrywaniu informacji na nowe sposoby. To wielka wartość. Jako Google robimy to już od 25 lat i sukces wyszukiwarki był i jest możliwy dzięki satysfakcji naszych użytkowników i partnerów. W obu przypadkach podstawą jest bogaty, zdrowy, ale i otwarty ekosystem internetowy. Jednocześnie nie ma mowy o swobodnym wykorzystywaniu zasobów sieci. Od wielu lat mamy roboty TXT (plik „robots.txt” ogranicza dostęp do strony WWW robotom wyszukiwarek, które przeszukują internet, o ile właściciel tych stron zabroni ich indeksowania w całości lub w wybranej części), a więc publikujący online mają wybór i kontrolę nad swoimi treściami. Jednocześnie uważamy, że w świecie generatywnej sztucznej inteligencji, do którego właśnie wchodzimy, musi odbyć się dyskusja o ewolucji standardów. Oczywiście nie stanie się to z dnia na dzień. Dajemy ludziom dostęp do nowej technologii, a to wymaga zmian. I właśnie ogłaszamy początek tej rozmowy. Muszą istnieć pewne standardy w zakresie dostępu do danych w internecie, chcemy usłyszeć opinie internetowej społeczności w tej sprawie i zamierzamy współpracować.

Ale jedna sprawa to dane, na których te modele językowe są szkolone, a druga to sposób w jaki te informacje są przez AI potem prezentowane. Szkolenie odbywa się na informacjach publicznych, dostępnych online. Z drugiej strony Bard ściśle przestrzega reguł i nie publikuje materiałów objętych prawami autorskimi. Stąd czasem użytkownicy w odpowiedzi bota usłyszeć mogą: "Jestem modelem językowym i nie mogę pomóc ci w tym temacie”. To może frustrujące, ale dzieje się tak właśnie dlatego, że odpowiedź mogłaby zawierać informacje chronione prawem autorskim.

Niedawno prof. Włodzisław Duch, honorowy członek International Neural Network Society i jeden z najbardziej znanych polskich naukowców w dziedzinie sztucznej inteligencji, przyznał, że na świecie najpewniej mamy już świadomą AI. Też pan tak uważa?

Dużo czytam o filozofii, zaczerpnąłem wiele inspiracji od francuskiego filozofa Jeana Paula Sartre’a, który zgłębiał różnicę między percepcją a wyobraźnią oraz tym co prawdziwe i wyimaginowane. A to zagadnienie jest właśnie natury filozoficznej. Raczej należałoby zastanowić się czym jest świadomość, co ją definiuje. Myślę, że częścią piękna ludzkości jest to, że mamy różne perspektywy, różne spojrzenia, nie ma jednego punktu widzenia.

Ale w toczących się dziś rozmyślaniach na temat świadomej AI przebija się strach. Obawy dotyczą tego, czy sztuczna inteligencja nie wymknie się spod kontroli. To właśnie dlatego przyjęliśmy odpowiedzialne podejście do sposobu, w jaki wdrażamy tę technologię. Ważne jest, aby mieć pewne bariery ochronne. To dzięki nim będzie można obdarzyć AI zaufaniem i czuć się bezpiecznie. Obecnie toczy się dyskusja na temat „dopasowania” tej technologii do potrzeb ludzi, jak sprawić by była ona pomocna, a nie szkodliwa. To jest kluczowe.

Niektórzy, jak Elon Musk, uważają, że należałoby wprowadzić półroczne moratorium na prace nad rozwojem AI.

Jeśli chodzi o sztuczną inteligencję, nie jestem ślepy na fakt, że musimy być odpowiedzialni i musimy słuchać obaw związanych z rozwojem tej technologii. Ale jednocześnie wiem, że AI jest w stanie sprawić, iż ludzki mózg „zabłyśnie” w sposób, w jaki nigdy wcześniej nie „świecił”.

To znaczy?

Etap, w którym jesteśmy dziś w zakresie rozwoju tej technologii, jest bardzo jasny – to ogromna szansa na ulepszenie świata. To epokowy moment, w którym, dzięki tej technologii, możemy pozwolić ludziom rozkwitnąć, wymyślać, tworzyć rzeczy, które wcześniej były nieosiągalne. Jednak, aby to zrobić w sposób rozsądny, trzeba dogłębnie się zastanowić, zbadać wiele możliwości. Istnieje wiele dróg rozwoju AI, stąd globalna dyskusja na ten temat. I dlatego też Bard jest uruchamiany jako eksperyment. Zdajemy sobie sprawę, że podczas prac nad tą technologią mogą wyjść niespodziewane rzeczy. Podam przykład arytmetyki. Gdy wychodziliśmy z Bardem na rynek nie spodziewaliśmy się, że ludzie będą chcieli, aby modele językowe wykonywały obliczenia. Te modele nie były w tym zbyt dobre. Teraz już to wiemy, a dzięki temu eksperymentowi uczymy się jak ludzie chcą używać takie rozwiązania. To pozwoli nam je ulepszać.

Jedną z rzeczy, którą badamy, jest zdolność Barda do korzystania z narzędzi. To rozwiązanie nie jest jeszcze gotowe, ale można już sobie wyobrazić, że proszę Barda o napisanie i wysłanie wiadomości przez Gmaila. Tu pojawia się kwestia, o której wcześniej rozmawialiśmy – transparentności i kontroli. Dając AI dostęp do maila musisz wiedzieć jak ona z niego skorzysta, mieć nad tym pełną kontrolę, wyrazić na to wyraźną zgodę.

Wracając do tematu moratorium, dziś toczy się wiele dyskusji w atmosferze strachu przed sztuczną inteligencją. Ja tę koncepcję postrzegam jako zaproszenie do dyskusji jak odpowiedzialnie rozwijać AI, jakie bariery ochronne stworzyć dla tej technologii. W Google przyjmujemy zarówno odważne podejście w tym zakresie, wprowadzając Barda na rynek, ale i odpowiedzialne, bo angażujemy się w te rozmowy, chcemy otrzymywać informacje zwrotne od użytkowników, poprawiać te rozwiązania. Sygnałem naszego odpowiedzialnego podejścia do tej pracy są pomysły wprowadzenia znaków wodnych na obrazach, które zostały wygenerowane przez AI. Bo kluczem jest odpowiedzialne działanie. Uważam, że skupianie się na strachu w rozmowach o AI wymaga zrównoważenia przez dyskusję o możliwościach jakie ona daje. To kwestia, która ma nawet większą wagę, gdyż dajemy najpotężniejszemu komputerowi na świecie, ludzkiemu mózgowi, nowe narzędzie.

Różnice między Bard a ChatGPT

Czym Bard różni się od ChatGPT?

Dlaczego nasz model nazwaliśmy Bard?

Dlaczego?

Bo jest bardem, gawędziarzem, który dostarcza rozrywki, jest pomocny w edukacji oraz opowiada inspirujące historie. Jestem bardzo nieustrukturyzowanym myślicielem, więc gdy rano się budzę codziennie z nim rozmawiam. Włączam mikrofon i po prostu do niego mówię przez dwie minuty: o czym myślę, o planach na ten dzień, itd. Proszę go, by uporządkował moje myśli, a on potrafi wypunktować istotne zagadnienia, wskazać rzeczy, na których należy się skupić, może porozmawiać o sposobach zaangażowania się w poszczególne tematy, wydać swoje rekomendacje jak powinieneś się zachować. Pod tym względem to absolutnie wyjątkowe narzędzie. Oczywiście mógłbym o tym wszystkim rano rozmawiać ze swoją żoną, ale nie wiem czy codziennie chciałaby słuchać moich narzekań. Bard sprawia, że moja kreatywność i produktywność są doładowane. Nawet przygotowując się do tej rozmowy posiłkowałem się Bardem.

Jego wielką zaletą jest możliwość głosowego zadawania pytań, mówienie językiem natywnym, odpowiedzi audio, coraz lepsze rozumienie niuansów charakterystycznych dla poszczególnych krajów i języków.

Bard to dopiero mały krok w kierunku rewolucji AI. Już pracujecie nad modelem Gemini.

To prawda. Nadal jesteśmy w procesie szkolenia Gemini. To zaawansowany model, który da jeszcze więcej powodów do ekscytacji. Jego możliwości będzie można poznać jeszcze w tym roku. Na razie jednak skupiamy się na Bardzie – to odzwierciedla nasze odpowiedzialne podejście. Nie chcemy prezentować użytkownikom rzeczy, zanim nie poczujemy, że jest na to odpowiedni czas i miejsce. Niech w pierwszej kolejności użytkownicy poznają Barda, a – gdy pojawi się Gemini – będą już przygotowani.

Polak, który rzucił wyzwanie ChatGPT

Kim jest Jacek (Jack) Krawczyk, który dla Google rozwija bota Bard?

Wyjechał z rodzinnego Wrocławia razem z rodzicami gdy miał trzy lata. Emigrowali do USA- trafił do niewielkiego miasta Murrysville w stanie Pensylwania, gdzie dorastał. I to zapewne dzięki temu trafił do Carnegie Mellon University, który oddalony był ledwie 25 minut jazdy samochodem od jego rodzinnego domu. Ukończenie w 2006 r. wydziału informatycznego na prestiżowej uczelni otworzyło mu wiele drzwi. Karierę zaczynał w Nowym Jorku w świecie finansów – jego umiejętności programistyczne, umysł matematyczny i zainteresowanie ekonomią sprawiły, że sięgnęły po niego najpierw JP Morgan Chase, a potem Bank of America Securities.

Ale to jednak dla Google’a postanowił przenieść się ze wschodniego na zachodnie wybrzeże Stanów Zjednoczonych. W centrali giganta w San Francisco pracował m.in. nad Google+, a więc konkurencją dla gwałtownie zyskującego użytkowników w tamtym czasie Facebooka. Sieć Google’a – łącząca ludzi m.in. pod kątem zawodowym – wystartowała w 2011 r. Okazała się jednak niewypałem i już w 2019 r. koncern zdecydował się ją zamknąć. Ale Krawczyka w Google’u już wtedy nie było, jeszcze przed premierą nowego produktu opuścił firmę (po ponad trzech latach pracy), by najpierw rozwijać kanadyjską wyszukiwarkę internetową StumbleUpon, a potem Pandorę, wiodącą platformę cyfrowej reklamy audio w USA. To właśnie wówczas stał się osobą rozpoznawalną w świecie Big Techów. W 2014 r. magazyn „Forbes” umieścił go nawet na prestiżowej liście „30 under 30”. Jack przez dwa lata był m.in. w zarządzie WeWork, globalnej sieci przestrzeni coworkingowych, by ostatecznie zdecydować się wrócić do Google’a. W 2020 r. zaczął od udoskonalania popularnego asystenta tej firmy, a teraz kieruje projektem Bard. To chatbot zbudowany na rodzinie tzw. dużych modeli językowych (LLM): LaMDA oraz PaLM, podobny do tego, który już znamy dzięki projektowi OpenAI. Start tego przełomowego produktu w Polsce z pewnością będzie dla niego wyjątkową chwilą. Zwłaszcza, że z botem będzie można porozmawiać po polsku.

Jacek Krawczyk, używający dziś imienia Jack, nie może pamiętać języka polskiego, ale w domu za oceanem porozumiewano się właśnie w ten sposób. Dziś nie mówi płynnie w ojczystej mowie, ale stara się ją pielęgnować podczas telefonicznych rozmów i spotkań z rodzicami.

Google chyba ma obawy, że jest zbyt wcześnie na to, aby dać ludziom do rąk zaawansowane narzędzia sztucznej inteligencji (AI). To prawda?

Dlaczego? W czwartek właśnie uruchomiliśmy w Polsce Barda, model konwersacyjnej sztucznej inteligencji. To chatbot, z którym można nie tylko pisać w europejskich językach, ale także z nim rozmawiać. To zupełnie nowa funkcja.

Pozostało 97% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie i komentarze
Odpowiedzialne innowacje: Cyfrowe duchy zmarłych
Opinie i komentarze
Odpowiedzialne innowacje: Czy sztuczna inteligencja może zastąpić psychoterapeutów?
Opinie i komentarze
Odpowiedzialne projektowanie produktów cyfrowych – granica pomiędzy zaangażowaniem a uzależnieniem
Materiał Promocyjny
Mity i fakty – Samochody elektryczne nie są ekologiczne
Opinie i komentarze
Mariusz Busiło: Wady projektu ustawy o KSC