Chaos i bezprawie. Sztuczna inteligencja w rodzaju ChatGPT to puszka Pandory

Niekontrolowany dziś rozwój sztucznej inteligencji zmierza w stronę pogłębienia podziałów społecznych, wzrostu poziomu agresji na świecie i cyberzagrożeń.

Publikacja: 02.01.2023 09:01

Sztuczna inteligencja Galactica pisze eseje, prace naukowe na zadany temat i robi skomplikowane obli

Sztuczna inteligencja Galactica pisze eseje, prace naukowe na zadany temat i robi skomplikowane obliczenia matematyczne. Narzędzie było tak skuteczne, że Meta zamknęła dostęp do algorytmów

Foto: shutterstock

Rok 2022 pod wieloma względami okazał się przełomowy dla inteligentnych algorytmów, a przynajmniej w sferze ich masowej popularyzacji oraz powszechnego postrzegania i stosowania. Dzięki takim projektom jak Dall-E 2 czy Midjourney świat przekonał się o możliwościach tworzenia przez sztuczną inteligencję obrazów i grafik (również tych 3D, jak w przypadku Point-E), jedynie w oparciu o tekst. Ale prawdziwą furorę zrobił zaawansowany chatbot od OpenAI – system przetwarzania języka naturalnego ChatGPT. Zdaniem ekspertów ów pozorny, bardziej medialny niż faktyczny, sukces tych projektów sprawia, że przyszłość AI – choć niewątpliwie ekscytująca – rysuje się pełna wyzwań i zagrożeń.

ChatGPT pełen wad?

ChatGPT wywołał w sieci masę zachwytów. Możliwości tej technologii faktycznie są imponujące. Wielu ekspertów zwraca uwagę jednak na liczne ryzyka związane m.in. ze sposobem, w jaki algorytmy są uczone. A te zaciągają dane wprost z sieci. Źródła nie są weryfikowane, a brak kontroli nad botem sprawia, że technologia ta – jak i wiele innych pojawiających się właśnie w formule otwartej, dostępnej dla wszystkich – może stać się istną puszką Pandory. A my właśnie ją otwieramy. Analitycy z branży AI alarmują o potencjalnych konsekwencjach: szerzeniu mowy nienawiści, masowej dezinformacji, fali bezprawia. Jak zauważa Artur Suchwałko, współzałożyciel firmy QuantUp, specjalista z zakresu uczenia maszynowego, chat AI to pozornie przydatne narzędzie: może być używany do pisania historii, generowania pomysłów i odpowiadania na pytania.

– Ludzie mogą uznać to za bardziej przydatne i wygodne niż wyszukiwarka Google. Ale w nauce o danych wiemy, że jeśli coś wygląda bezbłędnie, nie może być prawdziwe. I tak jest – ChatGPT ma kilka poważnych wad, o których ludzie muszą wiedzieć przed użyciem – alarmuje Suchwałko.

Czytaj więcej

Studentka przyłapana na korzystaniu z ChatGPT. Jest sposób na oszustwa

Po pierwsze, źródło danych, dzięki któremu ChatGPT „żyje”. Narzędzie jest szkolone na podstawie danych zaczerpniętych z internetu. „Cyberprzestrzeń nie jest godnym zaufania miejscem, w którym można uzyskać wiarygodne, bezstronne i istotne informacje” – pisze w poście na LinkedIn współtwórca QuantUp. I zwraca uwagę, że na podobne ryzyko wskazują badacze z John Hopkins University. W efekcie algorytmy mogą nie tylko przekazywać fałszywe wiadomości, ale wzmagać uprzedzenia społeczne (niekontrolowane technologie mają tendencję do „zachowań” rasistowskich i nierównego traktowania różnych grup społecznych). A na tym nie koniec. AI za nic ma bowiem prawa autorskie. Czerpanie garściami z informacji w sieci grozi ich naruszeniami i licznymi plagiatami.

Czytaj więcej

Polak z Kluczborka stoi za ChatGPT. Ta sztuczna inteligencja podbija świat

Dowodzi tego przypadek Stability AI, firmy odpowiedzialnej za stworzenie sztucznej inteligencji Stable Diffusion. Ów głęboko uczący się model zamiany tekstu na obraz, uruchomiony w 2022 r., szkoli się z zasobów sieci. Problem w tym, że w tego typu przypadkach rzadko kiedy twórcy AI pytają o zgodę właścicieli praw autorskich. W efekcie algorytmy, które stanowią zagrożenie dla artystów w przyszłości, tworzą dziś grafiki, wzorując się na ich pracach (to samo dotyczy kodów programistycznych objętych prawami autorskimi). W efekcie niektóre obrazy są nie tylko łudząco podobne do oryginalnych dzieł autorów, lecz posiadają nawet ich sygnaturę. Afera z udziałem Stability AI sprawiła, że firma ogłosiła, iż artyści będą mogli usunąć swoje obrazy z bazy danych. Jednak podobny problem tyczy się Midjourney. Stojący za tym projektem David Holz mówi wprost: nie ma sposobu, by pobrać setki milionów obrazów i wiedzieć, skąd one są.

Niebezpieczna przyszłość

Niekontrolowana sztuczna inteligencja może być poważnym zagrożeniem na wielu poziomach, w tym dla bezpieczeństwa w cyberprzestrzeni. Niedawno eksperci CheckPoint Research odkryli bowiem, iż ChatGPT da się wykorzystywać jako narzędzie w atakach phishingowych.

Czytaj więcej

Rewolucja ChatGPT. Poprosiliśmy AI o napisanie tego artykułu i ilustracje

Zresztą już teraz treści generowane przez AI są wykorzystywane w socjotechnikach przy cyberatakach. Andy Patel, analityk WithSecure Intelligence, uspokaja i zapewnia, iż działania sztucznej inteligencji zaprojektowanej do sterowania całymi kampaniami, wykonywania poszczególnych etapów ataku lub kontrolowania działania złośliwego oprogramowania wciąż nie zostały zaobserwowane. – Najszybciej takie techniki opracują dobrze zaopatrzone, wysoko wykwalifikowane grupy, takie jak APT, wspierane przez państwa – wskazuje. I zaznacza, że jeśli mechanizmy AI zostaną opracowane przez „wykwalifikowane” grupy hakerskie, niektóre z narzędzi zostaną przekazane również „mniejszym aktorom” i szybko staną się powszechne.

Z prognoz dla technologii AI na 2023 r., opracowanych przez serwis Techcrounch, wynika, że zaawansowane algorytmy mogą służyć do celowych manipulacji i produkcji fałszywych materiałów wideo czy seksualizacji kobiet (za pośrednictwem aplikacji zmieniających wizerunek).

Czytaj więcej

Najwięksi wygrani 2022 roku. ChatGPT, Mastodon i gadżety

Rok 2022 pod wieloma względami okazał się przełomowy dla inteligentnych algorytmów, a przynajmniej w sferze ich masowej popularyzacji oraz powszechnego postrzegania i stosowania. Dzięki takim projektom jak Dall-E 2 czy Midjourney świat przekonał się o możliwościach tworzenia przez sztuczną inteligencję obrazów i grafik (również tych 3D, jak w przypadku Point-E), jedynie w oparciu o tekst. Ale prawdziwą furorę zrobił zaawansowany chatbot od OpenAI – system przetwarzania języka naturalnego ChatGPT. Zdaniem ekspertów ów pozorny, bardziej medialny niż faktyczny, sukces tych projektów sprawia, że przyszłość AI – choć niewątpliwie ekscytująca – rysuje się pełna wyzwań i zagrożeń.

Pozostało 89% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Polski start-up rozpycha się w kosmosie. Wysyłają sztuczną inteligencję z ważną misją
Technologie
Napęd WARP ze Star Treka to nie science fiction. Otwarcie wrót do podboju kosmosu
Technologie
Sztuczna inteligencja uczy się mówić od małych dzieci. Ten eksperyment zaskakuje
Technologie
Nowy, szybszy i darmowy model ChatGPT. Gigant sztucznej inteligencji odkrył karty
Technologie
Robopsy mają zastąpić żołnierzy. Amerykanie prowadzą testy na poligonie