Rok 2022 pod wieloma względami okazał się przełomowy dla inteligentnych algorytmów, a przynajmniej w sferze ich masowej popularyzacji oraz powszechnego postrzegania i stosowania. Dzięki takim projektom jak Dall-E 2 czy Midjourney świat przekonał się o możliwościach tworzenia przez sztuczną inteligencję obrazów i grafik (również tych 3D, jak w przypadku Point-E), jedynie w oparciu o tekst. Ale prawdziwą furorę zrobił zaawansowany chatbot od OpenAI – system przetwarzania języka naturalnego ChatGPT. Zdaniem ekspertów ów pozorny, bardziej medialny niż faktyczny, sukces tych projektów sprawia, że przyszłość AI – choć niewątpliwie ekscytująca – rysuje się pełna wyzwań i zagrożeń.
ChatGPT pełen wad?
ChatGPT wywołał w sieci masę zachwytów. Możliwości tej technologii faktycznie są imponujące. Wielu ekspertów zwraca uwagę jednak na liczne ryzyka związane m.in. ze sposobem, w jaki algorytmy są uczone. A te zaciągają dane wprost z sieci. Źródła nie są weryfikowane, a brak kontroli nad botem sprawia, że technologia ta – jak i wiele innych pojawiających się właśnie w formule otwartej, dostępnej dla wszystkich – może stać się istną puszką Pandory. A my właśnie ją otwieramy. Analitycy z branży AI alarmują o potencjalnych konsekwencjach: szerzeniu mowy nienawiści, masowej dezinformacji, fali bezprawia. Jak zauważa Artur Suchwałko, współzałożyciel firmy QuantUp, specjalista z zakresu uczenia maszynowego, chat AI to pozornie przydatne narzędzie: może być używany do pisania historii, generowania pomysłów i odpowiadania na pytania.
– Ludzie mogą uznać to za bardziej przydatne i wygodne niż wyszukiwarka Google. Ale w nauce o danych wiemy, że jeśli coś wygląda bezbłędnie, nie może być prawdziwe. I tak jest – ChatGPT ma kilka poważnych wad, o których ludzie muszą wiedzieć przed użyciem – alarmuje Suchwałko.
Czytaj więcej
Profesor filozofii na Uniwersytecie Furmana w Greenville w Karolinie Południowej wykrył, że jedną z prac, które sprawdzał, nie pisał student, lecz sztuczna inteligencja. Wkrótce to będzie prawdziwa plaga.
Po pierwsze, źródło danych, dzięki któremu ChatGPT „żyje”. Narzędzie jest szkolone na podstawie danych zaczerpniętych z internetu. „Cyberprzestrzeń nie jest godnym zaufania miejscem, w którym można uzyskać wiarygodne, bezstronne i istotne informacje” – pisze w poście na LinkedIn współtwórca QuantUp. I zwraca uwagę, że na podobne ryzyko wskazują badacze z John Hopkins University. W efekcie algorytmy mogą nie tylko przekazywać fałszywe wiadomości, ale wzmagać uprzedzenia społeczne (niekontrolowane technologie mają tendencję do „zachowań” rasistowskich i nierównego traktowania różnych grup społecznych). A na tym nie koniec. AI za nic ma bowiem prawa autorskie. Czerpanie garściami z informacji w sieci grozi ich naruszeniami i licznymi plagiatami.