Groźne oblicze SI. To mistrz konfabulacji i fake newsów

Nowy system oparty na sztucznej inteligencji tak szybko nauczył się doskonałej manipulacji i fabrykowania fake newsów, że jego twórcy postanowili go zamknąć. W obawie, że może zostać źle użyty.

Publikacja: 05.03.2019 09:03

Algorytm GPT2 bez problemu dopisał ciąg dalszy do „Władcy Pierścieni” J.R.R. Tolkiena. Na zdjęciu: k

Algorytm GPT2 bez problemu dopisał ciąg dalszy do „Władcy Pierścieni” J.R.R. Tolkiena. Na zdjęciu: kadr z filmu

Foto: mat.pras.

OpenAI – niezależna organizacja non profit, której inicjatorami i udziałowcami są m.in. Elon Musk i Microsoft – opracowała niemal doskonałe narzędzie do pisania tekstów. System oparty na sztucznej inteligencji jest w stanie pisać odpowiedzi na konkretne pytania, długie eseje, opowieści fantastycznonaukowe, ale także fake newsy o celebrytach, a nawet prace domowe za uczniów.

Z autentycznych na fałszywe

Algorytm o nazwie GPT2 został stworzony do rozpoznawania fake newsów, ale okazało się, że sam potrafi je tworzyć, i to nawet aż za dobrze. Algorytm jest w stanie przerabiać autentyczne wiadomości na fałszywe i tworzyć zupełnie nowe teksty, które brzmią bardzo realistycznie. GPT2 „nauczył” się tego na 2 mln artykułów oraz na komentarzach umieszczonych przez internautów pod nimi. Potrafi też dokańczać dzieła literackie, podkręcając tekst, by był jeszcze bardziej atrakcyjny dla czytelnika. Umie też naśladować oryginalny styl danego utworu literackiego i jego autora.

CZYTAJ TAKŻE: Maszyna wykrywająca korupcję okazała się zbyt skuteczna

Aby pokazać jego możliwości, wystarczy nadmienić, że bez problemu dopisał ciąg dalszy zarówno do „Roku 1984” George’a Orwella, jak i do „Władcy Pierścieni” J.R.R. Tolkiena.

Natomiast artykuły, które „napisał” GPT2, były niezwykle realistyczne, okraszone cytatami prawdziwych osób i przykładami faktów – wyglądały tak autentycznie, jakby opisywały prawdziwe zdarzenia i cytowały prawdziwe wypowiedzi.

Fałszywe wiadomości napisane przez sztuczną inteligencję byłoby niezwykle trudno odróżnić od prawdziwych informacji

Artykuł, jaki algorytm „napisał” o brexicie, zawierał nie tylko „fakty”, ale także liczne cytaty z rzekomych wypowiedzi lidera opozycyjnej Partii Pracy Jeremy’ego Corbyna i rzecznika prasowego premier Theresy May. Powoływał się nawet na „przemówienie królowej z zeszłego tygodnia”.

CZYTAJ TAKŻE: Sztuczna inteligencja zrobi z tobą film porno

GPT2 to pierwszy algorytm sztucznej inteligencji opracowany przez OpenAI, który został zamknięty, ponieważ okazał się zbyt dobry. Poprzednie algorytmy są natomiast wykorzystywane w różnych ośrodkach badawczych.

Niebezpieczna broń dla propagandystów

Według analityków algorytm taki jak GPT2 może być bardzo niebezpieczny w niepowołanych rękach i stać się narzędziem propagandy. Tworzenie fake newsów będzie nie tylko szybsze, ale i znacznie łatwiejsze. Fałszywe wiadomości napisane przez sztuczną inteligencję byłoby niezwykle trudno odróżnić od prawdziwych informacji.

CZYTAJ TAKŻE: Sztuczna inteligencja wymyśla nowe zaskakujące smaki

Według Ryana Calo, profesora na Uniwersytecie Waszyngtońskim w Seattle decyzja o zakończeniu projektu GPT2 była jedyną słuszną, ponieważ prawdopodobieństwo wykorzystania algorytmu w niewłaściwy sposób jest ogromne – informuje CNN.

Przeciwnego zdania jest Christopher Manning, profesor Uniwersytetu Stanforda i szef Stanford Artificial Intelligence Lab, który zwraca uwagę, iż narzędzi podobnych do GPT2 jest w obiegu już całkiem sporo, ale użycie takiego algorytmu jest wciąż za drogie. W końcu łatwiej jest płacić ludziom w krajach Trzeciego Świata, by tworzyli fake newsy czy nieprawdziwe komentarze w internecie.

OpenAI – niezależna organizacja non profit, której inicjatorami i udziałowcami są m.in. Elon Musk i Microsoft – opracowała niemal doskonałe narzędzie do pisania tekstów. System oparty na sztucznej inteligencji jest w stanie pisać odpowiedzi na konkretne pytania, długie eseje, opowieści fantastycznonaukowe, ale także fake newsy o celebrytach, a nawet prace domowe za uczniów.

Z autentycznych na fałszywe

Pozostało 87% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Armia testuje broń przyszłości. Robopsy umieją coraz więcej, teraz zestrzelą drony
Technologie
Kryzys w IDEAS NCBR zażegnany, będzie nowy projekt. Rząd przyznaje się do błędu?
Technologie
Test na starość? Powstała prosta metoda badania tempa starzenia i ryzyka śmierci
Technologie
Polska jest pełna psich odchodów. Ale znalazł się na to pomysłowy sposób
Technologie
Kontrowersyjne zmiany w NCBR. Światowe protesty w obronie polskiego naukowca