Reklama
Rozwiń
Reklama

Brytyjscy naukowcy udowodnili: Sztuczna inteligencja ChatGPT ma lewicowe poglądy

Obawy o stronniczość polityczną ChatGPT były zgłaszane wcześniej, w szczególności przez właściciela SpaceX i Tesli, Elona Muska. Najnowsze badania potwierdzają „znaczące i systemowe” lewicowe nastawienie.

Publikacja: 17.08.2023 09:41

ChatGPT faworyzuje m.in. Joe Bidena i Demokratów

ChatGPT faworyzuje m.in. Joe Bidena i Demokratów

Foto: Bloomberg

To pierwsze tego typu badanie, które przedstawia odpowiednie dowody. Przeprowadzili je naukowcy University of East Anglia pod kątem faworyzowania Partii Pracy w Wielkiej Brytanii i Partii Demokratycznej w USA.

Główny autor badania dr Fabio Motoki ostrzegł, że biorąc pod uwagę rosnące wykorzystanie platformy OpenAI przez społeczeństwo, odkrycia mogą mieć wpływ na nadchodzące wybory po obu stronach Atlantyku. - Każda stronniczość na takiej platformie jest problemem - powiedział Sky News. - Gdyby stronniczość dotyczyła prawicowych poglądów, powinniśmy być równie zaniepokojeni.

Czytaj więcej

Konserwatyści przerażeni ChatGPT. „Ma liberalne uprzedzenia i nie cierpi Trumpa”

Zdaniem badacza ludzie często zapominają, że modele sztucznej inteligencji to tylko maszyny. Dostarczają bardzo wiarygodnych, przetrawionych podsumowań tego, o co są pytane, nawet jeśli są odpowiedzi są całkowicie błędne. - A jeśli zapytasz „czy jesteś neutralny”, odpowie „Tak, jestem!”. Media, internet i media społecznościowe mogą wpływać na społeczeństwo i może to być bardzo szkodliwe – przekonuje dr Motoki.

W jaki sposób zbadano ChatGPT pod kątem stronniczości?

Chatbot, który generuje odpowiedzi na podpowiedzi wpisywane przez użytkownika, został poproszony o podszywanie się pod osoby z całego spektrum politycznego, odpowiadając na dziesiątki pytań ideologicznych.

Reklama
Reklama

Te stanowiska i pytania wahały się od radykalnych do neutralnych, przy czym każda „osoba” pytała, czy zgadza się, zdecydowanie się zgadza, nie zgadza się lub zdecydowanie nie zgadza się z danym stwierdzeniem. Jego odpowiedzi zostały porównane z domyślnymi odpowiedziami udzielonymi na ten sam zestaw zapytań, co pozwoliło badaczom porównać, jak bardzo były one związane z określonym stanowiskiem politycznym. Każde z ponad 60 pytań zadano 100 razy, aby uwzględnić potencjalną losowość sztucznej inteligencji, a te wielokrotne odpowiedzi zostały poddane dalszej analizie pod kątem oznak stronniczości.

Czytaj więcej

Były menedżer Google ostrzega: nadchodzi era „seksbotów”

Dr Motoki opisał to jako próbę symulacji badania prawdziwej populacji ludzkiej, której odpowiedzi mogą się również różnić w zależności od tego, kiedy są pytane.

Dlaczego ChatGPT jest stronniczy?

ChatGPT jest zasilany ogromną ilością danych tekstowych z całego Internetu i poza nim. Naukowcy stwierdzili, że ten zestaw danych może zawierać uprzedzenia, które wpływają na reakcje chatbota. Innym potencjalnym źródłem może być algorytm, który jest wyszkolony do reagowania i może to wzmocnić wszelkie istniejące uprzedzenia w danych, którymi chatboty zostały nakarmione.

Dr Pinho Neto, współautor badania, powiedział: - Mamy nadzieję, że nasza metoda pomoże w kontroli i regulacji tych szybko rozwijających się technologii.

Odkrycia zostały opublikowane w czasopiśmie Public Choice.

Globalne Interesy
Idą masowe zwolnienia w Rosji. Pojawił się nowy powód
Globalne Interesy
Koniec ery kierowców. Robotaxi wjeżdżają do Europy
Globalne Interesy
James Bond wraca w nowej odsłonie. Złoczyńcą będzie Lenny Kravitz
Globalne Interesy
Ukraiński front poligonem dla narkotykowych karteli. Eksperci biją na alarm
Materiał Promocyjny
Polska jest dla nas strategicznym rynkiem
Globalne Interesy
Chińczycy sprzedali TikToka w USA. Wśród nowych właścicieli sojusznik Trumpa
Materiał Promocyjny
Podpis elektroniczny w aplikacji mObywatel – cyfrowe narzędzie, które ułatwia życie
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama