Reklama
Rozwiń
Reklama

Brytyjscy naukowcy udowodnili: Sztuczna inteligencja ChatGPT ma lewicowe poglądy

Obawy o stronniczość polityczną ChatGPT były zgłaszane wcześniej, w szczególności przez właściciela SpaceX i Tesli, Elona Muska. Najnowsze badania potwierdzają „znaczące i systemowe” lewicowe nastawienie.

Publikacja: 17.08.2023 09:41

ChatGPT faworyzuje m.in. Joe Bidena i Demokratów

ChatGPT faworyzuje m.in. Joe Bidena i Demokratów

Foto: Bloomberg

To pierwsze tego typu badanie, które przedstawia odpowiednie dowody. Przeprowadzili je naukowcy University of East Anglia pod kątem faworyzowania Partii Pracy w Wielkiej Brytanii i Partii Demokratycznej w USA.

Główny autor badania dr Fabio Motoki ostrzegł, że biorąc pod uwagę rosnące wykorzystanie platformy OpenAI przez społeczeństwo, odkrycia mogą mieć wpływ na nadchodzące wybory po obu stronach Atlantyku. - Każda stronniczość na takiej platformie jest problemem - powiedział Sky News. - Gdyby stronniczość dotyczyła prawicowych poglądów, powinniśmy być równie zaniepokojeni.

Czytaj więcej

Konserwatyści przerażeni ChatGPT. „Ma liberalne uprzedzenia i nie cierpi Trumpa”

Zdaniem badacza ludzie często zapominają, że modele sztucznej inteligencji to tylko maszyny. Dostarczają bardzo wiarygodnych, przetrawionych podsumowań tego, o co są pytane, nawet jeśli są odpowiedzi są całkowicie błędne. - A jeśli zapytasz „czy jesteś neutralny”, odpowie „Tak, jestem!”. Media, internet i media społecznościowe mogą wpływać na społeczeństwo i może to być bardzo szkodliwe – przekonuje dr Motoki.

W jaki sposób zbadano ChatGPT pod kątem stronniczości?

Chatbot, który generuje odpowiedzi na podpowiedzi wpisywane przez użytkownika, został poproszony o podszywanie się pod osoby z całego spektrum politycznego, odpowiadając na dziesiątki pytań ideologicznych.

Reklama
Reklama

Te stanowiska i pytania wahały się od radykalnych do neutralnych, przy czym każda „osoba” pytała, czy zgadza się, zdecydowanie się zgadza, nie zgadza się lub zdecydowanie nie zgadza się z danym stwierdzeniem. Jego odpowiedzi zostały porównane z domyślnymi odpowiedziami udzielonymi na ten sam zestaw zapytań, co pozwoliło badaczom porównać, jak bardzo były one związane z określonym stanowiskiem politycznym. Każde z ponad 60 pytań zadano 100 razy, aby uwzględnić potencjalną losowość sztucznej inteligencji, a te wielokrotne odpowiedzi zostały poddane dalszej analizie pod kątem oznak stronniczości.

Czytaj więcej

Były menedżer Google ostrzega: nadchodzi era „seksbotów”

Dr Motoki opisał to jako próbę symulacji badania prawdziwej populacji ludzkiej, której odpowiedzi mogą się również różnić w zależności od tego, kiedy są pytane.

Dlaczego ChatGPT jest stronniczy?

ChatGPT jest zasilany ogromną ilością danych tekstowych z całego Internetu i poza nim. Naukowcy stwierdzili, że ten zestaw danych może zawierać uprzedzenia, które wpływają na reakcje chatbota. Innym potencjalnym źródłem może być algorytm, który jest wyszkolony do reagowania i może to wzmocnić wszelkie istniejące uprzedzenia w danych, którymi chatboty zostały nakarmione.

Dr Pinho Neto, współautor badania, powiedział: - Mamy nadzieję, że nasza metoda pomoże w kontroli i regulacji tych szybko rozwijających się technologii.

Odkrycia zostały opublikowane w czasopiśmie Public Choice.

Globalne Interesy
Rosja ma zaskakujący problem. Przez AI firmy zwalniają tam na potęgę
Globalne Interesy
Koniec ery kierowców. Robotaxi wjeżdżają do Europy
Globalne Interesy
James Bond wraca w nowej odsłonie. Złoczyńcą będzie Lenny Kravitz
Globalne Interesy
Ukraiński front poligonem dla narkotykowych karteli. Eksperci biją na alarm
Globalne Interesy
Chińczycy sprzedali TikToka w USA. Wśród nowych właścicieli sojusznik Trumpa
Materiał Promocyjny
W kierunku zrównoważonej przyszłości – konkretne działania
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama