Chatboty skrajnej prawicy wcielają się w zbrodniarzy i terrorystów

Chatbot Adolfa Hitlera, przywódcy III Rzeszy i jednego z największych zbrodniarzy w historii, działa już w skrajnie prawicowej sieci społecznościowej Gab. Sztuczna inteligencja może zradykalizować cały internet - obawiają się eksperci.

Publikacja: 19.02.2024 16:12

Kontrowersyjne chatboty pojawiły się na Gab Social, platformie społecznościowej skrajnej prawicy

Kontrowersyjne chatboty pojawiły się na Gab Social, platformie społecznościowej skrajnej prawicy

Foto: Bloomberg

Stworzona w styczniu tego roku przez skrajnie prawicową sieć społecznościową Gab z siedzibą w USA, platforma Gab AI jest gospodarzem chatbotów AI, z których wiele naśladuje lub parodiuje takie postacie jak Donald Trump, Władimir Putin, Osama bin Laden czy Adolf Hitler. Umożliwia użytkownikom tworzenie własnych chatbotów AI, opisując siebie jako nieocenzurowaną platformę sztucznej inteligencji opartą na modelach open source, co można przeczytać w poście na blogu założyciela Gab i konserwatywnego republikańskiego chrześcijanina Andrew Torby'ego — donosi serwis Euronews Next.

Pozostało 84% artykułu

Czytaj dalej RP.PL

Tylko 9 zł aż za 3 miesiące!
Ciesz się dostępem do treści najbardziej opiniotwórczego medium w Polsce. Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.
Technologie
Przełomowa technologia z Polski nadzieją dla chorych na raka. Głośno o niej za oceanem
Materiał Promocyjny
Z kartą Simplicity od Citibanku można zyskać nawet 1100 zł, w tym do 500 zł już przed świętami
Technologie
To ma być przełom w energetyce. Czysta i tania energia popłynie z kosmosu
Technologie
Chiny chcą pierwsze zbudować sztuczne słońce. Amerykanie zostają w tyle
Technologie
„Uszkodzenie DNA”. Plastik dużo bardziej toksyczny niż sądzono
Materiał Promocyjny
Sieć T-Mobile Polska nagrodzona przez użytkowników w prestiżowym rankingu
Technologie
Litewskie szpaki zaatakowały Rosjan w Ukrainie. Są małe i mogą uderzać jak kamikadze