Zaskakująca skala „halucynacji” sztucznej inteligencji. Które boty oszukują?

Problem zmyślania, czy też wprowadzania w błąd użytkowników przez konwersacyjną sztuczną inteligencję może być znacznie większy niż do tej pory sądzono. Nawet jedna czwarta odpowiedzi botów może być „halucynacjami” - wynika z najnowszych badań.

Publikacja: 08.11.2023 17:45

Powszechna przypadłość AI jest już dużym kłopotem dla wszystkich tych, którzy korzystają z takich te

Powszechna przypadłość AI jest już dużym kłopotem dla wszystkich tych, którzy korzystają z takich technologii generując min. dane biznesowe, informacje medyczne czy dokumenty sądowe.

Foto: Adobe Stock

W sieci można znaleźć wiele przykładów oszustw wygenerowanych przez chatboty takich firm jak OpenAI, Google, czy Microsoft. Ten pierwszy (ChatGPT) w marcu wpędził w tarapaty jednego z Amerykańskich prawników, który na rozprawie przytoczył sędziemu federalnemu kilka innych spraw sądowych. Jak się okazało wszystkie precedensy były wyssane z palca, a za fałszywe dane odpowiadał bot, którego prawnik poprosił o wsparcie. AI od Google zasłynęło tym, że pisało bzdury na temat teleskopu Jamesa Webba, zaś algorytmy Microsoftu (Bing) kłamały o piosenkarce Billie Eilish.

Czytaj dalej RP.PL

Tylko 9 zł aż za 3 miesiące!
Ciesz się dostępem do treści najbardziej opiniotwórczego medium w Polsce. Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.
Technologie
Maszyny zastąpią ludzi w armii USA. Bullfrog jest szybki i bezwzględny
Technologie
AI Google'a życzyła ludziom śmierci. Internauci w szoku
Technologie
„Proces przekształcania robotów w ludzi”. Chiny rzuciły wyzwanie USA i Muskowi
Technologie
Ten myśliwiec szóstej generacji ma atakować z kosmosu. Chiny rzucają wyzwanie w USA
Materiał Promocyjny
Europejczycy chcą ochrony klimatu, ale mają obawy o koszty
Technologie
Rewolucyjny wynalazek. Koreańscy stworzyli koło zmieniające kształt