Zaskakująca skala „halucynacji” sztucznej inteligencji. Które boty oszukują?

Problem zmyślania, czy też wprowadzania w błąd użytkowników przez konwersacyjną sztuczną inteligencję może być znacznie większy niż do tej pory sądzono. Nawet jedna czwarta odpowiedzi botów może być „halucynacjami” - wynika z najnowszych badań.

Publikacja: 08.11.2023 17:45

Powszechna przypadłość AI jest już dużym kłopotem dla wszystkich tych, którzy korzystają z takich te

Powszechna przypadłość AI jest już dużym kłopotem dla wszystkich tych, którzy korzystają z takich technologii generując min. dane biznesowe, informacje medyczne czy dokumenty sądowe.

Foto: Adobe Stock

W sieci można znaleźć wiele przykładów oszustw wygenerowanych przez chatboty takich firm jak OpenAI, Google, czy Microsoft. Ten pierwszy (ChatGPT) w marcu wpędził w tarapaty jednego z Amerykańskich prawników, który na rozprawie przytoczył sędziemu federalnemu kilka innych spraw sądowych. Jak się okazało wszystkie precedensy były wyssane z palca, a za fałszywe dane odpowiadał bot, którego prawnik poprosił o wsparcie. AI od Google zasłynęło tym, że pisało bzdury na temat teleskopu Jamesa Webba, zaś algorytmy Microsoftu (Bing) kłamały o piosenkarce Billie Eilish.

„Rzeczpospolita” najbardziej opiniotwórczym medium października!

Rzetelne informacje, pogłębione analizy, komentarze i opinie. Treści, które inspirują do myślenia. Oglądaj, czytaj, słuchaj.

Czytaj za 9 zł miesięcznie!
Technologie
Humanoidy wejdą do domów w 2025 roku. Ten sprząta, ale potrafi też prać i zrobić kawę
Technologie
Ukraińcy szkolą sztuczną inteligencję filmami z wojny. Wyrastają na potęgę
Technologie
Paliwo przyszłości kryje się pod Ziemią. Przełomowe znalezisko w Europie
Technologie
Pierwsza na świecie kamera AI wykrywa pijanych kierowców. Alkomat nie jest potrzebny?
Technologie
Chiny mają już drony z laserami. Promień tnie metal i zniszczy cały oddział wojska
Materiał Promocyjny
Nest Lease wkracza na rynek leasingowy i celuje w TOP10