Aktualizacja: 28.04.2025 16:00 Publikacja: 19.02.2025 14:09
Chińskie modele mają szczególny problem z halucynowaniem AI
Foto: Andrea Verdelli/Bloomberg
Wszystkie duże modele językowe (LLM) popełniają błędy lub wprowadzają w błąd. Problem tzw. halucynowania przydarza się nawet najnowszym i najbardziej zaawansowanym systemom AI, które są zdolne do niezwykle szybkiego analizowania i wnioskowania czy rozwiązywania zaawansowanych zadań matematycznych.
Opracowany przez firmę OpenAI, najpopularniejszy na świecie chatbot, może pisać kody, e-maile, pomagać w lekcjac...
Naukowcy z Wielkiej Brytanii opracowali technologię, która pozwoli w przyszłości wznosić wieżowce bez potrzeby i...
Sześć krajów NATO planuje umieszczenie tysięcy dronów wzdłuż swoich wschodnich granic. Ma to być nowoczesny syst...
Inteligentne maszyny zyskają kolejny zmysł, po wzroku i słuchu, a nawet dotyku. Chodzi o powonienie. Opiekujący...
W obliczu zbliżających się wyborów prezydenckich w Polsce zdajemy sobie sprawę, jak ważne jest, aby platformy społecznościowe nie zakłócały procesów demokratycznych.
Nawet, gdy prawdziwy nastrój człowiek będzie starał się ukryć, sztuczna inteligencja będzie wiedziała, co czuje....
Masz aktywną subskrypcję?
Zaloguj się lub wypróbuj za darmo
wydanie testowe.
nie masz konta w serwisie? Dołącz do nas