Z tego artykułu się dowiesz:
- Na czym polega konkurs AI Darwin Awards i jacy są kandydaci do "nagrody"?
- Jakie kontrowersje wokół chatbotów ilustrują przypadki zgłoszone do AI Darwin Awards?
- Jak organizatorzy AI Darwin Awards wykorzystują ten konkurs do edukacji na temat ryzyk związanych z AI?
Już na początku stycznia 2026 r. poznamy laureatów drugiej edycji AI Darwin Awards – konkursu, który nagradza najbardziej spektakularne porażki, błędy i absurdy w branży sztucznej inteligencji. Oryginalne Nagrody Darwina to czarny humor w czystej postaci – przyznawane są ludziom, którzy w wyniku własnej bezmyślności „eliminują się z puli genowej”. Wersja dla sztucznej inteligencji ma podobny cel, choć raczej nikt tu nie ginie, chodzi o cyfrowe wpadki. Organizatorzy plebiscytu (grupa anonimowych entuzjastów i ekspertów od bezpieczeństwa AI) chcą w ten sposób piętnować projekty wydmuszki, nieodpowiedzialne wdrożenia i ślepe zachłyśnięcie się technologią.
Faworytem kłamczuch z Air Canada?
Tegoroczna lista nominowanych to prawdziwa galeria osobliwości, która powinna być przestrogą dla każdego dyrektora ds. innowacji. W gronie tym o tytuł największej wpadki roku walczy Google ze swoim modułem AI Overviews. Gigant z Mountain View chciał zrewolucjonizować wyszukiwanie, dając użytkownikom gotowe odpowiedzi generowane przez AI zamiast listy linków. Efekt? Algorytm, nie potrafiąc odróżnić rzetelnej wiedzy od internetowych żartów, doradzał użytkownikom dodanie nietoksycznego kleju do sosu do pizzy (żeby ser nie spadał) oraz sugerował jedzenie jednego małego kamienia dziennie dla poprawy trawienia. To, co brzmi jak żart, w rzeczywistości obnażyło problem tzw. halucynacji modeli językowych.
Wśród faworytów jest chatbot linii Air Canada. Powód? Pasażer Jake Moffatt zapytał wirtualnego asystenta o zniżkę dla osób podróżujących z powodu śmierci bliskiej osoby. Chatbot, chcąc być pomocnym, zmyślił politykę zwrotów, której w rzeczywistości nie było, a gdy pasażer domagał się pieniędzy, linia lotnicza odmówiła – sprawa trafiła do trybunału, prawnicy Air Canada argumentowali, że... chatbot jest „osobnym bytem prawnym” i firma nie odpowiada za jego słowa. Sąd ten absurdalny argument odrzucił, a sprawa stała się podręcznikowym przykładem tego, że firma odpowiada za to, co „wymyśli” jej AI.
Na liście nominowanych znalazł się też bot DPD. Narzędzie AI firmy kurierskiej to mocny kandydat. Chatbot sprowokowany przez sfrustrowanego klienta, nie tylko zaczął przeklinać, ale napisał nawet wiersz krytykujący własną firmę za fatalną obsługę.