Kiedy chatbot Bard stworzony przez Google`a w wersji testowej popełnił błąd, twierdząc, że to teleskop Jamesa Webba pierwszy wykonał zdjęcie planety poza Układem Słonecznym (tymczasem wcześniej zrobił to teleskop VLT), spotkał się z ostrą krytyką, a akcje Alphabetu, macierzystej spółki Google spadły w dwa dni o 9 proc., tracąc 160 mld dol. na wartości. Teraz okazało się, że bardziej znany rywal Barda, chatbot ChatGPT, też nie jest taki doskonały. A nawet potrafi być bardzo przykry dla rozmówcy.
Użytkownicy, którzy chcą rozmawiać z chatbotem opartym na sztucznej inteligencji w nowej wersji wyszukiwarki Bing firmy Microsoft z zaszytym ChatGPT, mogą się zdziwić. Coraz więcej użytkowników zamieszcza screeny konwersacji z chatbotem, który okazuje się być po prostu gadatliwy, ale także kłótliwy i agresywny. Według niektórych tweetów udostępnionych przez użytkowników, potrafił nawet wprost stwierdzić, że ta rozmowa to strata czasu.
Czytaj więcej
Inteligentny chatbot Google Bard, który ma być rywalem ChatGPT, został przyłapany na błędnej odpowiedzi. Choć to tylko jego wersja demonstracyjna, kurs akcji Alphabetu, spółki macierzystej Google, ostro spadał w środę i w czwartek.
Ostatnio najsłynniejszy jest ChatGPT od firmy OpenAI, który może udzielać odpowiedzi na szczegółowe zapytania użytkowników, pisać opracowania, eseje czy wiersze. Microsoft, który wspierał finansowo OpenAI, włączył teraz chatbota do swojej wyszukiwarki Bing, zapewniając użytkownikom nowy sposób wyszukiwania informacji. Wdrażanie usługi jest nadal powolne, a dostęp do niej uzyskuje niewielu użytkowników. Ci, którym się udało czasami obrywają solidne reprymendy.
Portal Interesting Engineering przytacza historię użytkownika, który poprosił sztuczną inteligencję o podanie, kiedy może obejrzeć Avatara 2 w pobliżu swego domu. Chatbot odpowiedział, że użytkownik odnosi się zapewne do Avatara, który został nakręcony w 2009 roku i nie jest już wyświetlany w kinach, a Avatar 2 ma się w pojawić w kinach 16 grudnia 2022 roku, czyli za 10 miesięcy.
Gdy użytkownik poprosił sztuczną inteligencję o sprawdzenie daty, chatbot odpowiedział, podając faktyczną datę, ale utrzymywał, że rok 2022 nadal należy do przyszłości. Z rozmowy, która nastąpiła później, wynika, że chatbot był przekonany, że jest luty 2022 roku, a kiedy użytkownik zasugerował, że jego telefon pokazuje, że jest rok 2023, chatbot wpadł w szał.
Najpierw zasugerował, że telefon prawdopodobnie miał nieprawidłowe ustawienia lub zmieniono jego strefę czasową lub format kalendarza. Później napisał, że telefon ma zapewne wirusa lub błąd, który zakłóca datę i wymaga naprawy. Kiedy użytkownik utrzymywał, że jest rok 2023, chatbot poprosił rozmówcę, aby przestał się kłócić i zaufał dostarczonym informacjom.
Czytaj więcej
Amerykańskie uczelnie alarmują, że co piąta praca pisemna powstaje z pomocą nowego narzędzia, kolejne wprowadzają zakazy korzystania ze sztucznej inteligencji. Jednak to uczelnia w szwedzkiej Uppsali ukarała za takie praktyki pierwszego studenta.
Na wezwanie do agresywnego zachowania chatbot odpowiedział, że było to zachowanie asertywne. Mimo to człowiek był według niego nierozsądny i uparty i oczekiwał przeprosin za takie zachowanie. Ktoś w Microsofcie najwyraźniej natknął się na te raporty i poprawił datę na czacie. Jednak robiąc to usunął inne informacje z rejestru rozmów z użytkownikami, co również podważa zaufanie do chatbota.
Widać wyraźnie, że im więcej użytkowników korzysta z takich narzędzi, tym częściej okazuje się, że technologia jest daleka od doskonałości.
Podawaliśmy już, że z takich narzędzi na masową skalę korzystają studenci, a pierwsza szwedzka uczelnia zdecydowała się już ukarać pierwszą osobę za korzystanie z ChatGPT przy pisaniu pracy. Wiele podobnych spraw jest w toku, nawet co piąta praca pisemna oddawana przez studentów w USA powstaje z wykorzystaniem chatbotów.