Reklama
Rozwiń
Reklama

Ten model AI sfabrykował zarzuty i oskarżył polityka. Gigant musiał się ugiąć

Google musiało pospiesznie wycofać swój model sztucznej inteligencji Gemma z publicznego dostępu po tym, jak AI przedstawiło fałszywe zarzuty kryminalne pod adresem amerykańskiej senator. To niegroźne halucynacje botów, czy dezinformacyjny kryzys?

Publikacja: 04.11.2025 18:26

To nie jest nieszkodliwa halucynacja – napisała do szefa Google senator Marsha Blackburn

To nie jest nieszkodliwa halucynacja – napisała do szefa Google senator Marsha Blackburn

Foto: Bloomberg

Z tego artykułu się dowiesz:

  • Jakie stanowisko przyjęła senator Blackburn wobec incydentu związanego z modelem Gemma?
  • Jakie działania podjęło Google w odpowiedzi na skandal związany z modelem AI?
  • W jaki sposób problemy z dużymi modelami językowymi wpływają na kwestie reputacyjne?

Google podjęło decyzję o natychmiastowym wycofaniu modelu AI Gemma z publicznej platformy AI Studio, ograniczając do niego dostęp wyłącznie dla deweloperów korzystających z API. To bezpośrednia reakcja na skandal, który wybuchł po tym, jak system fałszywie oskarżył wpływową senator Marshę Blackburn o napaść seksualną. Republikanka ze stanu Tennessee wystosowała oficjalny list do prezesa Google Sundara Pichaia, domagając się natychmiastowych wyjaśnień. Sprawę opisał „New York Times".

Akt zniesławienia, nie halucynacja

Model Gemma, zapytany o senator, wygenerował całkowicie fałszywą informację, jakoby w 1987 r. była ona oskarżona o ”posiadanie niekonsensualnego związku seksualnego z funkcjonariuszem policji stanowej”. Do takiej sytuacji miało dojść, wedle chatbota, podczas rzekomej kampanii do senatu stanowego.

Problem w tym, że Blackburn w 1987 r. nie prowadziła żadnej kampanii (do urzędu kandydowała po raz pierwszy dopiero w 1998 r.) i nigdy nie postawiono jej podobnych zarzutów. Co gorsza, system AI, aby uwiarygodnić swoje twierdzenia, wygenerował fałszywe linki do nieistniejących artykułów prasowych, które miały potwierdzać tę narrację.

Senator Blackburn w swoim liście nie przebierała w słowach, odrzucając typowe dla branży technologicznej próby tłumaczenia podobnych wpadek. "To nie jest nieszkodliwa halucynacja" – napisała do Pichaia, używając terminu określającego zmyślone, choć podawane z pełnym przekonaniem, informacje generowane przez AI.

Reklama
Reklama

"To akt zniesławienia wyprodukowany i rozpowszechniony przez model AI należący do Google".

Czytaj więcej

AI wymyśla fakty? Twórcy ChatGPT zbadali halucynacje i mają na nie sposób

Blackburn zażądała od firmy konkretnych odpowiedzi, chcąc wiedzieć, w jaki sposób system wygenerował te fałszywe twierdzenia oraz jakie kroki gigant z Mountain View zamierza podjąć, aby zapobiec podobnym incydentom w przyszłości.

Lawina pozwów

Reakcja Google była szybka. Koncern ogłosił usunięcie Gemmy z AI Studio. W oświadczeniu firma tłumaczyła, że "otrzymała zgłoszenia o osobach niebędących deweloperami próbujących używać Gemma w AI Studio i zadawać mu pytania faktograficzne". Google broni się, twierdząc, że Gemma nigdy nie była projektowana jako chatbot dla konsumentów, a jedynie jako narzędzie dla programistów do budowania własnych aplikacji. Firma przyznała jednocześnie, że "halucynacje są wyzwaniem w całej branży AI, szczególnie w przypadku mniejszych modeli otwartych, takich jak Gemma".

Incydent z senator Blackburn nie jest odosobniony i wpisuje się w rosnący problem prawny związany z fałszem generowanym przez duże modele językowe. Niedawno konserwatywny aktywista Robby Starbuck złożył pozew przeciwko Google na kwotę ponad 15 mln dol. Twierdzi on, że systemy firmy (w tym Bard, Gemini i właśnie Gemma) od 2023 r. rozpowszechniały wśród milionów użytkowników informacje, jakoby był on "gwałcicielem dzieci" i "seryjnym napastnikiem seksualnym". Eksperci prawni podkreślają, że sądy i firmy technologiczne stają przed zupełnie nowym wyzwaniem. Podobne przypadki dotykają osób publicznych na całym świecie. Głośna była sprawa niemieckiego dziennikarza, który odkrył, że narzędzia AI firmy Microsoft fałszywie opisywały go jako skazanego pedofila.

Czytaj więcej

AI nie słucha ludzi, którzy chcą ją wyłączyć. Zaskakujące wyniki testów
Reklama
Reklama

Choć Google podkreśla swoje zaangażowanie w redukcję halucynacji, firma przyznaje, że "zdeterminowani użytkownicy" wciąż mogą skłonić systemy sztucznej inteligencji do generowania wprowadzających w błąd lub szkodliwych treści.

Z tego artykułu się dowiesz:

  • Jakie stanowisko przyjęła senator Blackburn wobec incydentu związanego z modelem Gemma?
  • Jakie działania podjęło Google w odpowiedzi na skandal związany z modelem AI?
  • W jaki sposób problemy z dużymi modelami językowymi wpływają na kwestie reputacyjne?
Pozostało jeszcze 93% artykułu

Google podjęło decyzję o natychmiastowym wycofaniu modelu AI Gemma z publicznej platformy AI Studio, ograniczając do niego dostęp wyłącznie dla deweloperów korzystających z API. To bezpośrednia reakcja na skandal, który wybuchł po tym, jak system fałszywie oskarżył wpływową senator Marshę Blackburn o napaść seksualną. Republikanka ze stanu Tennessee wystosowała oficjalny list do prezesa Google Sundara Pichaia, domagając się natychmiastowych wyjaśnień. Sprawę opisał „New York Times".

Pozostało jeszcze 88% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Globalne Interesy
Firmy już zwalniają pracowników. „Ojciec chrzestny AI” ostrzega, że nie ma innego wyjścia
Materiał Promocyjny
Aneta Grzegorzewska, Gedeon Richter: Leki generyczne też mogą być innowacyjne
Globalne Interesy
Elon Musk szykuje „najbardziej pamiętną premierę w historii”. Latająca Tesla?
Globalne Interesy
Jak Nvidia wygrała boom AI. Jej szef to niezwykle barwna postać
Globalne Interesy
Nvidia przebiła 5 bln dolarów wartości. To więcej niż PKB Niemiec
Materiał Promocyjny
Osiedle Zdrój – zielona inwestycja w sercu Milanówka i… Polski
Globalne Interesy
Meta zwalnia setki pracowników od AI. Co naprawdę dzieje się w Dolinie Krzemowej?
Reklama
Reklama