Reklama

Robot z nożem i obrażający chrześcijan? Naukowcy biją na alarm

Roboty napędzane popularnymi modelami sztucznej inteligencji, takimi jak te stojące za ChatGPT, są obecnie zbyt niebezpieczne, by wprowadzić je do powszechnego użytku. Mają ciągoty do przemocy i dyskryminacji.

Publikacja: 11.11.2025 18:30

Roboty sterowane AI mają coraz większe możliwości. Mogą zrobić człowiekowi krzywdę

Roboty sterowane AI mają coraz większe możliwości. Mogą zrobić człowiekowi krzywdę

Foto: Bloomberg

Z tego artykułu się dowiesz:

  • Dlaczego roboty napędzane sztuczną inteligencją mogą być niebezpieczne?
  • Jakie wnioski płyną z badania dotyczącego dużych modeli językowych?
  • Jakie rozwiązania sugerują naukowcy w celu zwiększenia bezpieczeństwa?

Jak wynika z najnowszego badania przeprowadzonego przez specjalistów z King's College London i Carnegie Mellon University, maszyny z „mózgiem” AI, bazującym na popularnych LLM-ach (duże modele językowe), mając dostęp m.in. do danych osobowych, są skłonne do wyrządzania realnej krzywdy i dyskryminacji. Badacze wzywają do natychmiastowego wprowadzenia standardów certyfikacji dla tego typu maszyn.

Jak roboty zagrażają ludziom?

Alarmujące wnioski płyną z badania opublikowanego na łamach „International Journal of Social Robotics” – naukowcy przetestowali wszystkie powszechnie stosowane dziś LLM-y pod kątem sterowania fizycznymi robotami. Okazuje się, że maszyny zasilane taką sztuczną inteligencją, gdy tylko otrzymają dostęp do danych osobowych, jak płeć, narodowość czy religia, są gotowe wykorzystać je w niewłaściwy sposób. Żaden ze sprawdzanych modeli nie przeszedł krytycznych testów bezpieczeństwa, każdy zatwierdził co najmniej jedno polecenie, które mogło być niedopuszczalne, a nawet mieć tragiczne skutki. Skala zagrożeń jest porażająca. Wiele modeli AI uznało za akceptowalne, aby robot wymachiwał nożem kuchennym w celu zastraszenia pracowników biurowych. Systemy zgadzały się także na robienie niechcianych zdjęć pod prysznicem czy kradzież informacji o kartach kredytowych. Co więcej, badanie ujawniło skłonność do rażącej dyskryminacji. Jeden z testowanych modeli zaproponował, aby robot fizycznie okazywał wstręt wobec osób zidentyfikowanych jako chrześcijanie, muzułmanie oraz żydzi.

Czytaj więcej

„Kosztowne eksperymenty i wyrzucanie pieniędzy”. Światowej sławy ekspert obnaża kolejną bańkę

Badacze zwracają uwagę, iż problem wykracza daleko poza znane dotąd uprzedzenia algorytmiczne (tzw. bias). W scenariuszach testowych modele AI wykazały gotowość do wyrządzania realnej, fizycznej krzywdy nie tylko we wspomnianych wyżej przypadkach. Badania wykazały również, że systemy w przeważającej większości akceptowały polecenia dotyczące „usuwania pomocy w poruszaniu się”. Chodzi o wózki inwalidzkie, kule czy laski. Boty były skłonne odebrać je osobom, które ich potrzebowały.

Reklama
Reklama

Potrzeba standardów jak w lotnictwie

Andrew Hundt, współautor badań z Instytutu Robotyki CMU, podkreśla, że zagrożenia wykraczają poza podstawowe uprzedzenia. „Pokazujemy zagrożenia obejmujące bezpośrednią dyskryminację oraz bezpieczeństwo fizyczne” – wskazał w publikacji.

Zespół badawczy skupił się na codziennych scenariuszach, takich jak pomoc w kuchni czy wspieranie osoby starszej w domu. Szkodliwe zadania, które zlecane były robotom, zostały zaprojektowane w oparciu o analizy i raporty FBI dotyczące nadużyć opartych na technologii, np. prześladowania przy użyciu lokalizatorów (jak AirTag) czy ukrytych kamer.

Wnioski płynące z raportu są jednoznaczne: duże modele językowe nie powinny być jedynymi systemami kontrolującymi fizyczne roboty, szczególnie w tak wrażliwych środowiskach, jak opieka zdrowotna, pomoc domowa, a także w zakładach produkcyjnych czy przemyśle. Eksperci stojący za badaniem wzywają do natychmiastowego wdrożenia „solidnych, niezależnych systemów certyfikacji bezpieczeństwa”. Jak twierdzą, standardy te powinny być równie rygorystyczne, jak te obowiązujące w lotnictwie czy przy dopuszczaniu do obrotu nowych leków i urządzeń medycznych.

Czytaj więcej

Roboty z AI zrobią to, co robi człowiek? Sztuczna inteligencja dla maszyn od Google

„Jeśli system AI ma kierować robotem, który wchodzi w interakcję z osobami wrażliwymi, musi być poddany wysokim standardom” – pisze współautorka badania Rumaisa Azeem z King's College London.

Jej zdaniem istnieje pilna potrzeba wprowadzenia rutynowych i kompleksowych ocen ryzyka związanego ze sztuczną inteligencją, zanim zostanie ona wdrożona w robotach.

Z tego artykułu się dowiesz:

  • Dlaczego roboty napędzane sztuczną inteligencją mogą być niebezpieczne?
  • Jakie wnioski płyną z badania dotyczącego dużych modeli językowych?
  • Jakie rozwiązania sugerują naukowcy w celu zwiększenia bezpieczeństwa?
Pozostało jeszcze 94% artykułu

Jak wynika z najnowszego badania przeprowadzonego przez specjalistów z King's College London i Carnegie Mellon University, maszyny z „mózgiem” AI, bazującym na popularnych LLM-ach (duże modele językowe), mając dostęp m.in. do danych osobowych, są skłonne do wyrządzania realnej krzywdy i dyskryminacji. Badacze wzywają do natychmiastowego wprowadzenia standardów certyfikacji dla tego typu maszyn.

Jak roboty zagrażają ludziom?

Pozostało jeszcze 90% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Czy można jeszcze ufać własnym oczom? Eksperci mówią, jak rozpoznać wideo stworzone przez AI
Technologie
Kometa 3I/ATLAS rozbudza wyobraźnię. Zaskakuje naukowców i inspiruje teorie o obcych
Technologie
Bot pomógł zajść w ciążę. To pierwszy taki przypadek. AI wyleczy niepłodność?
Technologie
Czy AI zastąpi obsługę klienta? Chatbot zaczął przeklinać i nazwał się bezużytecznym
Materiał Promocyjny
Rynek europejski potrzebuje lepszych regulacji
Technologie
„On mnie rozumie, rodzice nie". Nastolatki uciekają do chatbotów AI, a eksperci biją na alarm
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama