Reklama
Rozwiń
Reklama

Ciemna strona AI w medycynie. Eksperci ostrzegają: Pacjenci mogą stracić

Wykorzystanie sztucznej inteligencji w opiece zdrowotnej może prowadzić do skomplikowanych sporów prawnych, zwłaszcza w kontekście ustalania odpowiedzialności za błędy medyczne – ostrzegają eksperci. A to zaledwie wierzchołek góry lodowej, czyli wyzwań związanych z AI w medycynie.

Publikacja: 16.10.2025 11:40

AI wykorzystywana jest dziś w niemal każdym obszarze ochrony zdrowia - wynika z nowego raportu

AI wykorzystywana jest dziś w niemal każdym obszarze ochrony zdrowia - wynika z nowego raportu

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie prawne wyzwania związane są z wykorzystaniem AI w medycynie?
  • W jakich obszarach ochrony zdrowia AI już znajduje zastosowanie?
  • Jakie są trudności w ocenie bezpieczeństwa i skuteczności narzędzi AI?
  • Jakie polskie badania są związane z wykorzystaniem AI w medycynie?

Szczyt zorganizowany przez Journal of the American Medical Association (JAMA) poświęcony sztucznej inteligencji zgromadził szerokie grono ekspertów związanych z ochroną zdrowia, w tym lekarzy, firmy technologiczne, organy regulacyjne, ubezpieczycieli, etyków, prawników i ekonomistów. Jego wynikiem jest raport „AI, Health, and Health Care Today and Tomorrow. The JAMA Summit Report on Artificial Intelligence” opublikowany 13 października. Jednym z jego współautorów jest prof. Glenn Cohen z Harvard Law School, który zwrócił uwagę m.in. na fakt, że skutkiem ubocznym wdrażania różnego rodzaju narzędzi AI mogą być trudności w wykazywaniu błędów w użytkowaniu tych narzędzi lub błędów popełnionych na etapie ich projektowania. To może utrudnić pacjentom dochodzenie swoich praw przed sądem – informuje „The Guardian”.

Wyzwaniem może być też ustalenie, kto jest odpowiedzialny za błąd. – Wzajemne oddziaływanie między stronami może również stanowić wyzwanie dla wniesienia pozwu – strony mogą wskazywać się wzajemnie jako strona winna, mogą też mieć obowiązujące porozumienia umowne regulujące odpowiedzialność lub toczyć pozwy o odszkodowanie – mówi prof. Cohen cytowany przez „Guardiana”.

Ścieżka wdrażania i rozwoju AI „pozostaje niejasna”

Autorzy raportu nie mają wątpliwości, że sztuczna inteligencja w nadchodzących latach zrewolucjonizuje każdy aspekt zdrowia i opieki zdrowotnej. Wskazują, że zakres, skala i tempo zmian są ogromne. „Istnieje ogromny entuzjazm wobec potencjału AI – szczególnie w świetle ostatnich postępów – do rozwiązywania od dawna istniejących problemów związanych z dostępnością, kosztami i jakością świadczenia opieki” – czytamy. „Jednak optymalna ścieżka rozwoju i wdrażania AI pozostaje niejasna. W przeciwieństwie do leków czy tradycyjnych urządzeń medycznych brakuje obecnie spójnych ram zapewniających solidną, bezpieczną, przejrzystą i standaryzowaną ocenę, regulację, wdrażanie oraz monitorowanie nowych narzędzi i technologii opartych na AI” – czytamy w opracowaniu.

Czytaj więcej

Dzięki AI zmniejszył zatrudnienie o połowę. Szef Klarny zapowiada szok na rynku pracy
Reklama
Reklama

Gdzie w ochronie zdrowia wykorzystuje się AI?

Autorzy raportu wskazują, że sztuczna inteligencja już dziś wykorzystywana jest w każdym obszarze ochrony zdrowia. Obejmuje zarówno narzędzia kliniczne (np. systemy alarmowe dotyczące sepsy czy oprogramowanie do przesiewowego wykrywania retinopatii cukrzycowej), technologie wykorzystywane przez osoby z problemami zdrowotnymi (np. aplikacje mobilne dotyczące zdrowia), narzędzia stosowane przez systemy opieki zdrowotnej w celu usprawnienia działalności (np. zarządzanie cyklem przychodów czy planowanie grafików), jak i rozwiązania hybrydowe wspierające zarówno operacje biznesowe (np. dokumentacja i rozliczenia), jak i działania kliniczne (np. sugerowanie diagnoz lub planów leczenia).

Bezpieczeństwo i skuteczność AI w ochronie zdrowia. Jak je ocenić?

Jednym z fundamentalnych wyzwań we wdrażaniu narzędzi AI jest kwestia oceny ich wpływu na system bezpieczeństwa i skuteczności. Eksperci są zgodni co do tego, że AI może przynieść wiele korzyści całemu systemowi, jednak istnieją również powody do obaw. Jednym z nich jest fakt, że wiele narzędzi wykorzystujących sztuczną inteligencję pozostaje poza zakresem kontroli instytucji nadzorujących, takich jak Amerykańska Agencja ds. Żywności i Leków (FDA).

Czytaj więcej

ChatGPT i Gemini poważnie zagrożone. Naukowcy odkryli słaby punkt

To jednak nie wszystko. Autorzy wskazują, że już sama specyfika AI jest powodem, dla którego bardzo trudno jest ją ocenić według dotychczasowych metod i kryteriów. „Głównym wyzwaniem w ocenie skuteczności jest fakt, że efekty działania danego narzędzia w dużym stopniu zależą od interfejsu człowiek–komputer, poziomu przeszkolenia użytkownika oraz kontekstu, w jakim narzędzie jest stosowane. Liczne inicjatywy określają standardy odpowiedzialnego stosowania AI, ale większość z nich koncentruje się na monitorowaniu bezpieczeństwa (np. wykrywaniu błędów generatywnych modeli) lub zapewnieniu zgodności instytucjonalnej z różnymi procedurami, a nie na ocenie skuteczności (czyli wykazaniu poprawy wyników zdrowotnych)” – czytamy.

Wykorzystanie algorytmów przez ubezpieczycieli

Raport odnosi się do sytuacji panującej w USA i niektóre z opisanych w nim wyzwań związane są ze specyfiką tamtejszego rynku. Jednym z nich jest wykorzystanie algorytmów AI przez ubezpieczycieli do oceny wniosków o tzw. wcześniejszą autoryzację składanych przez lekarzy. Wcześniejsza autoryzacja (ang. prior authorization lub preauthorization) to procedura administracyjna, w której lekarz lub pacjent musi uzyskać zgodę ubezpieczyciela przed wykonaniem danej usługi medycznej, podaniem leku czy przeprowadzeniem badania. Brak zgody oznacza, że firma ubezpieczeniowa nie pokrywa kosztów.

Polskie badania: Korzystanie z AI może obniżyć umiejętności lekarzy

Ryzyka i szanse związane z wykorzystaniem AI w medycynie są przedmiotem analiz również w Polsce. Niedawno głośno było o wynikach badań opublikowanych w „The Lancet Gastroenterology & Hepatology” wykonanych przy udziale polskich pracowni endoskopowych.

Reklama
Reklama

Czytaj więcej

AI osłabia umiejętności lekarzy? O badaniu z Polski rozpisują się światowe media

Analizowano w nich wyniki kolonoskopii przeprowadzanych przez lekarzy przy wsparciu AI oraz bez udziału tej technologii. Uzyskane dane wskazują, że korzystanie przez lekarzy z pomocy AI sprawiło, że kiedy przestali się nią wspierać, ich skuteczność się zmniejszyła (w porównaniu do poziomu, jaki mieli, zanim zaczęli korzystać z AI). Uzyskany przez nich wskaźnik wykrywalności zmian, które mogą przekształcić się w nowotwór, „przed AI” wynosił 28,4 proc., zaś „po AI” – 22,4 proc.

Z tego artykułu dowiesz się:

  • Jakie prawne wyzwania związane są z wykorzystaniem AI w medycynie?
  • W jakich obszarach ochrony zdrowia AI już znajduje zastosowanie?
  • Jakie są trudności w ocenie bezpieczeństwa i skuteczności narzędzi AI?
  • Jakie polskie badania są związane z wykorzystaniem AI w medycynie?
Pozostało jeszcze 95% artykułu

Szczyt zorganizowany przez Journal of the American Medical Association (JAMA) poświęcony sztucznej inteligencji zgromadził szerokie grono ekspertów związanych z ochroną zdrowia, w tym lekarzy, firmy technologiczne, organy regulacyjne, ubezpieczycieli, etyków, prawników i ekonomistów. Jego wynikiem jest raport „AI, Health, and Health Care Today and Tomorrow. The JAMA Summit Report on Artificial Intelligence” opublikowany 13 października. Jednym z jego współautorów jest prof. Glenn Cohen z Harvard Law School, który zwrócił uwagę m.in. na fakt, że skutkiem ubocznym wdrażania różnego rodzaju narzędzi AI mogą być trudności w wykazywaniu błędów w użytkowaniu tych narzędzi lub błędów popełnionych na etapie ich projektowania. To może utrudnić pacjentom dochodzenie swoich praw przed sądem – informuje „The Guardian”.

Pozostało jeszcze 86% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
ChatGPT i Gemini poważnie zagrożone. Naukowcy odkryli słaby punkt
Materiał Promocyjny
Bank Pekao uczy cyberodporności
Kosmos
Satelity Starlink Elona Muska deorbitują w alarmującym tempie. Dlaczego to problem?
Technologie
„Iluzja bezpieczeństwa AI”. Naukowcy ujawniają niepokojące dane o ChatGPT-5
Technologie
Metal twardszy niż stal powstaje z żelu. Przełom w Szwajcarii
Technologie
Mikrofalowy mózg przyszłości. Rewolucyjny chip, który ma zmienić smartfony i AI
Materiał Promocyjny
Transformacja energetyczna: Były pytania, czas na odpowiedzi
Reklama
Reklama