Reklama

Ciemna strona AI w medycynie. Eksperci ostrzegają: Pacjenci mogą stracić

Wykorzystanie sztucznej inteligencji w opiece zdrowotnej może prowadzić do skomplikowanych sporów prawnych, zwłaszcza w kontekście ustalania odpowiedzialności za błędy medyczne – ostrzegają eksperci. A to zaledwie wierzchołek góry lodowej, czyli wyzwań związanych z AI w medycynie.
AI wykorzystywana jest dziś w niemal każdym obszarze ochrony zdrowia - wynika z nowego raportu

AI wykorzystywana jest dziś w niemal każdym obszarze ochrony zdrowia - wynika z nowego raportu

Foto: Adobe Stock

Z tego artykułu dowiesz się:

  • Jakie prawne wyzwania związane są z wykorzystaniem AI w medycynie?
  • W jakich obszarach ochrony zdrowia AI już znajduje zastosowanie?
  • Jakie są trudności w ocenie bezpieczeństwa i skuteczności narzędzi AI?
  • Jakie polskie badania są związane z wykorzystaniem AI w medycynie?

Szczyt zorganizowany przez Journal of the American Medical Association (JAMA) poświęcony sztucznej inteligencji zgromadził szerokie grono ekspertów związanych z ochroną zdrowia, w tym lekarzy, firmy technologiczne, organy regulacyjne, ubezpieczycieli, etyków, prawników i ekonomistów. Jego wynikiem jest raport „AI, Health, and Health Care Today and Tomorrow. The JAMA Summit Report on Artificial Intelligence” opublikowany 13 października. Jednym z jego współautorów jest prof. Glenn Cohen z Harvard Law School, który zwrócił uwagę m.in. na fakt, że skutkiem ubocznym wdrażania różnego rodzaju narzędzi AI mogą być trudności w wykazywaniu błędów w użytkowaniu tych narzędzi lub błędów popełnionych na etapie ich projektowania. To może utrudnić pacjentom dochodzenie swoich praw przed sądem – informuje „The Guardian”.

Wyzwaniem może być też ustalenie, kto jest odpowiedzialny za błąd. – Wzajemne oddziaływanie między stronami może również stanowić wyzwanie dla wniesienia pozwu – strony mogą wskazywać się wzajemnie jako strona winna, mogą też mieć obowiązujące porozumienia umowne regulujące odpowiedzialność lub toczyć pozwy o odszkodowanie – mówi prof. Cohen cytowany przez „Guardiana”.

Ścieżka wdrażania i rozwoju AI „pozostaje niejasna”

Autorzy raportu nie mają wątpliwości, że sztuczna inteligencja w nadchodzących latach zrewolucjonizuje każdy aspekt zdrowia i opieki zdrowotnej. Wskazują, że zakres, skala i tempo zmian są ogromne. „Istnieje ogromny entuzjazm wobec potencjału AI – szczególnie w świetle ostatnich postępów – do rozwiązywania od dawna istniejących problemów związanych z dostępnością, kosztami i jakością świadczenia opieki” – czytamy. „Jednak optymalna ścieżka rozwoju i wdrażania AI pozostaje niejasna. W przeciwieństwie do leków czy tradycyjnych urządzeń medycznych brakuje obecnie spójnych ram zapewniających solidną, bezpieczną, przejrzystą i standaryzowaną ocenę, regulację, wdrażanie oraz monitorowanie nowych narzędzi i technologii opartych na AI” – czytamy w opracowaniu.

Czytaj więcej

Dzięki AI zmniejszył zatrudnienie o połowę. Szef Klarny zapowiada szok na rynku pracy
Reklama
Reklama

Gdzie w ochronie zdrowia wykorzystuje się AI?

Autorzy raportu wskazują, że sztuczna inteligencja już dziś wykorzystywana jest w każdym obszarze ochrony zdrowia. Obejmuje zarówno narzędzia kliniczne (np. systemy alarmowe dotyczące sepsy czy oprogramowanie do przesiewowego wykrywania retinopatii cukrzycowej), technologie wykorzystywane przez osoby z problemami zdrowotnymi (np. aplikacje mobilne dotyczące zdrowia), narzędzia stosowane przez systemy opieki zdrowotnej w celu usprawnienia działalności (np. zarządzanie cyklem przychodów czy planowanie grafików), jak i rozwiązania hybrydowe wspierające zarówno operacje biznesowe (np. dokumentacja i rozliczenia), jak i działania kliniczne (np. sugerowanie diagnoz lub planów leczenia).

Bezpieczeństwo i skuteczność AI w ochronie zdrowia. Jak je ocenić?

Jednym z fundamentalnych wyzwań we wdrażaniu narzędzi AI jest kwestia oceny ich wpływu na system bezpieczeństwa i skuteczności. Eksperci są zgodni co do tego, że AI może przynieść wiele korzyści całemu systemowi, jednak istnieją również powody do obaw. Jednym z nich jest fakt, że wiele narzędzi wykorzystujących sztuczną inteligencję pozostaje poza zakresem kontroli instytucji nadzorujących, takich jak Amerykańska Agencja ds. Żywności i Leków (FDA).

Czytaj więcej

ChatGPT i Gemini poważnie zagrożone. Naukowcy odkryli słaby punkt

To jednak nie wszystko. Autorzy wskazują, że już sama specyfika AI jest powodem, dla którego bardzo trudno jest ją ocenić według dotychczasowych metod i kryteriów. „Głównym wyzwaniem w ocenie skuteczności jest fakt, że efekty działania danego narzędzia w dużym stopniu zależą od interfejsu człowiek–komputer, poziomu przeszkolenia użytkownika oraz kontekstu, w jakim narzędzie jest stosowane. Liczne inicjatywy określają standardy odpowiedzialnego stosowania AI, ale większość z nich koncentruje się na monitorowaniu bezpieczeństwa (np. wykrywaniu błędów generatywnych modeli) lub zapewnieniu zgodności instytucjonalnej z różnymi procedurami, a nie na ocenie skuteczności (czyli wykazaniu poprawy wyników zdrowotnych)” – czytamy.

Wykorzystanie algorytmów przez ubezpieczycieli

Raport odnosi się do sytuacji panującej w USA i niektóre z opisanych w nim wyzwań związane są ze specyfiką tamtejszego rynku. Jednym z nich jest wykorzystanie algorytmów AI przez ubezpieczycieli do oceny wniosków o tzw. wcześniejszą autoryzację składanych przez lekarzy. Wcześniejsza autoryzacja (ang. prior authorization lub preauthorization) to procedura administracyjna, w której lekarz lub pacjent musi uzyskać zgodę ubezpieczyciela przed wykonaniem danej usługi medycznej, podaniem leku czy przeprowadzeniem badania. Brak zgody oznacza, że firma ubezpieczeniowa nie pokrywa kosztów.

Polskie badania: Korzystanie z AI może obniżyć umiejętności lekarzy

Ryzyka i szanse związane z wykorzystaniem AI w medycynie są przedmiotem analiz również w Polsce. Niedawno głośno było o wynikach badań opublikowanych w „The Lancet Gastroenterology & Hepatology” wykonanych przy udziale polskich pracowni endoskopowych.

Reklama
Reklama

Czytaj więcej

AI osłabia umiejętności lekarzy? O badaniu z Polski rozpisują się światowe media

Analizowano w nich wyniki kolonoskopii przeprowadzanych przez lekarzy przy wsparciu AI oraz bez udziału tej technologii. Uzyskane dane wskazują, że korzystanie przez lekarzy z pomocy AI sprawiło, że kiedy przestali się nią wspierać, ich skuteczność się zmniejszyła (w porównaniu do poziomu, jaki mieli, zanim zaczęli korzystać z AI). Uzyskany przez nich wskaźnik wykrywalności zmian, które mogą przekształcić się w nowotwór, „przed AI” wynosił 28,4 proc., zaś „po AI” – 22,4 proc.

Technologie
ChatGPT i Gemini poważnie zagrożone. Naukowcy odkryli słaby punkt
Materiał Promocyjny
Bezpieczeństwo to nie dodatek. To fundament systemu płatności
Materiał Promocyjny
Dane zamiast deklaracji. ESG oparte na faktach
Kosmos
Satelity Starlink Elona Muska deorbitują w alarmującym tempie. Dlaczego to problem?
Technologie
Koniec z dominacją GPS? To ma być centymetrowa precyzja bez satelitów
Technologie
Dlaczego robocie masz takie wielkie oczy? Jest ważny powód
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama