Z tego artykułu dowiesz się:
- Jakie prawne wyzwania związane są z wykorzystaniem AI w medycynie?
- W jakich obszarach ochrony zdrowia AI już znajduje zastosowanie?
- Jakie są trudności w ocenie bezpieczeństwa i skuteczności narzędzi AI?
- Jakie polskie badania są związane z wykorzystaniem AI w medycynie?
Szczyt zorganizowany przez Journal of the American Medical Association (JAMA) poświęcony sztucznej inteligencji zgromadził szerokie grono ekspertów związanych z ochroną zdrowia, w tym lekarzy, firmy technologiczne, organy regulacyjne, ubezpieczycieli, etyków, prawników i ekonomistów. Jego wynikiem jest raport „AI, Health, and Health Care Today and Tomorrow. The JAMA Summit Report on Artificial Intelligence” opublikowany 13 października. Jednym z jego współautorów jest prof. Glenn Cohen z Harvard Law School, który zwrócił uwagę m.in. na fakt, że skutkiem ubocznym wdrażania różnego rodzaju narzędzi AI mogą być trudności w wykazywaniu błędów w użytkowaniu tych narzędzi lub błędów popełnionych na etapie ich projektowania. To może utrudnić pacjentom dochodzenie swoich praw przed sądem – informuje „The Guardian”.
Wyzwaniem może być też ustalenie, kto jest odpowiedzialny za błąd. – Wzajemne oddziaływanie między stronami może również stanowić wyzwanie dla wniesienia pozwu – strony mogą wskazywać się wzajemnie jako strona winna, mogą też mieć obowiązujące porozumienia umowne regulujące odpowiedzialność lub toczyć pozwy o odszkodowanie – mówi prof. Cohen cytowany przez „Guardiana”.
Ścieżka wdrażania i rozwoju AI „pozostaje niejasna”
Autorzy raportu nie mają wątpliwości, że sztuczna inteligencja w nadchodzących latach zrewolucjonizuje każdy aspekt zdrowia i opieki zdrowotnej. Wskazują, że zakres, skala i tempo zmian są ogromne. „Istnieje ogromny entuzjazm wobec potencjału AI – szczególnie w świetle ostatnich postępów – do rozwiązywania od dawna istniejących problemów związanych z dostępnością, kosztami i jakością świadczenia opieki” – czytamy. „Jednak optymalna ścieżka rozwoju i wdrażania AI pozostaje niejasna. W przeciwieństwie do leków czy tradycyjnych urządzeń medycznych brakuje obecnie spójnych ram zapewniających solidną, bezpieczną, przejrzystą i standaryzowaną ocenę, regulację, wdrażanie oraz monitorowanie nowych narzędzi i technologii opartych na AI” – czytamy w opracowaniu.
Czytaj więcej
Szwedzki gigant świadczący internetowe usługi finansowe oparte na zasadzie „kup teraz, zapłać później”, dzięki inwestycji w AI zmniejszył radykalni...
Gdzie w ochronie zdrowia wykorzystuje się AI?
Autorzy raportu wskazują, że sztuczna inteligencja już dziś wykorzystywana jest w każdym obszarze ochrony zdrowia. Obejmuje zarówno narzędzia kliniczne (np. systemy alarmowe dotyczące sepsy czy oprogramowanie do przesiewowego wykrywania retinopatii cukrzycowej), technologie wykorzystywane przez osoby z problemami zdrowotnymi (np. aplikacje mobilne dotyczące zdrowia), narzędzia stosowane przez systemy opieki zdrowotnej w celu usprawnienia działalności (np. zarządzanie cyklem przychodów czy planowanie grafików), jak i rozwiązania hybrydowe wspierające zarówno operacje biznesowe (np. dokumentacja i rozliczenia), jak i działania kliniczne (np. sugerowanie diagnoz lub planów leczenia).
Bezpieczeństwo i skuteczność AI w ochronie zdrowia. Jak je ocenić?
Jednym z fundamentalnych wyzwań we wdrażaniu narzędzi AI jest kwestia oceny ich wpływu na system bezpieczeństwa i skuteczności. Eksperci są zgodni co do tego, że AI może przynieść wiele korzyści całemu systemowi, jednak istnieją również powody do obaw. Jednym z nich jest fakt, że wiele narzędzi wykorzystujących sztuczną inteligencję pozostaje poza zakresem kontroli instytucji nadzorujących, takich jak Amerykańska Agencja ds. Żywności i Leków (FDA).
Czytaj więcej
Naukowcy odkryli, że duże modele językowe (LLM), takie jak ChatGPT czy Gemini, są podatne na zatruwanie danych za pomocą niewielkiej próbki uszkodz...
To jednak nie wszystko. Autorzy wskazują, że już sama specyfika AI jest powodem, dla którego bardzo trudno jest ją ocenić według dotychczasowych metod i kryteriów. „Głównym wyzwaniem w ocenie skuteczności jest fakt, że efekty działania danego narzędzia w dużym stopniu zależą od interfejsu człowiek–komputer, poziomu przeszkolenia użytkownika oraz kontekstu, w jakim narzędzie jest stosowane. Liczne inicjatywy określają standardy odpowiedzialnego stosowania AI, ale większość z nich koncentruje się na monitorowaniu bezpieczeństwa (np. wykrywaniu błędów generatywnych modeli) lub zapewnieniu zgodności instytucjonalnej z różnymi procedurami, a nie na ocenie skuteczności (czyli wykazaniu poprawy wyników zdrowotnych)” – czytamy.
Wykorzystanie algorytmów przez ubezpieczycieli
Raport odnosi się do sytuacji panującej w USA i niektóre z opisanych w nim wyzwań związane są ze specyfiką tamtejszego rynku. Jednym z nich jest wykorzystanie algorytmów AI przez ubezpieczycieli do oceny wniosków o tzw. wcześniejszą autoryzację składanych przez lekarzy. Wcześniejsza autoryzacja (ang. prior authorization lub preauthorization) to procedura administracyjna, w której lekarz lub pacjent musi uzyskać zgodę ubezpieczyciela przed wykonaniem danej usługi medycznej, podaniem leku czy przeprowadzeniem badania. Brak zgody oznacza, że firma ubezpieczeniowa nie pokrywa kosztów.
Polskie badania: Korzystanie z AI może obniżyć umiejętności lekarzy
Ryzyka i szanse związane z wykorzystaniem AI w medycynie są przedmiotem analiz również w Polsce. Niedawno głośno było o wynikach badań opublikowanych w „The Lancet Gastroenterology & Hepatology” wykonanych przy udziale polskich pracowni endoskopowych.
Czytaj więcej
Korzystanie przez medyków z rutynowego wsparcia narzędzi sztucznej inteligencji zmniejsza ich czujność i skuteczność. Dowodzą tego analizy przeprow...
Analizowano w nich wyniki kolonoskopii przeprowadzanych przez lekarzy przy wsparciu AI oraz bez udziału tej technologii. Uzyskane dane wskazują, że korzystanie przez lekarzy z pomocy AI sprawiło, że kiedy przestali się nią wspierać, ich skuteczność się zmniejszyła (w porównaniu do poziomu, jaki mieli, zanim zaczęli korzystać z AI). Uzyskany przez nich wskaźnik wykrywalności zmian, które mogą przekształcić się w nowotwór, „przed AI” wynosił 28,4 proc., zaś „po AI” – 22,4 proc.