Patomorfologia odgrywa kluczową rolę w rozpoznawaniu i leczeniu nowotworów. Dla wykwalifikowanego eksperta oglądanie preparatu pobranego od pacjenta przypomina ocenianie anonimowego testu. Preparat zawiera kluczowe informacje o samej chorobie, ale nie ujawnia żadnych danych osobowych pacjenta.
To założenie nie do końca sprawdza się jednak w przypadku systemów sztucznej inteligencji. Nowe badanie prowadzone przez naukowców z Harvard Medical School pokazuje, że modele AI używane w patomorfologii potrafią wydobywać informacje demograficzne bezpośrednio z preparatów tkankowych – pisze portal SciTechDaily. To z kolei może prowadzić do uprzedzeń w diagnostyce nowotworów w różnych grupach pacjentów. Analizując kilka powszechnie stosowanych modeli AI przeznaczonych do wykrywania nowotworów, badacze stwierdzili, że ich skuteczność różniła się w zależności od deklarowanej przez pacjentów płci, rasy i wieku. Zidentyfikowali również przyczyny tych rozbieżności.
FAIR-Path ma naprawić błędy w modelach AI
Aby rozwiązać ten problem, zespół opracował nową metodę o nazwie FAIR-Path, która znacząco ograniczyła uprzedzenia w testowanych modelach. – Odczytywanie cech demograficznych z preparatu patomorfologicznego uchodzi za „mission impossible” dla ludzi, dlatego uprzedzenia w AI patomorfologicznej były dla nas zaskoczeniem – powiedział główny autor badania Kun-Hsing Yu, profesor nadzwyczajny informatyki biomedycznej w Blavatnik Institute przy HMS oraz adiunkt patomorfologii w Brigham and Women’s Hospital.
Czytaj więcej
AI wkracza do medycyny z bezprecedensowymi możliwościami. Nowe systemy, takie jak DOLPHIN i HPV-DeepSeek, potrafią wykrywać choroby nawet na wiele...
Yu podkreślił, że identyfikowanie i korygowanie uprzedzeń w medycznych systemach AI jest kluczowe, ponieważ mogą one wpływać na trafność diagnozy i wyniki leczenia pacjentów. Sukces FAIR-Path sugeruje, że poprawa obiektywizmu w AI stosowanej w patomorfologii nowotworów – a potencjalnie także w innych narzędziach medycznych AI – może być osiągalna przy stosunkowo niewielkich modyfikacjach.
Naukowcy sprawdzili wszelkie przypadki uprzedzeń w czterech powszechnie stosowanych modelach AI używanej w patomorfologii, rozwijanych z myślą o diagnostyce nowotworów. Te systemy głębokiego uczenia są trenowane na dużych zbiorach opisanych preparatów histopatologicznych, co pozwala im uczyć się wzorców wizualnych związanych z chorobą i stosować tę wiedzę do nowych próbek.
We wszystkich czterech modelach badacze stwierdzili spójne różnice w skuteczności. Trafność diagnostyczna była niższa w określonych grupach zdefiniowanych przez rasę, płeć i wiek. Przykładowo, modele miały trudności z rozróżnianiem podtypów raka płuca u pacjentów afroamerykańskich oraz u mężczyzn. Gorzej radziły sobie także z podtypami raka piersi u młodszych pacjentów i wykazywały obniżoną skuteczność w wykrywaniu nowotworów piersi, nerek, tarczycy i żołądka w określonych grupach demograficznych. Łącznie takie rozbieżności pojawiły się w około 29 proc. analizowanych zadań diagnostycznych.
AI wydobywa „za dużo” informacji z badanych preparatów
Zdaniem naukowców błędy te wynikają z faktu, że modele wydobywają informacje demograficzne z obrazów tkanki, a następnie opierają swoje wnioski diagnostyczne na wzorcach powiązanych z tymi cechami.
Wyniki te były zaskakujące dla badaczy, ponieważ zakładali, że ocena patomorfologiczna jest obiektywna. Przy analizie obrazów nie trzeba poznawać danych demograficznych pacjenta, aby postawić diagnozę.
To doprowadziło zespół do kluczowego pytania: dlaczego AI w patomorfologii nie spełnia tego samego standardu obiektywności?
Czytaj więcej
Korzystanie przez medyków z rutynowego wsparcia narzędzi sztucznej inteligencji zmniejsza ich czujność i skuteczność. Dowodzą tego analizy przeprow...
Przede wszystkim dane treningowe są często nierównomierne. Próbki łatwiej pozyskać z niektórych grup demograficznych niż z innych, co oznacza, że modele AI uczą się na niezrównoważonych zbiorach danych. Utrudnia to trafną diagnostykę w grupach niedostatecznie reprezentowanych, m.in. ze względu na rasę, wiek czy płeć.
Sztuczna inteligencja wydobywa z preparatów za dużo informacji?
Jednak w niektórych przypadkach modele radziły sobie gorzej w określonych grupach demograficznych nawet wtedy, gdy liczebność próbek była podobna.
Dalsza analiza wskazała na różnice w częstości występowania chorób. Niektóre nowotwory częściej pojawiają się w określonych populacjach, co pozwala modelom AI osiągać wyższą skuteczność w tych grupach. W efekcie te same modele mogą mieć trudności w diagnozowaniu nowotworów w populacjach, w których dana choroba występuje rzadziej.
Modele wydają się także wykrywać subtelne różnice molekularne między grupami demograficznymi. Na przykład mogą identyfikować mutacje w genach napędzających nowotwory i wykorzystywać je jako skróty diagnostyczne. Takie podejście zawodzi w populacjach, w których dane mutacje występują rzadziej. Z czasem może to prowadzić do sytuacji, w której modele koncentrują się bardziej na cechach powiązanych z demografią niż z samą chorobą, co obniża skuteczność w zróżnicowanych populacjach pacjentów.
Łącznie – jak podkreśla Yu – wyniki te pokazują, że uprzedzenia w AI patomorfologicznej wynikają nie tylko z jakości i równowagi danych treningowych, lecz także ze sposobu, w jaki modele uczą się interpretować to, co widzą.
Dlatego też powstał FAIR-Path – system oparty na znanej technice uczenia maszynowego zwanej uczeniem kontrastywnym. Metoda ta uczy modele AI silniejszego koncentrowania się na istotnych różnicach, takich jak różnice między typami nowotworów, przy jednoczesnym ograniczeniu uwagi poświęcanej mniej istotnym cechom, w tym charakterystykom demograficznym.
Po zastosowaniu FAIR-Path w testowanych modelach różnice diagnostyczne spadły o około 88 proc. Wynik ten jest obiecujący, ponieważ sugeruje, że istotne ograniczenie uprzedzeń jest możliwe nawet bez idealnie zrównoważonych lub w pełni reprezentatywnych zbiorów danych treningowych.