Reklama

Sztuczna inteligencja w medycynie wykazuje uprzedzenia. Nowe badania z Harvardu

Używana przez patomorfologów AI może być nieobiektywna. Według naukowców jest w stanie wydobyć z preparatów, które bada „za dużo danych”, co może wpływać na końcowe wnioski i ocenę.

Publikacja: 21.12.2025 08:00

Sztuczna inteligencja używana przez patomorfologów może być nieobiektywna

Sztuczna inteligencja używana przez patomorfologów może być nieobiektywna

Foto: Adobe Stock

Patomorfologia odgrywa kluczową rolę w rozpoznawaniu i leczeniu nowotworów. Dla wykwalifikowanego eksperta oglądanie preparatu pobranego od pacjenta przypomina ocenianie anonimowego testu. Preparat zawiera kluczowe informacje o samej chorobie, ale nie ujawnia żadnych danych osobowych pacjenta.

To założenie nie do końca sprawdza się jednak w przypadku systemów sztucznej inteligencji. Nowe badanie prowadzone przez naukowców z Harvard Medical School pokazuje, że modele AI używane w patomorfologii potrafią wydobywać informacje demograficzne bezpośrednio z preparatów tkankowych – pisze portal SciTechDaily. To z kolei może prowadzić do uprzedzeń w diagnostyce nowotworów w różnych grupach pacjentów. Analizując kilka powszechnie stosowanych modeli AI przeznaczonych do wykrywania nowotworów, badacze stwierdzili, że ich skuteczność różniła się w zależności od deklarowanej przez pacjentów płci, rasy i wieku. Zidentyfikowali również przyczyny tych rozbieżności.

FAIR-Path ma naprawić błędy w modelach AI

Aby rozwiązać ten problem, zespół opracował nową metodę o nazwie FAIR-Path, która znacząco ograniczyła uprzedzenia w testowanych modelach. – Odczytywanie cech demograficznych z preparatu patomorfologicznego uchodzi za „mission impossible” dla ludzi, dlatego uprzedzenia w AI patomorfologicznej były dla nas zaskoczeniem – powiedział główny autor badania Kun-Hsing Yu, profesor nadzwyczajny informatyki biomedycznej w Blavatnik Institute przy HMS oraz adiunkt patomorfologii w Brigham and Women’s Hospital.

Czytaj więcej

Sztuczna inteligencja wykrywa choroby, zanim się pojawią. Medycyna wchodzi w nową erę

Yu podkreślił, że identyfikowanie i korygowanie uprzedzeń w medycznych systemach AI jest kluczowe, ponieważ mogą one wpływać na trafność diagnozy i wyniki leczenia pacjentów. Sukces FAIR-Path sugeruje, że poprawa obiektywizmu w AI stosowanej w patomorfologii nowotworów – a potencjalnie także w innych narzędziach medycznych AI – może być osiągalna przy stosunkowo niewielkich modyfikacjach.

Reklama
Reklama

Naukowcy sprawdzili wszelkie przypadki uprzedzeń w czterech powszechnie stosowanych modelach AI używanej w patomorfologii, rozwijanych z myślą o diagnostyce nowotworów. Te systemy głębokiego uczenia są trenowane na dużych zbiorach opisanych preparatów histopatologicznych, co pozwala im uczyć się wzorców wizualnych związanych z chorobą i stosować tę wiedzę do nowych próbek.

We wszystkich czterech modelach badacze stwierdzili spójne różnice w skuteczności. Trafność diagnostyczna była niższa w określonych grupach zdefiniowanych przez rasę, płeć i wiek. Przykładowo, modele miały trudności z rozróżnianiem podtypów raka płuca u pacjentów afroamerykańskich oraz u mężczyzn. Gorzej radziły sobie także z podtypami raka piersi u młodszych pacjentów i wykazywały obniżoną skuteczność w wykrywaniu nowotworów piersi, nerek, tarczycy i żołądka w określonych grupach demograficznych. Łącznie takie rozbieżności pojawiły się w około 29 proc. analizowanych zadań diagnostycznych.

AI wydobywa „za dużo” informacji z badanych preparatów

Zdaniem naukowców błędy te wynikają z faktu, że modele wydobywają informacje demograficzne z obrazów tkanki, a następnie opierają swoje wnioski diagnostyczne na wzorcach powiązanych z tymi cechami.

Wyniki te były zaskakujące dla badaczy, ponieważ zakładali, że ocena patomorfologiczna jest obiektywna. Przy analizie obrazów nie trzeba poznawać danych demograficznych pacjenta, aby postawić diagnozę.

To doprowadziło zespół do kluczowego pytania: dlaczego AI w patomorfologii nie spełnia tego samego standardu obiektywności?

Czytaj więcej

AI osłabia umiejętności lekarzy? O badaniu z Polski rozpisują się światowe media
Reklama
Reklama

Przede wszystkim dane treningowe są często nierównomierne. Próbki łatwiej pozyskać z niektórych grup demograficznych niż z innych, co oznacza, że modele AI uczą się na niezrównoważonych zbiorach danych. Utrudnia to trafną diagnostykę w grupach niedostatecznie reprezentowanych, m.in. ze względu na rasę, wiek czy płeć.

Sztuczna inteligencja wydobywa z preparatów za dużo informacji?

Jednak w niektórych przypadkach modele radziły sobie gorzej w określonych grupach demograficznych nawet wtedy, gdy liczebność próbek była podobna.

Dalsza analiza wskazała na różnice w częstości występowania chorób. Niektóre nowotwory częściej pojawiają się w określonych populacjach, co pozwala modelom AI osiągać wyższą skuteczność w tych grupach. W efekcie te same modele mogą mieć trudności w diagnozowaniu nowotworów w populacjach, w których dana choroba występuje rzadziej.

Modele wydają się także wykrywać subtelne różnice molekularne między grupami demograficznymi. Na przykład mogą identyfikować mutacje w genach napędzających nowotwory i wykorzystywać je jako skróty diagnostyczne. Takie podejście zawodzi w populacjach, w których dane mutacje występują rzadziej. Z czasem może to prowadzić do sytuacji, w której modele koncentrują się bardziej na cechach powiązanych z demografią niż z samą chorobą, co obniża skuteczność w zróżnicowanych populacjach pacjentów.

Łącznie – jak podkreśla Yu – wyniki te pokazują, że uprzedzenia w AI patomorfologicznej wynikają nie tylko z jakości i równowagi danych treningowych, lecz także ze sposobu, w jaki modele uczą się interpretować to, co widzą.

Dlatego też powstał FAIR-Path – system oparty na znanej technice uczenia maszynowego zwanej uczeniem kontrastywnym. Metoda ta uczy modele AI silniejszego koncentrowania się na istotnych różnicach, takich jak różnice między typami nowotworów, przy jednoczesnym ograniczeniu uwagi poświęcanej mniej istotnym cechom, w tym charakterystykom demograficznym.

Reklama
Reklama

Po zastosowaniu FAIR-Path w testowanych modelach różnice diagnostyczne spadły o około 88 proc. Wynik ten jest obiecujący, ponieważ sugeruje, że istotne ograniczenie uprzedzeń jest możliwe nawet bez idealnie zrównoważonych lub w pełni reprezentatywnych zbiorów danych treningowych.

Technologie
Na ADHD kamizelka z AI. Zaskakujący projekt naukowców z Hongkongu
Technologie
5G, AI, metaverse i cyfrowe bliźniaki: technologie, które dziś zmieniają biznes
Technologie
Twórca iRobota nazywa wizję Muska „fantazją”. Ale Chiny już budują miasto maszyn
Technologie
Przełom w sztucznej inteligencji. Ten model AI przewiduje ludzkie działania
Technologie
Koniec zachwytów nad AI? Naukowcy zapowiadają na 2026 rok bolesne „sprawdzam"
Materiał Promocyjny
Działamy zgodnie z duchem zrównoważonego rozwoju
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama
Reklama