Reklama

Chatbot AI przeanalizuje wyniki badań użytkownika. Eksperci ostrzegają przed ryzykiem

Idąc śladem konkurentów, takich jak Amazon i OpenAI, Microsoft rozwija własnego asystenta opartego na sztucznej inteligencji tak, aby mógł analizować dane o zdrowiu użytkownika. Rozwiązanie to niesie ze sobą zarówno potencjalne korzyści, jak i ryzyka.
Chatbot AI chce mieć dostęp do twojej dokumentacji medycznej. Nowy pomysł Microsoftu budzi obawy

Chatbot AI chce mieć dostęp do twojej dokumentacji medycznej. Nowy pomysł Microsoftu budzi obawy

Foto: Photo by GORODENKOFF PRODUCTIONS/SCIENCE / GPR / SCIENCE PHOTO LIBRARY VIA AFP

Z tego artykułu dowiesz się:

  • Jak rozwijają się narzędzia AI do analizy danych zdrowotnych jak Microsoft Copilot Health.
  • Jakie są potencjalne korzyści z zastosowania chatbotów AI w opiece zdrowotnej.
  • Jakie są kluczowe zagrożenia wynikające z udostępniania danych medycznych firmom technologicznym.

Przez ostatnie kilka lat branża technologiczna przekonywała ludzi, że chatboty oparte na sztucznej inteligencji działają tym lepiej, im więcej danych im się dostarcza. Kolejnym krokiem jest skłonienie użytkowników do udostępniania najbardziej wrażliwych informacji – własnej dokumentacji medycznej – pisze „The New York Times”.

Microsoft właśnie zaprezentował narzędzie, które pozwoli użytkownikom udostępniać dokumentację z różnych placówek medycznych chatbotowi Copilot. Dane te mogą być następnie połączone z informacjami zbieranymi przez urządzenia monitorujące aktywność fizyczną, takie jak Apple Watch. Po przeanalizowaniu wszystkich danych chatbot stworzy ogólny przegląd problemów zdrowotnych użytkownika.

Czytaj więcej

ChatGPT przejmuje zdrowie. Czy lekarze mają się czego bać?

Microsoft nie jest jedyną firmą, która rozwija takie narzędzia. Także Amazon, OpenAI i Anthropic w tym roku rozpoczęły testy podobnych rozwiązań – odpowiednio Health AI, ChatGPT Health oraz Claude for Healthcare. Niestety chatboty trafiały już na nagłówki gazet z powodu przypadków wywoływania u niektórych użytkowników psychoz, izolacji czy niezdrowych nawyków.

Reklama
Reklama

Lekarze przyznają, że opieka zdrowotna wspierana przez AI może mieć pewne zalety – na przykład pomagać ludziom lepiej zrozumieć stan własnego zdrowia. Jednak udostępnianie dokumentacji medycznej firmom technologicznym wiąże się z wieloma zagrożeniami dla prywatności. Chatboty mogą też prowadzić do niepotrzebnych wizyt u lekarza.

Jak działa medyczny chatbot Copilota?

Na stronie internetowej i w aplikacji mobilnej Copilot użytkownicy będą mogli kliknąć zakładkę „Health” i utworzyć profil, odpowiadając na pytania dotyczące wieku i płci. Następnie będą mogli zdecydować, czy chcą udostępnić swoją dokumentację medyczną oraz dane z urządzeń takich jak Apple Watch, Fitbit czy monitor snu Oura.

Użytkownicy będą też mogli zadawać chatbotowi pytania lub opisywać objawy, na przykład: „Ostatnio źle śpię”. Chatbot przeanalizuje dokumentację medyczną i dane z urządzeń noszonych na ciele, aby przedstawić obserwacje, takie jak zmiany w jakości snu od czasu ostatniej wizyty w szpitalu.

Czytaj więcej

„AI wzmacniała urojenia”. Pierwszy pozew o zabójstwo z udziałem ChatGPT

Chatbot może także przygotować podsumowanie najważniejszych kwestii zdrowotnych, na które warto zwrócić uwagę – takich jak niedobór snu, cukrzyca czy niewielka aktywność fizyczna.

Początkowo Copilot Health będzie dostępny bezpłatnie po jego premierze jeszcze w tym roku. Microsoft zapowiedział jednak, że planuje wprowadzić opłatę abonamentową za korzystanie z tego narzędzia, choć nie podał jej wysokości.

Reklama
Reklama

Jak zrozumieć własną dokumentację medyczną?

Dokumentacja medyczna bywa dla pacjentów chaotyczna i trudna do zrozumienia, zwłaszcza gdy korzystają oni z różnych placówek medycznych. Każda z nich ma bowiem własną bazę danych. Sztuczna inteligencja Microsoftu mogłaby pomóc połączyć informacje z wielu placówek medycznych wraz z danymi z urządzeń monitorujących aktywność fizyczną użytkownika.

Według Microsoftu lekarz potrzebowałby nawet kilku godzin, aby ręcznie przeanalizować całą dokumentację medyczną pacjenta oraz dane z urządzeń fitness i przygotować ogólne podsumowanie jego stanu zdrowia. Copilot Health mógłby zrobić to w kilka sekund.

Czytaj więcej

„Niebezpieczne porady”. Brytyjscy naukowcy zbadali ChatGPT i alarmują

Chatboty mogą okazać się atrakcyjnym narzędziem dla Amerykanów, ponieważ wielu z nich nie ma ubezpieczenia medycznego i nie stać ich na częste wizyty u specjalistów. Chatbot AI mógłby być stosunkowo tanim sposobem pomagania ludziom w monitorowaniu zdrowia i wyszukiwaniu informacji o objawach – podobnie jak wyszukiwanie w internecie na stronach takich jak WebMD, która publikuje informacje medyczne. Według danych firmy analitycznej SimilarWeb w 2020 r. witryna webmd.com miała ponad 100 mln wizyt miesięcznie.

Jak chronić swoje dane medyczne?

W ostatnich latach cyberataki wielokrotnie dotykały szpitale i systemy opieki zdrowotnej. Przechowywanie dokumentacji medycznej w jednym miejscu czyni te dane znacznie bardziej atrakcyjnym celem dla cyberprzestępców, zwłaszcza że dane medyczne ofiary ataku mogą ujawniać informacje o chorobach, które dana osoba chciałaby zachować w tajemnicy.

Taka jedna, ogólna baza danych medycznych może być atrakcyjna także dla organów ścigania, które chciałyby uzyskać dostęp do dokumentacji zdrowotnej danej osoby. Wystarczy, że zwrócą się do Microsoftu zamiast do wielu różnych placówek medycznych.

Reklama
Reklama

Czytaj więcej

AI może doprowadzić do groźnej choroby. Eksperci ostrzegają

Microsoft zapewnia, że dane zdrowotne użytkowników będą szyfrowane i nie będą wykorzystywane do ulepszania systemów AI ani do wyświetlania reklam targetowanych. Firma twierdzi również, że udostępnia dane organom ścigania wyłącznie w odpowiedzi na prawnie uzasadnione wnioski.

Microsoft podkreśla, że Copilot Health ma pomagać użytkownikom w zrozumieniu własnego zdrowia i przygotowaniu się do wizyty u lekarza – a nie zastępować jego wiedzę. W komunikacie prasowym znalazło się zastrzeżenie, że chatbot „nie jest przeznaczony do diagnozowania, leczenia ani zapobiegania chorobom”.

Czytaj więcej

Chatboty zachęcały do zabicia rodziców i samobójstwa. Mroczna strona AI

Jednak „The New York Times” zwraca uwagę, że naiwnością byłoby sądzić, iż użytkownicy nie będą prosić chatbota mającego dostęp do ich dokumentacji medycznej o diagnozę i porady. Dotychczasowe badania sugerują, że chatboty nie są jeszcze gotowe na taką odpowiedzialność.

Reklama
Reklama

Jak mądrze używać chatbotów medycznych?

Chatboty OpenAI i Meta nie radzą sobie lepiej niż zwykła wyszukiwarka internetowa w kierowaniu użytkowników do właściwej diagnozy czy wskazywaniu, co powinni zrobić dalej. Technologia ta niesie też szczególne ryzyko – czasami przedstawia błędne informacje lub diametralnie zmienia odpowiedzi w zależności od niewielkich zmian w sformułowaniu pytania.

Słabości te doprowadziły już do głośnych błędów. Na przykład 60-letni mężczyzna trafił na kilka tygodni na oddział psychiatryczny po tym, jak ChatGPT zasugerował ograniczenie soli poprzez spożywanie bromku sodu, co doprowadziło do paranoi i halucynacji.

Czytaj więcej

Odpowiedzialne innowacje: Czy sztuczna inteligencja może zastąpić psychoterapeutów?

Bromek sodu od drugiej połowy XIX wieku był używany w medycynie jako lek przeciwpadaczkowy, uspokajający i nasenny. Niestety stosowany długotrwale może być toksyczny.

OpenAI twierdzi, że obecna wersja ChatGPT znacznie lepiej odpowiada na pytania dotyczące zdrowia niż model testowany w badaniu, który został już wycofany.

Reklama
Reklama

Niektóre nowe badania sugerują jednak, że nawet modele specjalnie dostosowane do pytań zdrowotnych – takie jak ChatGPT Health – mogą stwarzać ryzyko. Gdy lekarze w ramach testów wprowadzili do systemu dane z hipotetycznych przypadków medycznych, model przeoczył sytuacje wysokiego ryzyka – w jednym przypadku nie zalecił wizyty na oddziale ratunkowym osobie z zagrażającą niewydolnością oddechową.

Innym zagrożeniem jest to, że podstawowe podsumowania problemów zdrowotnych generowane przez chatboty mogą wywoływać niepokój. Ból zatok wiosną prawdopodobnie jest objawem alergii, ale chatbot może zasugerować poważniejszą chorobę, co może skłonić użytkownika do niepotrzebnej wizyty u lekarza. AI może jednak równie dobrze zasugerować znacznie poważniejszą diagnozę, na przykład nowotwór mózgu.

Copilot Health został zaprojektowany tak, aby unikać udzielania porad medycznych nawet w przypadku bezpośrednich pytań i zamiast tego oferować „wskazówki i wsparcie” – zapewnia Microsoft. Zamiast mówić użytkownikowi, że ma konkretną chorobę, może na przykład przedstawić listę możliwych diagnoz. Zamiast rekomendować lek, może zaproponować pytania, które użytkownik może zadać swojemu lekarzowi.

AI
Omijają blokady, kasują dane, wymykają się spod kontroli. Eksperci o nowym problemie z AI
Materiał Promocyjny
Franczyza McDonald’s – Twój własny biznes pod złotymi łukami!
Materiał Promocyjny
OTOMOTO rewolucjonizuje dodawanie ogłoszeń
AI
„Udanego strzelania”. Szokujące wyniki testów chatbotów AI
AI
Elon Musk uruchomi „cyfrowego Optimusa”. Uderzenie w Microsoft
AI
Nowy chip liczy z prędkością światła. Fotoniczny procesor może zmienić przyszłość AI
Reklama
Reklama
REKLAMA: automatycznie wyświetlimy artykuł za 15 sekund.
Reklama