Na początku stycznia OpenAI zaprezentowało ChatGPT Health, czyli specjalną wersję chatbota przeznaczoną do udzielania porad medycznych. Firma tłumaczy, że zdrowie jest jednym z najczęstszych tematów poruszanych w rozmowach z AI, a nowe narzędzie ma pomagać w poszukiwaniu rzetelnych informacji. Usługa działa na razie wyłącznie w USA. Wkrótce po tym AnthropicAI ogłosiło własne rozwiązanie Claude dla sektora medycznego, kierowane głównie do placówek ochrony zdrowia. Rozwój tych narzędzi budzi jednak poważne wątpliwości.
Komercjalizacja zdrowia i uzależnianie użytkowników od AI
Dr. Michał Nowakowski w rozmowie z portalem WNP stwierdził, że wejście gigantów AI w sektor medyczny ma przede wszystkim cel marketingowy i sprzedażowy. Ekspert podkreśla, że firmy technologiczne dążą do utrzymania uwagi użytkowników i ich uzależnienia od rozmów z chatbotami. Wprowadzenie tego typu narzędzi ma być także odpowiedzią na słabnący entuzjazm wokół AI i malejącą liczbę płatnych subskrypcji.
Choć firmy zapewniają, że do ochrony danych medycznych stosowane są szczególne zabezpieczenia, nie podają żadnych konkretów na ten temat. Michał Nowakowski uważa, że nikt nie jest w stanie zapewnić pełnej gwarancji prywatności i bezpieczeństwa danych.
Dodatkowym zagrożeniem jest udzielanie przez AI błędnych porad zdrowotnych oraz funkcjonowanie fałszywych „lekarzy AI” w mediach społecznościowych. Jak ostrzega ekspert, nawet niewielki odsetek nieprawdziwych lub szkodliwych informacji może prowadzić do poważnych konsekwencji zdrowotnych.
Czytaj więcej: Giganci AI chcą zarabiać na naszym zdrowiu. „To próba wykreowania trendu”