WHO: już nie Covid-19, a sztuczna inteligencja ryzykiem dla zdrowia

Do zachowania ostrożności podczas korzystania z narzędzi generowanych przez sztuczną inteligencję wezwała Światowa Organizacja Zdrowia (WHO). Ich nadużywanie powoduje zagrożenie dla zachowania zdrowia publicznego.

Publikacja: 16.05.2023 18:21

WHO proponuje, aby zająć się obawami i zmierzyć wyraźne korzyści przed ich powszechnym zastosowaniem

WHO proponuje, aby zająć się obawami i zmierzyć wyraźne korzyści przed ich powszechnym zastosowaniem w rutynowej opiece zdrowotnej i medycynie –

Foto: Adobe Stock

Duże modele językowe to główny powód do niepokoju dla agendy ONZ. Najszybciej rozwijające się platformy jak ChatGPT czy Bard, wykorzystywane do celów związanych ze zdrowiem, wywołują coraz większe emocje, także negatywne.

Zdaniem WHO konieczne jest dokładne zbadanie zagrożeń podczas korzystania z takich narzędzi w celu poprawy dostępu do informacji zdrowotnych. Chociaż organizacja jest entuzjastycznie nastawiona do odpowiedniego wykorzystania technologii, w tym AI, w celu wspierania pracowników służby zdrowia, pacjentów, badaczy i naukowców, istnieje obawa, że ostrożność, która normalnie byłaby zachowana w przypadku każdej nowej technologii, nie jest tutaj konsekwentnie stosowana. Obejmuje to powszechne przestrzeganie kluczowych wartości, takich jak przejrzystość, integracja, zaangażowanie społeczne, nadzór ekspercki i rygorystyczna ocena.

Czytaj więcej

To już prawdziwy popłoch. Teraz sztuczną inteligencją straszą lekarze

Pospieszne przyjęcie nieprzetestowanych systemów może prowadzić do błędów popełnianych przez pracowników służby zdrowia, szkodzić pacjentom, osłabiać zaufanie do sztucznej inteligencji, a tym samym podważać (lub opóźniać) potencjalne długoterminowe korzyści i zastosowania takich technologii na całym świecie.

Obawy, które wymagają rygorystycznego nadzoru potrzebnego do bezpiecznego, skutecznego i etycznego korzystania z technologii, obejmują choćby dane wykorzystywane do szkolenia sztucznej inteligencji, które mogą być stronnicze, generując wprowadzające w błąd lub niedokładne informacje. Mogą być one zagrożeniem dla zdrowia czy równości. Analitycy podkreślają, że platformy AI generują odpowiedzi, które wydają się autorytatywne i wiarygodne dla użytkownika końcowego, choć mogą być całkowicie błędne lub zawierać poważne błędy, zwłaszcza w przypadku odpowiedzi związanych ze zdrowiem. Systemy te mogą być szkolone w oparciu o zasoby danych, dla których zgoda na takie wykorzystanie mogła nie zostać wcześniej wyrażona, wiec w konsekwencji algorytm może nie chronić danych wrażliwych, w tym danych dotyczących zdrowia, które użytkownik dostarcza do aplikacji w celu wygenerowania odpowiedzi.

WHO proponuje, aby zająć się tymi obawami i zmierzyć wyraźne korzyści przed ich powszechnym zastosowaniem w rutynowej opiece zdrowotnej i medycynie – czy to przez osoby fizyczne, świadczeniodawców, administratorów systemu opieki zdrowotnej i decydentów.

WHO przypomina też o znaczeniu stosowania zasad etycznych i odpowiedniego zarządzania, zgodnie ze swoimi wytycznymi dotyczącymi etyki i zarządzania sztuczną inteligencją, podczas projektowania, opracowywania i wdrażania sztucznej inteligencji w ochronie zdrowia.

Globalne Interesy
Groźny konkurent Elona Muska? Rosja chce z przytupem wrócić w kosmos
Globalne Interesy
Elon Musk chce przejąć OpenAI. Sam Altman: 100 mld dolarów to za mało
Globalne Interesy
Kolejne kraje blokują chińską aplikację AI DeepSeek. Kto i dlaczego to robi?
Globalne Interesy
Brytyjskie służby chcą dostępu do danych z iPhone'ów. Na celowniku dane z iCloud
Globalne Interesy
20 lat więzienia i 100 mln dol. grzywny. W USA chcą zablokować DeepSeeka i chińską AI