Duże modele językowe to główny powód do niepokoju dla agendy ONZ. Najszybciej rozwijające się platformy jak ChatGPT czy Bard, wykorzystywane do celów związanych ze zdrowiem, wywołują coraz większe emocje, także negatywne.
Zdaniem WHO konieczne jest dokładne zbadanie zagrożeń podczas korzystania z takich narzędzi w celu poprawy dostępu do informacji zdrowotnych. Chociaż organizacja jest entuzjastycznie nastawiona do odpowiedniego wykorzystania technologii, w tym AI, w celu wspierania pracowników służby zdrowia, pacjentów, badaczy i naukowców, istnieje obawa, że ostrożność, która normalnie byłaby zachowana w przypadku każdej nowej technologii, nie jest tutaj konsekwentnie stosowana. Obejmuje to powszechne przestrzeganie kluczowych wartości, takich jak przejrzystość, integracja, zaangażowanie społeczne, nadzór ekspercki i rygorystyczna ocena.
Czytaj więcej
Sztuczna inteligencja, w tym najbardziej popularny ChatGPT może zaszkodzić zdrowiu milionów ludzi i stanowić egzystencjalne zagrożenie dla ludzkości – uważają lekarze i eksperci ds. zdrowia. Wzywają do zatrzymania jej rozwoju do czasu regulacji.
Pospieszne przyjęcie nieprzetestowanych systemów może prowadzić do błędów popełnianych przez pracowników służby zdrowia, szkodzić pacjentom, osłabiać zaufanie do sztucznej inteligencji, a tym samym podważać (lub opóźniać) potencjalne długoterminowe korzyści i zastosowania takich technologii na całym świecie.
Obawy, które wymagają rygorystycznego nadzoru potrzebnego do bezpiecznego, skutecznego i etycznego korzystania z technologii, obejmują choćby dane wykorzystywane do szkolenia sztucznej inteligencji, które mogą być stronnicze, generując wprowadzające w błąd lub niedokładne informacje. Mogą być one zagrożeniem dla zdrowia czy równości. Analitycy podkreślają, że platformy AI generują odpowiedzi, które wydają się autorytatywne i wiarygodne dla użytkownika końcowego, choć mogą być całkowicie błędne lub zawierać poważne błędy, zwłaszcza w przypadku odpowiedzi związanych ze zdrowiem. Systemy te mogą być szkolone w oparciu o zasoby danych, dla których zgoda na takie wykorzystanie mogła nie zostać wcześniej wyrażona, wiec w konsekwencji algorytm może nie chronić danych wrażliwych, w tym danych dotyczących zdrowia, które użytkownik dostarcza do aplikacji w celu wygenerowania odpowiedzi.