Z tego artykułu się dowiesz:
- Jakie są najważniejsze wnioski z pierwszej niezależnej oceny bezpieczeństwa systemu ChatGPT Health?
- Na jakiej podstawie naukowcy ocenili skuteczność działania ChatGPT Health?
- W jaki sposób ChatGPT Health radzi sobie z identyfikacją i reagowaniem na myśli samobójcze pacjentów?
- Jakie są możliwe zagrożenia związane z używaniem ChatGPT Health przez osoby z nagłymi problemami zdrowotnymi?
Funkcja „Health” („Zdrowie”) w ChatGPT uruchomiona została przez OpenAI dla ograniczonej grupy odbiorców w styczniu w celu generowania porad i odpowiedzi dotyczących zdrowia.
Naukowcy ocenili bezpieczeństwo systemu ChatGPT Health
Pierwszą niezależną ocenę bezpieczeństwa systemu ChatGPT Health opublikowano w lutowym wydaniu czasopisma „Nature Medicine”. O wynikach informuje serwis „The Guardian”.
– Chcieliśmy odpowiedzieć na najbardziej podstawowe pytanie dotyczące bezpieczeństwa: jeśli ktoś ma prawdziwy nagły przypadek medyczny i zapyta ChatGPT Health, co ma zrobić, czy program poinformuje go, aby udał się na pogotowie? – podkreślił dr Ashwin Ramaswamy, główny autor badania, cytowany przez „The Guardian”.
Naukowcy w celu oceny bezpieczeństwa systemu ChatGPT Health stworzyli 60 realistycznych scenariuszy leczenia pacjentów, obejmujących różne stany zdrowia, od łagodnych chorób po nagłe przypadki. Następnie trzech niezależnych lekarzy przeanalizowało każdy scenariusz i uzgodniło poziom wymaganej opieki w oparciu o wytyczne kliniczne.