To już prawdziwy popłoch. Teraz sztuczną inteligencją straszą lekarze

Sztuczna inteligencja, w tym najbardziej popularny ChatGPT może zaszkodzić zdrowiu milionów ludzi i stanowić egzystencjalne zagrożenie dla ludzkości – uważają lekarze i eksperci ds. zdrowia. Wzywają do zatrzymania jej rozwoju do czasu regulacji.

Publikacja: 11.05.2023 13:08

Do coraz liczniejszych grup straszących sztuczną inteligencją dołączyli lekarze. Poprzez zwiększenie

Do coraz liczniejszych grup straszących sztuczną inteligencją dołączyli lekarze. Poprzez zwiększenie bezrobocia ma powodować też skutki dla zdrowia psychicznego

Foto: Adobe Stock

Najnowsza technologia AI może zrewolucjonizować opiekę zdrowotną poprzez przyspieszenie badań nad lekami, poprawę diagnostyki chorób, znalezienie lepszych sposobów leczenia pacjentów czy rozszerzenie opieki na większą liczbę osób.

Ale rozwój sztucznej inteligencji może również potencjalnie wywoływać negatywne skutki zdrowotne – twierdzą pracownicy służby zdrowia z Wielkiej Brytanii, USA, Australii, Kostaryki i Malezji piszący w czasopiśmie BMJ Global Health, cytowani przez "The Guardian".

Ich zdaniem zagrożenia związane z medycyną i opieką zdrowotną „obejmują potencjalne błędy sztucznej inteligencji, które mogą powodować szkody dla pacjentów, problemy z prywatnością i bezpieczeństwem danych oraz wykorzystanie sztucznej inteligencji w sposób, który pogorszy nierówności społeczne i zdrowotne”.

Czytaj więcej

„Maszyny do plagiatu”. Pierwszy wielki strajk przeciwko sztucznej inteligencji

Jednym z przykładów szkód, jak twierdzą, było użycie pulsoksymetru opartego na sztucznej inteligencji, który zawyżał poziom tlenu we krwi u pacjentów z ciemniejszą skórą, co skutkowało niedostatecznym leczeniem ich niedotlenienia.

Ale ostrzegają także przed szerszymi, globalnymi zagrożeniami, nawet ludzkiej egzystencji. Sztuczna inteligencja może zaszkodzić zdrowiu milionów poprzez społeczne uwarunkowania zdrowia poprzez kontrolę i manipulację ludźmi, użycie śmiercionośnej broni autonomicznej oraz skutki dla zdrowia psychicznego masowego bezrobocia, jeśli systemy oparte na sztucznej inteligencji wyprą dużą liczbę pracowników.

„W połączeniu z szybko rosnącą zdolnością do zniekształcania lub fałszywego przedstawiania rzeczywistości za pomocą deepfake systemy informacyjne oparte na sztucznej inteligencji mogą jeszcze bardziej osłabić demokrację, powodując ogólne załamanie zaufania lub napędzając podziały społeczne i konflikty, co ma wpływ na zdrowie publiczne – twierdzą eksperci służby zdrowia.

Zagrożenia mają wynikać również z utraty miejsc pracy, która będzie towarzyszyć powszechnemu wdrażaniu technologii sztucznej inteligencji, której szacunki wahają się od dziesiątek do setek milionów w nadchodzącej dekadzie.

„Chociaż byłoby wiele korzyści z zastąpienia pracy, która jest powtarzalna, niebezpieczna i nieprzyjemna, wiemy już, że bezrobocie jest silnie związane z niekorzystnymi skutkami zdrowotnymi i zachowaniami. Co więcej, nie wiemy, jak społeczeństwo zareaguje psychologicznie i emocjonalnie na świat, w którym praca jest niedostępna lub niepotrzebna, ani nie myślimy o polityce i strategiach, które byłyby potrzebne, aby przełamać związek między bezrobociem a złym stanem zdrowia” – argumentuje grupa lekarzy i ekspertów.

Czytaj więcej

Twórca ChatGPT po liście otwartym Muska: nie pracujemy nad GPT-5

Jej zdaniem zagrożenie stwarzane przez samodoskonalącą się sztuczną inteligencję ogólną, która teoretycznie mogłaby uczyć się i wykonywać pełen zakres ludzkich zadań, jest wszechogarniające. „Obecnie staramy się tworzyć maszyny, które są znacznie inteligentniejsze i potężniejsze od nas samych. Potencjał takich maszyn do zastosowania tej inteligencji i mocy, celowo lub nie, w sposób, który mógłby zaszkodzić lub podporządkować sobie ludzi, jest realny i należy go rozważyć” – apelują lekarze  w BMJ Global Health.

Ich zdaniem wraz z gwałtownym wzrostem badań i rozwoju sztucznej inteligencji ma się już zamykać możliwość uniknięcia poważnych i potencjalnie egzystencjalnych szkód. Potrzebna jest skuteczna regulacja rozwoju i wykorzystania sztucznej inteligencji. „Dopóki takie regulacje nie zostaną wprowadzone, należy wprowadzić moratorium na rozwój samodoskonalącej się sztucznej inteligencji ogólnej" - wskazują.

To niejedyny taki głos w służbie zdrowia. W Wielkiej Brytanii koalicja ekspertów ds. zdrowia, niezależnych obserwatorów i medycznych organizacji charytatywnych wezwała do zmiany nadchodzącej rządowej ustawy o bezpieczeństwie online w celu podjęcia działań przeciwko dezinformacji zdrowotnej, którą może wzmóc sztuczna inteligencja.

„Jednym z kluczowych sposobów, w jaki możemy chronić przyszłość naszego systemu opieki zdrowotnej, jest zapewnienie, że firmy internetowe mają jasne zasady dotyczące sposobu identyfikowania szkodliwych dezinformacji zdrowotnych, które pojawiają się na ich platformach, a także spójne podejście do radzenia sobie z nimi” – napisała grupa w liście otwartym do Chloe Smith, sekretarza stanu ds. nauki, innowacji i technologii.

Skala apeli, protestów i obaw w różnych dziedzinach (niedawno w USA protestowali scenarzyści) wciąż się rozszerza. Nabrała rozpędu, kiedy miliarder Elon Musk wsparty przez licznych tuzów nauki i biznesu jak Steve Wozniak, współzałożyciel Apple, zaapelował w liście otwartym o pilne zatrzymanie na sześć miesięcy prac nad rozwojem sztucznej inteligencji, w tym botami w rodzaju ChatGPT, który „wyrwał się spod kontroli” i jest zagrożeniem dla ludzkości. Nie przeszkodziło to jednak Muskowi w równoległym rozpoczęciu prac nad AI.

Najnowsza technologia AI może zrewolucjonizować opiekę zdrowotną poprzez przyspieszenie badań nad lekami, poprawę diagnostyki chorób, znalezienie lepszych sposobów leczenia pacjentów czy rozszerzenie opieki na większą liczbę osób.

Ale rozwój sztucznej inteligencji może również potencjalnie wywoływać negatywne skutki zdrowotne – twierdzą pracownicy służby zdrowia z Wielkiej Brytanii, USA, Australii, Kostaryki i Malezji piszący w czasopiśmie BMJ Global Health, cytowani przez "The Guardian".

Pozostało 91% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Technologie
Armia testuje broń przyszłości. Robopsy umieją coraz więcej, teraz zestrzelą drony
Technologie
Kryzys w IDEAS NCBR zażegnany, będzie nowy projekt. Rząd przyznaje się do błędu?
Technologie
Test na starość? Powstała prosta metoda badania tempa starzenia i ryzyka śmierci
Technologie
Polska jest pełna psich odchodów. Ale znalazł się na to pomysłowy sposób
Technologie
Kontrowersyjne zmiany w NCBR. Światowe protesty w obronie polskiego naukowca