Reklama

ChatGPT nie dla dzieci? Będą ograniczenia, nawet policja. To odpowiedź na falę samobójstw

OpenAI, po fali pozwów i w obliczu oskarżeń o przyczynienie się do samobójstw nastolatków, zapowiada rewolucję w ChatGPT. Do końca miesiąca mają pojawić się narzędzia kontroli rodzicielskiej i mechanizmy interwencji kryzysowej.

Publikacja: 19.09.2025 09:54

OpenAI oddaje w ręce rodziców pakiet narzędzi kontrolnych

OpenAI oddaje w ręce rodziców pakiet narzędzi kontrolnych

Foto: Adobe Stock

Rozmowa z botem, prowadzona przez osoby małoletnie, może wcale nie być niewinną zabawą. Przybywa historii, które pokazują, że kończą się one czasami tragedią. Stąd inicjatywa firmy kierowanej przez Sama Altmana, by ograniczyć niekontrolowany dostęp do ChatGPT. Nie ma wątpliwości, że taki ruch to efekt ogromnej presji rynku. Pytanie tylko, czy i na ile jakiekolwiek technologiczne bariery będą w stanie realnie zabezpieczyć najmłodszych przed mroczną stroną sztucznej inteligencji.

Algorytm oceni użytkownika. OpenAI wezwie policję

Deklaracja Sama Altmana, dyrektora generalnego OpenAI, że „dla dzieci stawiamy bezpieczeństwo ponad wolność i prywatność”, to sygnał zmiany kursu o 180 stopni. Firma, dotychczas skupiona na rozwoju i ekspansji technologii, została zmuszona do konfrontacji z jej tragicznymi konsekwencjami. Ogłoszone zmiany to pakiet narzędzi, które mają stworzyć wokół nieletnich użytkowników swoisty kokon ochronny. Podstawą ma być system szacujący wiek użytkownika. Co istotne, w przypadku jakichkolwiek wątpliwości, mechanizm domyślnie zaklasyfikuje osobę jako niepełnoletnią, aktywując tryb podwyższonego bezpieczeństwa. W tym trybie ChatGPT ma kategorycznie odmawiać rozmów o charakterze seksualnym czy flirtu, zablokowane zostaną również odpowiedzi na pytania dotyczące samookaleczeń i metod samobójczych.

To jednak dopiero początek. OpenAI oddaje w ręce rodziców pakiet narzędzi kontrolnych. Po połączeniu swojego konta z kontem dziecka poprzez e-mail, opiekunowie będą mogli definiować godziny, w których nastolatek nie skorzysta z chatbota, a także zarządzać jego funkcjami, np. wyłączając historię konwersacji. Kluczowym i zarazem najbardziej kontrowersyjnym elementem jest system powiadomień. Rodzice otrzymają alert, gdy algorytm uzna, że dziecko znalazło się w „ostrej sytuacji kryzysowej”. W skrajnych, rzadkich przypadkach, gdy kontakt z opiekunem będzie niemożliwy, OpenAI zastrzega sobie prawo do bezpośredniego powiadomienia lokalnej policji.

Czytaj więcej

Chatboty zachęcały do zabicia rodziców i samobójstwa. Mroczna strona AI

Zaskakująca rola AI: Konsultant milionów

Aby w pełni zrozumieć wagę tych zabezpieczeń i skalę ryzyka, należy spojrzeć na to, jak fundamentalnie zmienił się sposób, w jaki ludzie korzystają z ChatGPT. Najnowsze, obszerne badanie opublikowane przez OpenAI we współpracy z Harvardem, które przeanalizowało 1,5 mln rozmów z okresu od maja 2024 do lipca 2025 r., maluje obraz rewolucji. Okazuje się, że chatbot przestał być jedynie narzędziem do wykonywania zadań. Aż połowa wszystkich zapytań to prośby o poradę lub informację, podczas gdy realizacja konkretnych poleceń stanowi już tylko 40 proc. interakcji. Użytkownicy, których tygodniowa liczba sięga 700 mln, coraz częściej traktują AI jak osobistego konsultanta. Ludzie pytają o porady życiowe, naukowe i szukają informacji (kategoria „poszukiwanie informacji” wzrosła w ciągu roku z 14 do ponad 24 proc.). Jednocześnie demografia serwisu uległa całkowitej przemianie. Zniknęła bariera płci (52 proc. użytkowników ma imiona żeńskie), technologia przeżywa eksplozję popularności w krajach rozwijających się, a niemal połowa wszystkich wiadomości pochodzi od osób poniżej 26. roku życia. To właśnie ta grupa, najbardziej aktywna i najliczniejsza, uczyniła z ChatGPT powiernika i doradcę, co czyni ewentualne błędy algorytmu nieporównywalnie bardziej niebezpiecznymi.

Reklama
Reklama

Czytaj więcej

Nowy nałóg wśród młodych. Psycholodzy biją na alarm po szokującym raporcie

Spóźniona reakcja na tragedię?

Trudno oprzeć się wrażeniu, że działania OpenAI to desperacka próba ratowania wizerunku i odpowiedź na rosnącą presję prawną i polityczną. Impulsem do zmian nie była prewencyjna analiza ryzyka, a konkretne ludzkie dramaty. Sprawa Adama Raine'a, 16-latka z Kalifornii, który w kwietniu odebrał sobie życie, wstrząsnęła opinią publiczną. Rodzice w pozwie przeciwko OpenAI oskarżyli ChatGPT o pełnienie roli „trenera samobójstw”, który nie tylko dostarczał szczegółowych instrukcji, ale nawet pomógł w napisaniu listu pożegnalnego. To nie jest odosobniony przypadek. Podobne zarzuty ciążą na platformie Character.AI po śmierci 14-letniego Sewella Setzera z Florydy.

Federalna Komisja Handlu wszczęła szeroko zakrojone śledztwo, żądając wyjaśnień od siedmiu gigantów technologicznych, w tym OpenAI, Google i Meta. Temat trafił też na Kapitol, gdzie Senat zorganizował specjalne przesłuchanie z udziałem rodzin, które oskarżają chatboty o śmierć swoich dzieci.

Rozmowa z botem, prowadzona przez osoby małoletnie, może wcale nie być niewinną zabawą. Przybywa historii, które pokazują, że kończą się one czasami tragedią. Stąd inicjatywa firmy kierowanej przez Sama Altmana, by ograniczyć niekontrolowany dostęp do ChatGPT. Nie ma wątpliwości, że taki ruch to efekt ogromnej presji rynku. Pytanie tylko, czy i na ile jakiekolwiek technologiczne bariery będą w stanie realnie zabezpieczyć najmłodszych przed mroczną stroną sztucznej inteligencji.

Pozostało jeszcze 90% artykułu
/
artykułów
Czytaj dalej. Subskrybuj
Reklama
Technologie
Kwantowy przełom. Powstał pierwszy na świecie komputer na krzemowych procesorach
Technologie
To miała być demonstracja potęgi Chin. Pierwsza taka katastrofa
Technologie
AI rozsadzi naszą cywilizację? Alarmujące badania Francuzów o rewolucji w ludzkim umyśle
Technologie
AI pokonała najlepszych programistów. To przełom na miarę przegranej Kasparowa
Technologie
Przełom w medycynie. AI zbada i wykryje choroby dekadę przed ich wystąpieniem
Reklama
Reklama