Rozmowa z botem, prowadzona przez osoby małoletnie, może wcale nie być niewinną zabawą. Przybywa historii, które pokazują, że kończą się one czasami tragedią. Stąd inicjatywa firmy kierowanej przez Sama Altmana, by ograniczyć niekontrolowany dostęp do ChatGPT. Nie ma wątpliwości, że taki ruch to efekt ogromnej presji rynku. Pytanie tylko, czy i na ile jakiekolwiek technologiczne bariery będą w stanie realnie zabezpieczyć najmłodszych przed mroczną stroną sztucznej inteligencji.
Algorytm oceni użytkownika. OpenAI wezwie policję
Deklaracja Sama Altmana, dyrektora generalnego OpenAI, że „dla dzieci stawiamy bezpieczeństwo ponad wolność i prywatność”, to sygnał zmiany kursu o 180 stopni. Firma, dotychczas skupiona na rozwoju i ekspansji technologii, została zmuszona do konfrontacji z jej tragicznymi konsekwencjami. Ogłoszone zmiany to pakiet narzędzi, które mają stworzyć wokół nieletnich użytkowników swoisty kokon ochronny. Podstawą ma być system szacujący wiek użytkownika. Co istotne, w przypadku jakichkolwiek wątpliwości, mechanizm domyślnie zaklasyfikuje osobę jako niepełnoletnią, aktywując tryb podwyższonego bezpieczeństwa. W tym trybie ChatGPT ma kategorycznie odmawiać rozmów o charakterze seksualnym czy flirtu, zablokowane zostaną również odpowiedzi na pytania dotyczące samookaleczeń i metod samobójczych.
To jednak dopiero początek. OpenAI oddaje w ręce rodziców pakiet narzędzi kontrolnych. Po połączeniu swojego konta z kontem dziecka poprzez e-mail, opiekunowie będą mogli definiować godziny, w których nastolatek nie skorzysta z chatbota, a także zarządzać jego funkcjami, np. wyłączając historię konwersacji. Kluczowym i zarazem najbardziej kontrowersyjnym elementem jest system powiadomień. Rodzice otrzymają alert, gdy algorytm uzna, że dziecko znalazło się w „ostrej sytuacji kryzysowej”. W skrajnych, rzadkich przypadkach, gdy kontakt z opiekunem będzie niemożliwy, OpenAI zastrzega sobie prawo do bezpośredniego powiadomienia lokalnej policji.
Czytaj więcej
Dwie rodziny pozwały Character.ai, firmę specjalizującą się w sztucznej inteligencji, której chat...
Zaskakująca rola AI: Konsultant milionów
Aby w pełni zrozumieć wagę tych zabezpieczeń i skalę ryzyka, należy spojrzeć na to, jak fundamentalnie zmienił się sposób, w jaki ludzie korzystają z ChatGPT. Najnowsze, obszerne badanie opublikowane przez OpenAI we współpracy z Harvardem, które przeanalizowało 1,5 mln rozmów z okresu od maja 2024 do lipca 2025 r., maluje obraz rewolucji. Okazuje się, że chatbot przestał być jedynie narzędziem do wykonywania zadań. Aż połowa wszystkich zapytań to prośby o poradę lub informację, podczas gdy realizacja konkretnych poleceń stanowi już tylko 40 proc. interakcji. Użytkownicy, których tygodniowa liczba sięga 700 mln, coraz częściej traktują AI jak osobistego konsultanta. Ludzie pytają o porady życiowe, naukowe i szukają informacji (kategoria „poszukiwanie informacji” wzrosła w ciągu roku z 14 do ponad 24 proc.). Jednocześnie demografia serwisu uległa całkowitej przemianie. Zniknęła bariera płci (52 proc. użytkowników ma imiona żeńskie), technologia przeżywa eksplozję popularności w krajach rozwijających się, a niemal połowa wszystkich wiadomości pochodzi od osób poniżej 26. roku życia. To właśnie ta grupa, najbardziej aktywna i najliczniejsza, uczyniła z ChatGPT powiernika i doradcę, co czyni ewentualne błędy algorytmu nieporównywalnie bardziej niebezpiecznymi.