Ustawa „Kids Online Safety Act” wymagałaby od platform mediów społecznościowych zapewnienia rodzicom narzędzi do ochrony ich dzieci w Internecie – informuje Reuters. Zgodnie z proponowanymi przepisami, firmy stojące za mediami społecznościowymi byłyby również zobowiązane do przeprowadzania corocznego niezależnego audytu dotyczącego zagrożeń dla nieletnich na swoich platformach.

„Big Tech bezczelnie zawiódł dzieci i zdradził ich zaufanie, stawiając zyski ponad bezpieczeństwo” – napisał senator Blumenthal w oświadczeniu na swojej stronie internetowej. „Ustawa o Bezpieczeństwie Dzieci w Internecie w końcu zapewni dzieciom i ich rodzicom narzędzia i zabezpieczenia, których potrzebują, aby chronić przed toksycznymi treściami – i pociągnęłaby Big Tech do odpowiedzialności za bardzo niebezpieczne algorytmy” – napisał senator z Connecticut.

„Ochrona naszych dzieci i nastolatków w Internecie jest niezwykle ważna, zwłaszcza odkąd Covid-19 zwiększył naszą zależność od technologii” – uważa senator Blackburn. „Podczas przesłuchań w ciągu ostatniego roku senator Blumenthal i ja słyszeliśmy niezliczone historie o kontuzjach fizycznych i emocjonalnych dotykających młodych użytkowników oraz o niechęci Big Tech do zmian” – napisała senatorka z Tennessee.

Ustawa wymagałaby od platform oferowania ustawień, które ograniczałyby korzystanie z platform przez osoby nieletnie i ograniczały korzystanie przez platformy z ich danych osobowych. Algorytmy platform społecznościowych nie mogłyby już korzystać z danych osobowych nieletnich, by sugerować im konkretne treści czy produkty, tak jak to teraz ma miejsce na popularnych platformach takich jak na przykład TikTok, który jest bardzo popularny wśród najmłodszych.

Na niektórych platformach społecznościowych takie narzędzia już istnieją, jednak nowe przepisy wymagałyby, aby „najsilniejsze ustawienia” były domyślnie włączone dla nieletnich.

Czytaj więcej

Facebook odpowie za treści? Kongresmeni chcą też kontroli nad algorytmami

Ustawa wprowadziłaby również obowiązek kontroli treści, aby nieletni użytkownicy nie mieli dostępu do takich treści jak promowanie samookaleczenia, samobójstwa, zaburzenia odżywiania i nadużywanie substancji aktywnych. Ustawa wymagałaby od platform przeprowadzania corocznego audytu oceniającego ryzyko dla nieletnich i tego, czy platforma podejmuje kroki w celu zapobiegania tym ryzykom.

Prawodawcy krytykują także platformy mediów społecznościowych za brak przejrzystości, zwłaszcza w zakresie ich wewnętrznych danych dotyczących wpływu na nastolatki i dzieci. Nowa ustawa zapewniłaby naukowcom akademickim i organizacjom non-profit dostęp do tych danych w celu prowadzenia badań nad bezpieczeństwem nieletnich.

Ustawa nakazuje również agencjom rządowym znalezienie najlepszych sposobów ochrony nieletnich w internecie. Na zaleca poleca Federalnej Komisji Handlu stworzenie wytycznych dla platform, w jaki sposób prowadzić badania zorientowane na rynek i produkty dla nieletnich. Wymaga również od agencji zbadania, w jaki sposób platformy mogą w najbardziej realistyczny i najdokładniejszy sposób zweryfikować wiek swoich użytkowników – informuje CNBC.

Autopromocja
Subskrybuj nielimitowany dostęp do wiedzy

Unikalna oferta

Tylko 5,90 zł/miesiąc


WYBIERAM