Rządowa agenda opublikowała raport, z którego wynika, że 2/3 nastolatków w wieku od 13 do 17 lat natrafiło w internecie na treści, które można uznać za szkodliwe dla nich. Jednak tylko 16 proc. zgłasza takie incydenty. Według Ofcom to szokująco mało – informuje SKY news.

Czekając, aż rządowa ustawa o bezpieczeństwie w internecie przejdzie przez parlament, Ofcom wezwał młodych ludzi do wzajemnej pomocy w zwalczaniu szkodliwych treści, na które natykają się online.

Nastolatki w internecie natykają się niemal codziennie na treści rasistowskie, ksenofobiczne a także dezinformację, brutalne treści pełne przemocy, fałszywe reklamy a także treści o charakterze seksualnym. Dzieci mają też dostęp do filmów przedstawiających brutalna przemoc, w tym morderstwa oraz pobicie – większość z tych treści jest trudna do oglądania dla dorosłych.

Czytaj więcej

Instagram testuje narzędzie AI, które weryfikuje wiek, skanując twarz

Dużym problemem są treści dotyczące tego jak powinno wyglądać ludzkie ciało i promujące fałszywy jego obraz, kuriozalne diety czy metody na „poprawienie wyglądu”.

Takie rzeczy nie powinny znajdować się w mediach społecznościowych i nie powinny być tak łatwo dostępne – zgadzają się specjaliści a mimo to, nastolatki natykają się na nie niemal codziennie. Tego typu treści jest tak dużo, że większość internautów nawet ich nie zgłasza.

Według najnowszego raportu Ofcom najczęstsze potencjalne szkodliwe treści i zjawiska w internecie, na jakie napotykają młodzi użytkownicy, obejmują ogólnie obraźliwy lub wulgarny język (28 proc.), dezinformację (22 proc.), stalking (21 proc.), trollowanie (17 proc.), zastraszanie, obraźliwe zachowanie i groźby (14 proc.), treści przedstawiające przemoc (14 proc.) oraz treści nienawistne, obraźliwe lub dyskryminujące skierowane do grupy na podstawie określonych cech (14 proc.).

Większość nastolatków, która postanowiła jednak „coś z tym zrobić” i nie dać się zastraszyć w internecie lub zdecydowała się uniknąć niewygodnych treści – zdecydowała się blokować prześladowców lub strony publikujące takie treści, blokowało poszczególne treści lub usuwało z grona znajomych agresywne osoby. Decydowały się także na portalach społecznościowych na zgłoszenie treści i osób moderatorom. Okazuje się jednak, że to najmniej skuteczna metoda. Aż 51 proc. ankietowanych stwierdziło, że nic się nie wydarzyło od czasu zgłoszenia treści. Jedna piąta (21 proc.) stwierdziła, że zawartość została usunięta.