Youtube ma problem. Nestle i inne firmy wycofują reklamy

Wielkie korporacje wycofują kampanie reklamowe z YouTube z powodu obaw związanych z pedofilskimi treściami ujawnionymi na platformie.

Publikacja: 21.02.2019 13:01

Youtube ma problem. Nestle i inne firmy wycofują reklamy

Foto: Flickr/Rego Korosi

Koncern Nestle podjął decyzję o wycofaniu swoich reklam, przynajmniej chwilowo. Gigant nie chce by jego reklamy pojawiały się przy takich treściach.

Zarzuty wobec YouTube postawił vloger Matt Watson prowadzący umiarkowanie popularny kanał MattsWhatItIs (26 tys. subskrybentów), tłumacząc, że z jednej strony algorytm YouTube podpowiada po obejrzeniu wideo z kobietami w strojach kąpielowych filmy z udziałem dzieci, a z drugiej w komentarzach pod klipami bezkarnie pojawiają się treści, w których pedofile mają się komunikować między sobą oraz oznaczać sobie, w których momentach wideo dzieci są w sugestywnych pozach (np. w czasie wykonywania ćwiczeń). Same klipy, jak zaznaczał kilkakrotnie vloger nie są w żaden sposób erotyczne.

YouTube twierdzi, że podjęło natychmiastowe działania mające na celu usunięcie pedofilskich treści z serwisu

Według BBC YouTube twierdzi, że podjęło natychmiastowe działania mające na celu usunięcie pedofilskich treści z serwisu. Serwis twierdzi także, że jego regulamin w tej materii jest jasny i będzie podejmować jeszcze bardziej energiczne działania, by usuwać tego typu treści z serwisu. Obecnie YouTube zablokowało możliwość komentowania pod wieloma filmami oraz usunęło niezgodne z regulaminem komentarze.

Tymczasem jednak firmy zawieszają kampanie, czyli zmniejszają przychody YouTube. Rzeczniczka Nestle przekazała mediom, że koncern „zawiesza” reklamowanie się na platformie, do czasu aż będzie pewny, że „jego standardy są osiągnięte”. Disney czy Dr Oetker również, jak twierdzi Bloomberg, podjęły podobną decyzję o zawieszeniu reklam. Reklamy wycofało również studio Epic Games, odpowiedzialne za popularną grę Fortnite.

CZYTAJ TAKŻE: YouTube usunął 58 milionów filmów

Problem z pedofilskimi (lub rzekomo pedofilskimi) treściami nie jest pierwszym podobnym problemem YouTube. W 2017 roku wyszło na jaw, że raportowanie niezgodnych z regulaminem komentarzy pod filmami z udziałem dzieci nie działało prawidłowo. Również w 2017 roku YouTube przepraszał, m.in. Audi czy Marks&Spencer za to, że ich reklamy pojawiały się przy klipach wrzucanych do serwisu przez różnej maści ekstremistów.

W Polsce jako problem można postrzegać np. popularność tzw. patostreamerów, czyli youtuberów dążących do popularności przez zamieszczanie jawnie obraźliwych i wulgarnych treści, często również wprost seksualnych i nadających się raczej na innego rodzaju serwis z treściami wideo.

Koncern Nestle podjął decyzję o wycofaniu swoich reklam, przynajmniej chwilowo. Gigant nie chce by jego reklamy pojawiały się przy takich treściach.

Zarzuty wobec YouTube postawił vloger Matt Watson prowadzący umiarkowanie popularny kanał MattsWhatItIs (26 tys. subskrybentów), tłumacząc, że z jednej strony algorytm YouTube podpowiada po obejrzeniu wideo z kobietami w strojach kąpielowych filmy z udziałem dzieci, a z drugiej w komentarzach pod klipami bezkarnie pojawiają się treści, w których pedofile mają się komunikować między sobą oraz oznaczać sobie, w których momentach wideo dzieci są w sugestywnych pozach (np. w czasie wykonywania ćwiczeń). Same klipy, jak zaznaczał kilkakrotnie vloger nie są w żaden sposób erotyczne.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Globalne Interesy
Niemiecki robot ma być jak dobry chrześcijanin. Zaskakujące przepisy za Odrą
Globalne Interesy
Mark Zuckerberg rzuca wyzwanie ChatGPT. „Wstrząśnie światem sztucznej inteligencji”
Globalne Interesy
Amerykański koncern zwalnia pracowników. Protestowali przeciw kontraktowi z Izraelem
Globalne Interesy
Zagadkowa inwestycja Microsoftu w arabską sztuczną inteligencję. Porzucone Chiny
Globalne Interesy
Sprzedaż iPhone'ów runęła i Apple traci pozycję lidera. Jest nowy król smartfonów