Najstarsza na świecie instytucja naukowa ma sposób na wrogów szczepień i 5G

Czy media społecznościowe mają obowiązek blokowania informacji określanych jako „bad science”? Czy byłaby to zwykła cenzura, zwłaszcza w przypadku naukowców, którzy wiedzą, że fakty w nauce można i należy kwestionować?

Publikacja: 01.02.2022 14:11

Ruchy przeciwników szczepionek są bardzo silne dzięki temu,  że mają łatwy dostęp do milionów ludzi

Ruchy przeciwników szczepionek są bardzo silne dzięki temu, że mają łatwy dostęp do milionów ludzi

Foto: Edward Crawford - shutterstock

Brytyjskie Towarzystwo Królewskie (The Royal Society) jest najstarszą na świecie nieprzerwanie działającą instytucją naukową, która tym razem stara się sprostać wyzwaniom stawianym przez najnowsze sposoby przekazywania informacji. W swoim raporcie odradza platformom społecznościowym usuwanie treści „legalnych, ale szkodliwych”. Zamiast tego portale powinny dostosować algorytmy, aby zapobiec rozprzestrzenianiu się fałszywych informacji i zarabianiu na nich.

Nauczka z Pandemic

Jak pisze BBC, ta „łagodna” opinia brytyjskiego towarzystwa naukowego nie spotkała się ze zrozumieniem wielu badaczy, którzy uważają, że dezinformacja rozpowszechniana w internecie szkodzi ludziom. Takie stanowisko prezentują analitycy śledzący rozprzestrzenianie się fałszywych informacji w internecie. Centrum Zwalczania Cyfrowej Nienawiści (CCDH) uważa, że zdarzają się przypadki, w których najlepiej jest usunąć treści, które są bardzo szkodliwe, ewidentnie błędne i rozprzestrzeniają się szybko i bardzo szeroko – tak jak sam koronawirus.

CCDH jako przykład podaje „Plandemic” – film, który na początku pandemii sam zaczął się rozprzestrzeniać po sieci jak wirus. Film, zawierający niebezpieczne i fałszywe twierdzenia mające na celu odstraszenie ludzi od szczepionek i masek, ostatecznie został usunięty. Jednak zanim to nastąpiło, dotarł do rzeszy internautów na świecie. Na szczęście platformy społecznościowe były przygotowane na drugą część tego dzieła i „Plandemic 2” szybko został ukryty i usunięty – nie miał takiego samego zasięgu, jak pierwszy film.

Czytaj więcej

YouTube nie radzi sobie z kłamcami. Dramatyczny apel

„To kwestia polityczna… jaką równowagę widzimy między swobodami indywidualnymi a pewną formą ograniczeń tego, co ludzie mogą, a czego nie mogą powiedzieć” – powiedział BBC prof. Rasmus Kleis Nielsen, dyrektor Instytutu Studiów Dziennikarskich Reutera na Uniwersytecie Oksfordzkim. Prof. Nielsen przyznaje, że chociaż jest to niewielka część strumienia informacji, które docierają do ludzi, to dezinformacja naukowa może prowadzić do nieproporcjonalnych szkód.

Biorąc pod uwagę brak zaufania do instytucji, jest to naprawdę duży czynnik dezinformacji. Usuwanie informacji naukowych, które nie są prawdziwe, dla wielu ludzi wierzących w spiski jest tylko potwierdzeniem tego, że to, w co wierzą, ma sens. Tym bardziej że wiele z tych informacji nie pojawia się na peryferiach internetu, ale na takich platformach, jak Facebook, Twitter czy YouTube. Usunięcie z nich informacji sprawia, że trafiają właśnie na peryferia internetu, tam, skąd będzie je ciężko usunąć – pisze BBC. To może według serwisu wyrządzić jeszcze więcej szkód. Tym bardziej że wiele incydentów związanych z przemocą zostało zainspirowanych właśnie przez takie informacje z peryferii, którymi karmią się osoby wierzące w spiski. Fake newsy rozprzestrzeniane są za pomocą komunikatorów lub zamkniętych grup dyskusyjnych pozostających poza jakąkolwiek kontrolą.

Nowe i stare teorie

Fałszywe informacje na temat medycyny i zdrowia nie są niczym nowym, nie zrodziła ich pandemia Covid-19. Wiara w związek między szczepionką MMR a autyzmem pochodzi z opublikowanego (i później wycofanego) artykułu akademickiego, podczas gdy rozpowszechnione, nieudowodnione przekonania o szkodliwości fluoryzacji wody były napędzane przez media drukowane, grupy działaczy i pocztę pantoflową. W internecie nadal krążą fałszywe informacje na temat HIV/AIDS, które powstały w latach 70. i 80. zeszłego wieku. Teraz informacje rozprzestrzeniają się znacznie szybciej i docierają do ogromnej liczby ludzi. Zamiast usuwać treści, jednym ze sposobów walki z dezinformacją sugerowanym przez autorów raportu jest utrudnienie wyszukiwania i udostępniania oraz mniejsze prawdopodobieństwo automatycznego pojawiania się takiej informacji w czyimś kanale. To, jak wyjaśniła BBC prof. Gina Neff, socjolog z Oxford Internet Institute, ma „zapewnić, że ludzie nadal będą mogli mówić, co myślą” – po prostu nie będą mieli dostępu do milionowej publiczności.

Instytut Dialogu Strategicznego (ISD), think tank monitorujący ekstremizm, wskazuje, że znaczna część dezinformacji opiera się na przywłaszczeniu i niewłaściwym wykorzystaniu prawdziwych danych i badań. Jedną z najczęstszych dezinformacji na temat szczepionek w ciągu ostatniego roku była informacja, że szczepienia powodują masowe problemy zdrowotne. To twierdzenie opiera się na błędnej interpretacji prawdziwych liczb.

Według badań ISD niewielka grupa kont rozpowszechniających dezinformację miała „nieproporcjonalny wpływ na debatę publiczną w mediach społecznościowych”. Wiele z tych kont działa nadal, mimo iż wielokrotnie zostały oznaczone jako udostępniające fałszywe lub wprowadzające w błąd treści. Tymczasem według raportu Royal Society wystarczyło tak zmienić algorytm, by filmy szerzące dezinformację na YouTubie czy na Facebooku nie były już tak dobrze widoczne w wyszukiwarce. A to znacząco obniżyło ich zasięg. Nie trzeba było ich nawet usuwać. Badania przeprowadzone na Uniwersytecie w Cardiff wykazały, że blokowanie Kate Shemirani, byłej pielęgniarki i szerzycielki dezinformacji na temat Covid-19, zmniejszyło jej zasięg w krótkim okresie. Zdaniem naukowców to jest obecnie najlepsza metoda na walkę z dezinformacją – blokowanie dostępu do masowej widowni.

Brytyjskie Towarzystwo Królewskie (The Royal Society) jest najstarszą na świecie nieprzerwanie działającą instytucją naukową, która tym razem stara się sprostać wyzwaniom stawianym przez najnowsze sposoby przekazywania informacji. W swoim raporcie odradza platformom społecznościowym usuwanie treści „legalnych, ale szkodliwych”. Zamiast tego portale powinny dostosować algorytmy, aby zapobiec rozprzestrzenianiu się fałszywych informacji i zarabianiu na nich.

Nauczka z Pandemic

Pozostało 93% artykułu
2 / 3
artykułów
Czytaj dalej. Subskrybuj
Biotechnologia
Sztuczna inteligencja ochroni przed kolejną pandemią? Pracują nad szczepionkami
Materiał Promocyjny
BaseLinker uratuje e-sklep przed przestojem
Biotechnologia
To istna rzeźnia. Śledczy sprawdzą testy na zwierzętach w firmie Elona Muska
Biotechnologia
Znany dystrybutor IT wchodzi w biotechnologię
Biotechnologia
Nowy zabójca wirusów. Także Covid-19 nie przeżyje
Biotechnologia
Nowa aplikacja na smartfona wykryje Covid-19 w mniej niż minutę