Witold Chomiczewski: Klauzula dobrego Samarytanina

Jak działała będzie zaproponowana w projekcie Digital Services Act klauzula oraz jak wpłynie ona na odpowiedzialność za treści w Internecie – wyjaśnia Witold Chomiczewski, radca prawny.

Publikacja: 28.03.2021 20:01

Witold Chomiczewski: Klauzula dobrego Samarytanina

Foto: iStock

W aktualnym stanie prawnym usługodawca internetowy świadczący usługę hostingu (np. portal społecznościowy, właściciel serwisu z wideo dodawanymi przez użytkowników, czy forum internetowego), który chce z własnej woli weryfikować, czy materiały pochodzące od użytkowników Internetu nie są bezprawne, paradoksalnie komplikuje swoją sytuację prawną.

Po pierwsze, zgodnie z art. 15 ustawy z dnia 18 lipca 2002 r. o świadczeniu usług drogą elektroniczna nie ma takiego obowiązku. Po drugie, co istotniejsze, zgodnie z art. 14 ust. 1 tej ustawy taki usługodawca internetowy nie ponosi odpowiedzialności za treści pochodzące od usługobiorców, jeżeli nie wie o bezprawnym charakterze danych lub związanej z nimi działalności, a po uzyskaniu takiej wiedzy niezwłocznie uniemożliwi do nich dostęp. Udowodnienie usługodawcy internetowemu, że z własnej woli w niektórych sytuacjach podejmował działania zmierzające do znalezienia i usunięcia bezprawnych treści, może tworzyć domniemanie faktyczne dotyczące przesłanki wiedzy. W konsekwencji, dostawca usługi hostingu straci wówczas wyłączenie odpowiedzialności, bo sąd może uznać, że wiedzą posiadał.

Taka regulacja zniechęcała zatem dostawców usługi hostingu do proaktywnego działania i samodzielnego wyszukiwania i usuwania bezprawnych treści.

Klauzula dobrego Samarytanina ma to zmienić

W projekcie rozporządzenia Digital Services Act, które ma zastąpić dyrektywę 2000/31/WE, a tym samym powyższą regulację ustawy o świadczeniu usług drogą elektroniczną, przewidziana jest regulacja mająca wyeliminować opisany problem. Zgodnie z art. 6 projektu usługodawcy internetowi nie będą tracili wyłączeń odpowiedzialności jedynie z tego powodu, że prowadzą z własnej inicjatywy dochodzenia lub inne działania mające na celu wykrycie, identyfikację i usunięcie nielegalnych treści lub uniemożliwienia do nich dostępu. Rozwiązanie to ma zatem zapewnić usługodawcom internetowym możliwość wprowadzania rozwiązań informatycznych, które będą identyfikowały bezprawne treści, czy zatrudniania moderatorów, których zadaniem będzie eliminowanie tego typu treści, bez ryzyka utraty wyłączenia odpowiedzialności. Nie będzie zatem dopuszczalne, w mojej ocenie, budowanie domniemania faktycznego co do wiedzy dostawcy usługi hostingu jedynie w oparciu o fakt, że prowadzi opisane powyżej działania.

Słuszny kierunek

Zaproponowana w projekcie Digital Services Act klauzula dobrego Samarytanina jest rozsądnym rozwiązaniem. Paradoksalnie bowiem, dotychczasowa regulacja oraz jej interpretacja były kontrproduktywne. Karały tych usługodawców, którzy z własnej woli, mimo braku takiego obowiązku, decydowali się na walkę z bezprawnymi treściami. Zamiast wspierać tego typu inicjatywny, byli za nie „karani” pogorszeniem swojej sytuacji prawnej na gruncie odpowiedzialności za treści pochodzące od użytkowników. Opisany projekt powinien zatem doprowadzić do zwiększenia liczby tego typu inicjatyw i przyczynić się do zmniejszenia liczby bezprawnych treści w Internecie.

Prace legislacyjne są jeszcze w tokurc

Prace legislacyjne nad rozporządzeniem Digital Services Act jeszcze trwają, jednak na chwilę obecną wydaje się, że klauzula dobrego Samarytanina pozostanie w przyszłej regulacji.

Autorem tekstu jest Witold Chomiczewski, radca prawny i wspólnik w Lubasz i Wspólnicy – Kancelarii Radców Prawnych sp.k. Kancelaria jest zrzeszona w sieci Kancelarie RP działającej pod patronatem dziennika „Rzeczpospolita”.

W aktualnym stanie prawnym usługodawca internetowy świadczący usługę hostingu (np. portal społecznościowy, właściciel serwisu z wideo dodawanymi przez użytkowników, czy forum internetowego), który chce z własnej woli weryfikować, czy materiały pochodzące od użytkowników Internetu nie są bezprawne, paradoksalnie komplikuje swoją sytuację prawną.

Po pierwsze, zgodnie z art. 15 ustawy z dnia 18 lipca 2002 r. o świadczeniu usług drogą elektroniczna nie ma takiego obowiązku. Po drugie, co istotniejsze, zgodnie z art. 14 ust. 1 tej ustawy taki usługodawca internetowy nie ponosi odpowiedzialności za treści pochodzące od usługobiorców, jeżeli nie wie o bezprawnym charakterze danych lub związanej z nimi działalności, a po uzyskaniu takiej wiedzy niezwłocznie uniemożliwi do nich dostęp. Udowodnienie usługodawcy internetowemu, że z własnej woli w niektórych sytuacjach podejmował działania zmierzające do znalezienia i usunięcia bezprawnych treści, może tworzyć domniemanie faktyczne dotyczące przesłanki wiedzy. W konsekwencji, dostawca usługi hostingu straci wówczas wyłączenie odpowiedzialności, bo sąd może uznać, że wiedzą posiadał.

2 / 3
artykułów
Czytaj dalej. Subskrybuj
Opinie i komentarze
Co niosą ze sobą treści pornograficzne generowane przez sztuczną inteligencję
Opinie i komentarze
Dominik Skoczek: W Polsce cyfrowi giganci mają się dobrze
Opinie i komentarze
Tantiemy autorskie z internetu: jak korzyści nielicznych przekuć w sukces wszystkich
Opinie i komentarze
Od kredy i tablicy po sztuczną inteligencję. Szkoła chce być na czasie
Opinie i komentarze
Odpowiedzialne innowacje, czyli wątpliwości wokół Neuralinka i sterowania myślami