UE chce, by dyrektywa audiowizualna miała zastosowanie także do treści zamieszczanych w social mediach przez ich użytkowników. Ma to pomóc walczyć z hejtem w sieci.
Państwa członkowskie Unii uzgodniły finalny projekt przepisów, które zmuszą Facebooka, YouTube’a i inne media społecznościowe do szybszego reagowania na filmiki, których twórcy sieją mowę nienawiści lub nawołują do ataków terrorystycznych. Teraz zgodę na nowe regulacje musi dać już tylko Parlament Europejski.
Reklama

Reklama
Usuwanie treści
Zaproponowane unormowania są efektem prac nad zmianą dyrektywy dotyczącej świadczenia audiowizualnych usług medialnych (2010/13/UE). Obecnie obejmują one zarówno tradycyjną telewizję i radio, jak i wideo na żądanie (VoD). Dotychczas dyrektywa audiowizualna nie miała zastosowania do treści zamieszczanych na platformach online przez użytkowników. Działalność dostawców takich usług regulują przede wszystkim przepisy dyrektywy o handlu elektronicznym, zgodnie z którą operatorzy świadczący usługę hostingu (czyli, mówiąc najprościej, przechowywania treści) nie ponoszą odpowiedzialności redakcyjnej za to, co udostępniają internauci. Co więcej, dyrektywa ta wprowadza też ogólny zakaz filtrowania aktywności użytkowników. Muszą jednak zareagować i usunąć materiał, jeśli wiedzą, że ma on charakter bezprawny.
Walczyć z rasizmem
Ze względu na zmiany sposobów oglądania TV oraz dynamiczny wzrost udziału w rynku medialnym platform online bazujących na treściach udostępnianych przez internautów, Bruksela doszła do wniosku, że czas najwyższy na objęcie ich częścią zasad, które obowiązują nadawców starego typu. Europejscy przywódcy i unijni urzędnicy od dłuższego czasu są zwłaszcza zgodni, że amerykańskie portale społecznościowe – do tej pory cieszące się przywilejami samoregulacji – powinny włożyć większy wysiłek w walkę z przekazem rasistowskim i ksenofobicznym, naruszającym przepisy karne. Rok temu Facebook, Twitter, Google i Microsoft przyjęły pod wpływem presji Brukseli i organizacji pozarządowych kodeks zwalczania nielegalnej mowy nienawiści w sieci, zgodnie z którym moderatorzy ich serwisów mieli w ciągu 24 godzin weryfikować zgłoszenia o nadużyciach oraz usuwać hejterskie wpisy i nagrania. Z grudniowego raportu Komisji Europejskiej wynika jednak, że social media kasują średnio niewiele ponad jedną czwartą materiałów zgłoszonych przez użytkowników jako mowa nienawiści, a tylko 40 proc. z nich znika zgodnie z obietnicą w ciągu doby (jutro KE ma podać zaktualizowane dane w tej sprawie).
Przedstawiciele firm technologicznych tłumaczą, że sprawdzanie na bieżąco każdego filmu czy wpisu uznanego za podejrzany przekracza ludzkie możliwości. Szacuje się bowiem, że w ciągu minuty na YouTubie zamieszczanych jest średnio 400 godzin materiału wideo, a na Facebooku dziennie pojawia się 350 mln nowych zdjęć.
Mimo to Bruksela jest przekonana, że media społecznościowe mają środki ku temu, aby skuteczniej zapanować nad masą hejtu przewijającą się przez ich platformy.
Dlatego też zgodnie z zaproponowaną aktualizacją dyrektywy social media będą musiały stworzyć mechanizmy prostego oznaczania czy sygnalizowania treści budzących wątpliwości z prawnego punktu widzenia (mowa nienawiści nawoływanie do przemocy) oraz materiałów audio i wideo, które mogą być niewłaściwe dla dzieci (np. pornografia, sceny agresji).
Operatorzy platform internetowych będą też zobowiązani do wprowadzenia narzędzi, które pozwolą użytkownikom na ocenianie udostępnianych filmów pod kątem potencjalnej szkodliwości dla małoletnich, obecności przemocy czy ksenofobicznej wymowy.
Ponadto ewentualne spory między dostawcą usług a użytkownikiem mają być rozstrzygane na bazie przejrzystych, łatwych do zastosowania procedur.
„Nie” cenzurze w sieci
Wszystkie te rozwiązania w założeniu nie stoją w sprzeczności ze zwolnieniem operatorów social mediów z odpowiedzialności związanej z samym przechowywaniem potencjalnie nielegalnych materiałów udostępnianych przez użytkowników. Nadal ogólne monitorowanie ich aktywności będzie wykluczone. Jak wyjaśnia Komisja Europejska, autor projektu wyjściowego, nowe przepisy odnoszą się wyłącznie do sposobu organizowania treści wideo na platformach na bazie algorytmów, a nie ich istoty, stąd nie ma mowy o żadnej próbie cenzury.
Tłumaczenia te nie przekonują jednak organizacji pozarządowych stojących na straży wolności w internecie. W opinii stowarzyszenia European Digital Rights (należy do niej m.in. Fundacja Panoptykon) proponowane uregulowania są sformułowane tak mgliście, że mogą prowadzić do usuwania podejrzanych materiałów w ramach prewencji. Organizacji nie podoba się zwłaszcza m.in. szerokie ujęcie w zmienionej dyrektywie mowy nienawiści, wykraczające ponad to, co obecnie jest prawnie zakazane.
Zgodnie ze zmodyfikowanym art. 28a operatorzy platform online mają obowiązek chronić użytkowników przed treściami nawołującymi do przemocy lub nienawiści nie tylko ze względu na rasę czy religię, lecz także np. „przekonania polityczne i inne opinie”. „Taki brak precyzji i jasności może skłaniać firmy do arbitralnych i samowolnych decyzji” – uważa organizacja.
Krytyczna jest także branża technologiczna. EDiMA, stowarzyszenie skupiające internetowych gigantów, w swoim niedawnym liście do KE przekonuje, że niejednoznaczność projektowanych przepisów doprowadzi do naruszenia fundamentów rynku cyfrowego, opierającego się dyrektywie o handlu elektronicznym i wyłączeniu odpowiedzialności pośredników. „Wymóg blokowania treści, które nie są nielegalne, jest nieproporcjonalny i zagraża wolności wypowiedzi” – dowodzi branża.