W USA powstaje coraz więcej internetowych watchdogów, które dokumentują powody usuwania treści. Pośrednik, który nadużywa funkcji kasowania, może tracić użytkowników - twierdzi Dominika Bychawska-Siniarska.
Hejt czy też mowa nienawiści to norma w polskim internecie. Można wręcz usłyszeć opinie, że nie dorośliśmy do korzystania z wolności słowa. Czy rzeczywiście jest u nas gorzej niż w innych państwach?
/>
Wydaje mi się, że nie odbiegamy znacząco od innych państw, szczególnie jeśli mówimy o mowie nienawiści w sieci. Każde państwo ma swoją specyfikę mowy nienawiści, często związaną z mniejszościami zamieszkującymi w danym regionie, i w różny sposób sobie z nią radzi. Przykładowo ze względu na przeszłość wojenną Niemcy i Austria mają ostre prawo dotyczące antysemityzmu czy Holokaustu. U nas długo zawodziły organy ścigania, dlatego fenomen tak wybrzmiał. Prokuratura nie traktowała spraw z art. 256 czy 257 kodeksu karnego priorytetowo. To się zmienia, ale nadal proporcja czynów do wyroków jest bardzo słaba. Większość spraw jest umarzana ze względu na niewykrycie sprawcy. Pokutuje też brak edukacji w zakresie różnorodności i poszanowania dla odmienności. Nie jesteśmy przyzwyczajani do „innych”. To skutkuje większym przyzwoleniem społecznym na wypowiedzi godzące w godność migrantów, homoseksualistów itd.
Sposobem na walkę z hejtem w sieci jest, zdaniem niektórych, odpowiedzialność serwisów za treści umieszczane przez internautów. To dobra droga?
Zdecydowanie tak. Oczywiście musi ona być połączona ze skutecznym działaniem prokuratury, jeśli serwis z jakichś przyczyn odmówi usunięcia treści. Odpowiedzialność pośredników za nienawistne komentarze potwierdził ostatnio Europejski Trybunał Praw Człowieka w węgierskiej sprawie MET i Index.hu. Sędziowie strasburscy uznali, że pośrednicy mają obowiązek filtrowania i usuwania komentarzy, które są nienawistne. Nawet jeśli są pośrednikiem społecznym, tj. nie czerpią korzyści z prowadzenia strony internetowej. Oczywiście w praktyce nie jest to proste. Dostawcy muszą bowiem wprowadzić odpowiednie ostrzeżenia, regulacje. Ich polityka usuwania treści musi być w jak największym stopniu transparentna, żeby nie narazili się np. na zarzut cenzury. Do tego dochodzi również szybka multiplikacja treści w internecie i pytanie, czy serwis ma zdjąć treść, jeśli analogiczna została zdjęta wcześniej przez Facebooka czy innego pośrednika. Nie jest to łatwe w praktyce.
Takie filtrowanie w sposób oczywisty kłóci się jednak z wolnością słowa i swobodą wypowiedzi. Serwis internetowy pełni wówczas rolę cenzora.
Przy obowiązku kasowania treści rzeczywiście może się pojawić ryzyko nadużyć, gdy pośrednicy będą kasować nie tylko wpisy zawierające mowę nienawiści, lecz także neutralne, przyczyniające się do debaty publicznej. Dochodzi do tego problem dyskrecji pośredników, którzy muszą działać jak sędziowie i decydować, czy wpis stanowi mowę nienawiści i należy go usunąć, czy też jest po prostu nieelegancką krytyką. Te argumenty podnosiliśmy zresztą jako amicus curiae przed Europejskim Trybunałem Praw Człowieka w sprawie Delfi przeciwko Estonii.
Jak zatem pogodzić wolność słowa z walką z mową nienawiści?
Posłużę się przykładem wpisów o imigrantach. Jeśli wpis jest wyrazem pogardy, dlatego że należą oni do mniejszości religijnej, etnicznej czy narodowej, to powinien być kasowany. Jeśli jest wyrazem złości na migrantów chociażby z powodów ekonomicznych, to powinien być akceptowalny. W praktyce może to budzić wątpliwości i prowadzić do naruszenia wolności słowa. Dlatego jest tak ważne, żeby pośrednicy swoje decyzje podejmowali transparentnie, podając swoje stanowisko użytkownikom. W USA powstaje coraz więcej internetowych watchdogów (np. Lumen Project w Berkman Center na Harvardzie), które starają się śledzić działania pośredników i dokumentować powody usuwania treści. Pośrednik, który nadużywa funkcji kasowania, może tracić użytkowników.
Ale przecież i polskie, i unijne prawo zwalnia serwisy internetowe z odpowiedzialności tak długo, jak nie wiedzą o bezprawnym charakterze umieszczanych przez internautów treści.
Rzeczywiście, ani z prawa UE, ani wyroków Trybunału Sprawiedliwości Unii Europejskiej taki obowiązek nie wynika. Pośrednik staje się odpowiedzialny za treść tylko wtedy, kiedy się dowiaduje o jej bezprawnym charakterze i nie decyduje się na jej usunięcie. Wyroki ETPC w sprawie Delfi przeciw Estonii i w sprawie MET i Index.hu przeciwko Węgrom wprowadziły więc spory chaos. Na pośredników nakłada się bowiem obowiązek filtrowania i usuwania treści, ale tylko tych nienawistnych. Wydaje się, że w praktyce prowadzi to do obowiązku filtrowania wszystkich, tak aby wyłapać te zawierające mowę nienawiści i je usunąć. Wierzę jednak, że taki obowiązek wynikający z orzeczenia ETPC zadziała na pośredników mobilizująco i wprowadzą formy usuwania nienawistnych treści skuteczniejsze niż report button, który musi być wciśnięty przez kilkudziesięciu użytkowników, żeby wpis zniknął. Trzeba tu zaznaczyć, że trybunał w Strasburgu obowiązek monitorowania i filtrowania wpisów wyartykułował tylko wobec najpoważniejszej mowy nienawiści. Z takiego obowiązku zwolnił przy sporach prywatnych (gdy wpis narusza reputację innej osoby), co do których pośrednik odpowiada zgodnie z procedurą notice and takedown. Niezły zamęt, ale myślę, że w praktyce może to naprawdę zadziałać, a przynajmniej przyspieszyć usuwanie nienawistnych treści.
Znajduje pani przykłady innych państw, które radzą sobie z mową nienawiści?
Mogłabym wskazać na Stany Zjednoczone, które radzą sobie z hejtem poprzez większą debatę, zakrycie złych słów dobrymi. Pierwszą poprawkę i wolność słowa w niej zawartą traktuje się niezwykle poważnie. Nie ma więc przepisów penalizujących mowę nienawiści. Moderatorzy serwisów i sami użytkownicy starają się jednak zagłuszać mowę nienawiści pozytywnymi wypowiedziami. Warto jednak podkreślić, że coraz więcej głosów w USA przychyla się do poglądu prof. Jeremiego Waldrona, zdaniem którego mowa nienawiści powinna być przestępstwem.