- Aby zminimalizować ryzyko nadmiernej ingerencji w wolność słowa, państwo musi stworzyć skuteczny system odwoławczy dla sporów dotyczących usuwania treści przez platformy internetowe z powodu naruszeń prawa autorskiego. Docelowo ten mechanizm powinien obejmować także treści zablokowane z innych przyczyn - mówi Dorota Głowacka.
/>
Polski rząd wniósł skargę do Trybunału Sprawiedliwości Unii Europejskiej na art. 17 dyrektywy o prawach autorskich na jednolitym rynku cyfrowym. Czy jest ona zasadna, czy rozwiązuje problemy związane z tym artykułem?
Trudno mi ocenić zawartość skargi, ponieważ jej tekst nie jest publicznie dostępny. Ministerstwo Spraw Zagranicznych odmawia jego udostępnienia m.in. takim organizacjom jak Centrum Cyfrowe, które było mocno zaangażowane w proces prac na dyrektywą i słusznie wskazuje, że udostępnienie skargi jest warunkiem podjęcia nad nią merytorycznej dyskusji. Dopóki nie poznamy treści skargi, trudno powiedzieć, czy jej autorom faktycznie chodziło o szukanie wyważonych rozwiązań chroniących prawa podstawowe czy był to raczej chwyt polityczny. Tak czy inaczej, ponieważ art. 17, którego podobno dotyczy, budzi tak wiele kontrowersji, TSUE jest co do zasady dobrym forum do ich ostatecznego rozstrzygnięcia.
Dużo się mówi, że nowa dyrektywa o prawach autorskich na jednolitym rynku cyfrowym wprowadzi cenzurę w sieci, ale przecież będzie to zale żało od platform internetowych. Czy rzeczywiście jest groźba, że będą one blokować treści na wszelki wypadek – by zwolnić się od odpowiedzialności?
Uważam, że istnieje takie ryzyko. Co prawda dyrektywa nie zobowiązuje dostawców do wprowadzenia konkretnych środków kontroli treści, takich jak np. automatyczne, prewencyjne filtry, ale w praktyce może to być jedyny sposób, żeby skutecznie zrealizować jej założenia i wywiązać się z obowiązków, które nakłada na platformy internetowe. Z jednej strony więc to, że dyrektywa nie prowadza wprost takiego rozwiązania, daje swobodę wyboru najbardziej proporcjonalnych środków, ale z drugiej – jest w niej wiele bardzo ogólnych sformułowań, które, jeśli zostaną przeniesione na grunt krajowy, mogą sprawić, że aby czuć się bezpiecznie, dostawcy będą działać nadgorliwie. Dyrektywa zawiera oczywiście pewne rozwiązania mające zabezpieczać wolność słowa, np. wymaga stworzenia gwarancji chroniących przed „cenzurą” satyrę, uprawnioną krytykę czy recenzję. Problem w tym, że algorytmy aktywnie filtrujące treści dodawane przez użytkowników mogą nie rozpoznawać poprawnie tego, co rzeczywiście narusza prawo autorskie, od tego, co mieści się w ramach dozwolonego użytku utworów chronionych. Dlatego w procesie implementacji dyrektywy kluczowe jest odpowiednie wprowadzenie jeszcze innej gwarancji chroniącej użytkowników przed nadmiernym blokowaniem, mianowicie skutecznych mechanizmów odwoławczych pozwalających na realne i sprawne zakwestionowanie decyzji podjętej przez platformę internetową, gdy użytkownik się z nią nie zgadza. Chodzi o to, żeby z platformy skutecznie usuwały to, co faktycznie narusza prawo autorskie, ale żeby przy okazji nie cierpiały na tym legalne, często wartościowe materiały.
Ale przecież jeśli wszystko zablokują, to nie będzie treści, na których będą mogli zarabiać.
To już kwestia kalkulacji, co się bardziej opłaca – blokować i być bezpiecznym czy wprowadzać inne mechanizmy, które mogą narazić dostawców usług na odpowiedzialność prawną, jeśli druga strona, czyli podmioty uprawnione z tytułu praw autorskich, będzie miała poczucie, że nie wywiązują się oni odpowiednio ze swoich obowiązków. Nie wiem, jaką strategię przyjmą dostawcy, jednak wolałabym nie być zdana na to, jakie rozwiązanie wybiorą poszczególne prywatne firmy. Chciałabym raczej, aby to państwo stworzyło takie mechanizmy, które, niezależnie od praktyk poszczególnych dostawców, odpowiednio zabezpieczą moje prawa, zarówno jako właścicielki praw autorskich, jak i użytkowniczki platform internetowych, która chce z nich swobodnie korzystać. Dyrektywa pozostawia do tego w pewnym stopniu pole, zobowiązując państwa członkowskie właśnie do wprowadzenia skutecznych mechanizmów odwoławczych. Być może nie rozwiąże to w całości problemów, które wiążą się z art. 17, ale przynajmmniej częściowo może zminimalizować ryzyko nadużyć, które mogą wynikać z jego stosowania.
I mechanizmy te mogą wprowadzić albo platformy same z siebie, albo państwa w procesie implementacji?
Moim zdaniem powinno się to odbyć na obu poziomach. Zresztą wymaga tego także sama dyrektywa. Z jednej strony ważne jest to, by platformy miały swoje wewnętrzne sprawiedliwe procedury odwoławcze, które zapewnią przejrzystość podejmowanych przez nie decyzji i ograniczą ich arbitralność. Przy czym rolą państwa w tym zakresie jest odpowiednio je zmobilizować, aby takie procedury wprowadziły. Powinny one obejmować m.in. obowiązek precyzyjnego wyjaśnienia przyczyn nałożenia blokady, informację o tym, w jaki sposób dany materiał został zidentyfikowany jako nadużycie i o tym, co może zrobić zablokowany użytkownik, jeśli nie zgadza się z dokonaną przez platformę oceną treści, jak może ją zakwestionować. Ważne jest też to, żeby takie odwołanie trafiało do osób, które nie były zaangażowane w podjęcie pierwotnej decyzji, by użytkownik miał możliwość przedstawienia argumentów na swoją obronę, a procedura odwoławcza miała jasno określone ramy czasowe. Powinna ona być ponadto opisana w przejrzysty sposób, np. w regulaminie danego portalu, i być łatwo dostępna dla użytkowników. Z drugiej strony powinni oni mieć zapewnioną możliwość zweryfikowania ostatecznych decyzji platform, z którymi się nie zgadzają, przed niezależnym organem zewnętrznym, takim jak sąd. To sąd ma w końcu najlepsze kompetencje do tego, żeby stwierdzić, czy doszło do naruszenia prawa, a także aby odpowiednio chronić naszą wolność słowa. Dlatego też to tego rodzaju organ, a nie prywatna firma, powinien mieć w tej sprawie ostatnie słowo.
A czy sądy poradzą sobie z możliwą liczbą spraw? Może ich być bardzo dużo, nawet po wstępnym odsianiu przez dostawcę usług.
Długotrwałość postępowań sądowych to systemowy problem naszego wymiaru sprawiedliwości i jednocześnie bardzo duże wyzwanie, które w sprawach dotyczących sporów wokół usuwania treści w sieci ma wyjątkowo istotne znaczenie. Dynamika obiegu informacji w internecie jest na tyle duża, że zakończenie sporu po latach może sprawić, że wyrok nie będzie już miał w praktyce żadnego znaczenia. Nie może być to jednak argumentem za rezygnacją z zewnętrznej, niezależnej kontroli nad decyzjami podejmowanymi przez platformy internetowe. To raczej kwestia zastanowienia się nad rozwiązaniem, które sprawi, że ta kontrola będzie rzeczywiście efektywna. Być może należałoby rozważyć stworzenie odrębnej procedury, która spowoduje, że tego typu spory będą rozstrzygane szybciej, albo powołać specjalny, niezależny organ, który odciążyłby sądy. Jednocześnie nie wyobrażam sobie, żeby każdy spór o treści trafiał do sądu – byłaby to raczej ostateczność. Dlatego tak ważne jest, żeby istniał jednocześnie wewnętrzny system odwoławczy dający użytkownikowi realną szansę na zmianę niesłusznej decyzji o usunięciu treści. Wierzę, że dzięki niemu większość błędów, które mogą się pojawiać w procesie moderacji treści, udałoby się naprawić na tym etapie.
Komisja Europejska wymogła ostatnio na FB wprowadzenie korzystnych dla użytkowników zmian do regulaminu. Podobną umowę z Facebookiem zawarł niedawno polski rząd, zobowiązując go do umożliwienia ponownego odwołania. Może takie miękkie metody są lepsze niż kontrola sądowa?
Tak jak mówiłam, to się nie wyklucza. Państwo powinno wymagać wdrożenia sprawiedliwych procedur od dostawców usług internetowych, natomiast wprowadzenie zewnętrznej kontroli nad ich decyzjami jest drugim, niezależnym elementem systemu, który w sumie ma nas chronić przed nadmiernym, arbitralnym usuwaniem treści przez platformy. Potrzebujemy obu tych rzeczy. Niestety jednak umowa ministerstwa z FB, która doprowadziła do utworzenia tzw. punktu kontaktowego, nie daje nam żadnej z nich. Umożliwia jedynie zwrócenie się do portalu o to, aby raz jeszcze przeanalizował daną sprawę. Na końcu więc to wciąż sam portal podejmuje ostateczne decyzje i robi to na takich samych zasadach jak wcześniej, czyli często w oparciu o niejasne przesłanki, bez odpowiednich gwarancji chroniących użytkowników przed nadużyciami. Oczywiście w indywidualnych przypadkach ten mechanizm może doprowadzić do tego, że dana treść, która została niesłusznie usunięta, będzie przywrócona. W żadnej mierze jednak nie rozwiązuje on w sposób systemowy problemu nadmiernego usuwania treści przez dostawców usług internetowych.
Czy nie byłoby dobrze wprowadzić sankcje za nieuzasadnione blokowanie?
Wydaje się, że najbardziej podstawowym roszczeniem, z którym mógłby wystąpić wobec dostawcy usług internetowych niesłusznie zablokowany użytkownik, powinno być żądanie przywrócenia usuniętych treści. Dodatkowo, moim zdaniem, powinien móc w uzasadnionych przypadkach domagać się także odszkodowania w zależności od okoliczności sprawy i negatywnych skutków, które wywołała nieuzasadniona blokada. Uważam jednocześnie, że skuteczne mechanizmy odwoławcze powinny być dostępne dla wszystkich użytkowników platform internetowych, którzy padli ofiarą nadmiernego, nieuzasadnionego blokowania treści. Nie tylko dla tych, którym usunięto jakiś materiał z uwagi na rzekome naruszenie prawa autorskiego. Pretekstem blokady mogą być także np. naruszenie dobrego imienia, nawoływanie do nienawiści, promocja nagości czy rozpowszechnianie niebezpiecznych towarów. W ten sposób z platform znikały w przeszłości różne legalne i społecznie pożyteczne materiały, takie jak np. zdjęcia z reportaży wojennych, fotografie, publikacje dokumentujące naruszenia praw człowieka, relacje z protestów społecznych czy dzieła sztuki. Są to sytuacje nie mniej groźne z punktu widzenia wolności słowa, nawet jeśli prawo nie wymaga w tym zakresie stosowania prewencyjnych, automatycznych filtrów. Dlatego, choć dyrektywa dotyczy naruszeń prawa autorskiego, chciałabym, aby jej wdrożenie stało się impulsem do wprowadzenia przez ustawodawcę skutecznych mechanizmów odwoławczych obejmujących możliwość zakwestionowania treści usuniętych także z innych przyczyn. Ma to kluczowe znaczenie dla tego, jak możemy w dobie cyfrowej realizować nasze prawo do rozpowszechniania i pozyskiwania informacji. Bez tych mechanizmów platformy internetowe wciąż będą mogły arbitralnie decydować o tym, co możemy zobaczyć w sieci, i dowolnie, praktycznie bez żadnej kontroli wyznaczać granice publicznego dyskursu.