1,55 miliarda – tyle fałszywych profili zablokował Facebook w samym tylko drugim półroczu 2018 r. Zdecydowana większość tych kont to produkty botów, czyli automatyzowanych programów. Facebook szacuje, że stoją one za mniej więcej 3–4 proc. wszystkich profili. Dane te znalazły się w opublikowanym wczoraj raporcie o postępach w realizowaniu kodeksu walki z fake newsami w sieci, który największe firmy technologiczne – Google, Facebook, Twitter i Mozilla – w lipcu ubiegłego roku przyjęły pod presją Komisji Europejskiej.
Bruksela jest jednak daleka od zadowolenia z dotychczasowych osiągnięć platform internetowych, choć docenia ich wysiłki w blokowaniu fałszywych kont oraz zwiększeniu przejrzystości reklam o charakterze politycznym. Na przykład Facebook zarzeka się, że fikcyjne profile usuwa już w ciągu kilku minut od ich wykrycia.
Z kolei Twitter twierdzi, że ponad połowa takich kont jest zawieszana nie później niż tydzień od rejestracji. Jeśli chodzi o transparentność ogłoszeń politycznych, to Facebook zaczął wymagać, aby partie i organizacje, które promują się na jego platformie, zamieszczały informację, za czyje pieniądze wykupiono miejsce reklamowe. Na razie działa to jednak tylko w Wielkiej Brytanii.
W pozostałych krajach europejskich – jak obiecuje technologiczny gigant – wymóg informowania o źródłach finansowania reklam zacznie być egzekwowany przed wyborami do europarlamentu. Należący do Google’a YouTube w całym 2018 r. usunął 42 kanały propagandowe powiązane z Internet Research Agency, często określaną mianem rosyjskiej fabryki trolli oraz 39 z irańskim rządem. Większość platform zaczęła też skuteczniej egzekwować swoje polityki zakazujące reklamodawcom ukrywania informacji o sobie i swoich produktach.
Andrus Ansip, wiceprzewodniczący Komisji Europejskiej do spraw jednolitego rynku cyfrowego, powiedział wczoraj, że postępy platform internetowych w walce z dezinformacją w sieci są zbyt powolne, biorąc pod uwagę zbliżające się wybory do Parlamentu Europejskiego.
E zapowiedziała też, że pod koniec 2019 r. przeprowadzi kompleksową ocenę wprowadzonych przez nie zmian i narzędzi i jeśli uzna je za niewystarczające, to samoregulację mogą zastąpić konkretne przepisy unijne. Przyjęty w lipcu kodeks postępowania to bowiem jedynie zbiór zaleceń dla firm technologicznych dotyczących tego, jak ograniczyć napór kłamliwych i zmanipulowanych informacji w social mediach. Wśród nich znalazło się m.in. szybkie identyfikowanie i zamykanie fałszywych profili oraz botów, wprowadzenie możliwości oceniania źródeł treści jako mniej lub bardziej wiarygodnych na podstawie obiektywnych kryteriów oraz wyjaśnianie użytkownikom zasad działania algorytmów porządkujących posty.
3-4 proc. wszystkich kont na Facebooku stworzyły boty
1,4 mln fikcyjnych kont zawiesił Twitter w 2018 r. za masowe produkowanie wpisów spamów