Prywatna cenzura

Opublikowano: 07.02.2023 | Kategorie: Prawo, Publicystyka, Telekomunikacja i komputery

Liczba wyświetleń: 2005

Istotne wyzwania dla swobody wypowiedzi stwarzają dziś nie tylko ci tradycyjni publiczni cenzorzy, ale także ci prywatni, czyli dominujący w Internecie cybergiganci. Ci, którzy w praktyce kontrolują główne kanały obiegu treści oraz wymiany informacji: największe media społecznościowe i wyszukiwarki. To oni decydują o tym, co i jak rozchodzi się po sieci, a co z niej znika. Dzięki temu mają moc wpływania nie tylko na światopogląd poszczególnych osób, ale też na nastroje społeczne i wyniki wyborów. Z Dorotą Głowacką – prawniczką i aktywistką Fundacji Panoptykon, rozmawia Krzysztof Story.

– A myśleliśmy, że wolność słowa i nieograniczony dostęp do informacji będzie największym osiągnięciem epoki wszechobecnego Internetu…

– I jest! Mamy natychmiastowy dostęp do wiedzy, danych naukowych, informacji z całego świata. Możemy łatwiej organizować protesty i pomoc humanitarną. Media społecznościowe, które dla wielu osób stały się furtką do korzystania z sieci, to dziś znacznie więcej niż miejsce, gdzie wrzucamy zdjęcia kotów i fotki z wakacji. Jednocześnie to nic niezwykłego, że nowe technologie poza możliwościami przyniosły też zagrożenia. Szkoda tylko, że spóźniliśmy się z reakcją na te ostatnie – i teraz rzeczywiście stoimy w obliczu poważnych problemów, które niełatwo będzie przezwyciężyć.

– Teraz już reagujemy?

– Sama przeszłam w tym zakresie pewną ewolucję. Przez lata zajmowałam się ochroną wolności słowa w Helsińskiej Fundacji Praw Człowieka. Skupiałam się na zagrożeniach, które stwarza państwo, np. przyjmując i stosując opresyjne dla mediów prawo, które ogranicza im możliwość wykonywania funkcji publicznego stróża. W którymś momencie stało się dla mnie jasne, że istotne wyzwania dla swobody wypowiedzi stwarzają dziś nie tylko ci tradycyjni publiczni cenzorzy, ale także ci prywatni, czyli dominujący w Internecie cybergiganci. Ci, którzy w praktyce kontrolują główne kanały obiegu treści oraz wymiany informacji: największe media społecznościowe i wyszukiwarki. To oni decydują o tym, co i jak rozchodzi się po sieci, a co z niej znika. Dzięki temu mają moc wpływania nie tylko na światopogląd poszczególnych osób, ale też na nastroje społeczne, wyniki wyborów i na to, jak realnie korzystamy dziś z wolności słowa. Choć jako Panoptykon wciąż mamy dużo do zrobienia na polu edukacji i walki o nasze prawa na platformach internetowych, dostrzegam realną zmianę w świadomości ludzi, w tym polityków. Coraz więcej osób dostrzega, że algorytmy „TikToka”, „Facebooka” czy „Google’a” mają kolosalny wpływ na współczesny świat i że za tak wielką władzą powinna iść odpowiedzialność. Myślenie, że sposób, w jaki największe internetowe platformy zarządzają treścią, jest wyłącznie ich prywatną sprawą, powoli odchodzi do lamusa. Długo dominował pogląd, że można się z nimi po prostu dogadać, że wystarczy wypracować odpowiednie wewnętrzne regulaminy, kodeksy dobrych praktyk i będziemy mieć problem z głowy. Dziś jasno widać fiasko tego podejścia.

– Co było takim przełomowym momentem? Afera Cambridge Analytica, kiedy okazało się, że dane zbierane o nas przez sieci społecznościowe mogą zmienić wyniki wyborów w dużej i starej demokracji?

– Dzięki sprawie Cambridge Analytica rzeczywiście stało się jasne, że model biznesowy cyberkorporacji bazujący na ciągłym śledzeniu, analizie zachowań i wyłapywaniu słabości ludzi po to, aby podsuwać im jak najbardziej angażujące treści, może być wykorzystywany nie tylko do sprzedaży nowego szamponu czy bluzki, ale też konkretnego polityka. W przypadku tej prywatnej cenzury przełomem był dla mnie ban dla francuskiego nauczyciela w 2011 r., który opublikował na „Facebooku” zdjęcie XIX-wiecznego pozbawionego pruderii obrazu Gustave’a Courbeta Pochodzenie świata, a następnie – chyba jako pierwszy na świecie – pozwał serwis za nieuzasadnioną blokadę. W 2016 r. głośnym echem odbiło się najpierw zablokowanie przez „Facebook” zdjęcia modelki plus size Tess Holiday ze względu na naruszenie wewnętrznych standardów dotyczących „promocji zdrowego stylu życia”, a potem usunięcie nagrodzonej Pulitzerem fotografii Nicka Uta Napalm girl, zrobionej podczas wojny w Wietnamie, którą opublikowała na swoim profilu jedna z norweskich gazet – tym razem miało chodzić o naruszenie zasad dotyczących dziecięcej nagości. Wszystko to odbyło się w mocno nieprzejrzysty i arbitralny sposób.

– Ale przecież dokładnie tak samo działają tradycyjne media. Na kolegium redakcyjnym w gazecie decyduje się, który temat można pominąć, a który jest ważny i jak go opisać.

– Ależ to jest nieporównywalne! Tak zwane tradycyjne media mają zupełnie inną specyfikę działania i rolę społeczną. Kluczowe jest to, że żaden, nawet największy, koncern medialny nie ma dzisiaj takiego monopolu na informację, jak giganci technologiczni, których można policzyć na palcach jednej ręki. Co więcej, także te tradycyjne media często są od nich całkowicie zależne, bo to właśnie z „Facebooka”, „Twittera” czy „Google’a” większość ludzi trafia na ich artykuły i filmy. Z raportu Digital News Report 2020 wynika na przykład, że tylko nieco ponad jedna czwarta odbiorców korzystała ze stron źródłowych mediów lub aplikacji oferowanych przez wydawców jako najczęstszego sposobu dostępu do wiadomości w sieci. Ponad 70 proc. docierało do nich najczęściej za pośrednictwem portali społecznościowych, wyszukiwarek czy agregatorów wiadomości. To niestety sprawia, że media ulegają poczuciu, iż muszą grać według reguł internetowych platform – czyli publikować treści, które będą przede wszystkim budzić emocje i dobrze się klikać, zamiast wartościowego, zaangażowanego społecznie dziennikarstwa, które ujawnia nadużycia władzy i służy społeczeństwu. A i tak wygląda na to, że na skutek zmian w algorytmach rekomendacyjnych na platformach społecznościowych treści dziennikarskie od kilku lat mają coraz gorsze zasięgi. Media społecznościowe miały być szansą dla dziennikarstwa wysokiej jakości, jednak dziś jasno widać, że przyczyniły się do jego postępującego kryzysu.

– Nie tylko media są uzależnione od cybergigantów, ale też politycy. Platformy są dzisiaj w stanie zablokować profil dużej polskiej partii politycznej, a nawet byłego prezydenta Stanów Zjednoczonych.

– Zgadza się. Mogą zrobić to z dnia na dzień, na podstawie ustalonych przez siebie kryteriów, bez wyjaśnień, bez możliwości realnego zakwestionowania takiej decyzji. To jest właśnie istota problemu prywatnej cenzury. Dlatego dopóki platformy nie będą stosować bardziej przejrzystych i sprawiedliwych procedur, dopóki nie powstanie sprawny system niezależnego nadzoru nad ich decyzjami, dopóty każdy ban będzie budził wątpliwości. Nawet wtedy, gdy ktoś sobie faktycznie ciężko na niego zapracował.

– Da się to zmienić?

– Staramy się. Panoptykon działa tutaj na dwa sposoby. Po pierwsze, próbujemy przecierać ścieżkę sądową tym, którzy czują się niesprawiedliwie zablokowani. W 2018 r. „Facebook” bez ostrzeżenia i większych wyjaśnień zablokował profil Społecznej Inicjatywy Narkopolityki. To organizacja zajmująca się edukacją narkotykową, a także działaniami z zakresu tzw. redukcji szkód. SIN w swoich postach zachęcał oczywiście ludzi do tego, żeby nie brali w ogóle, ale też pokazywał, jak robić to bezpieczniej, na co uważać, żeby nie zrobić sobie i innym naprawdę dużej krzywdy. Takie podejście jest uznanym na świecie elementem działań antynarkotykowych, ale „Facebook” prawdopodobnie uznał je za promocję narkotyków.

– W 2019 r. zaczął się proces, w którym wspieracie SIN przed polskim sądem.

– W ten sposób próbujemy zablokowany profil odzyskać. Na razie idzie nieźle: mamy tymczasową decyzję sądu, zgodnie z którą „Facebook” nie może blokować treści publikowanych przez SIN na ich nowym koncie oraz ma zabezpieczyć usunięte materiały, żeby w razie wygrania całego procesu można było je przywrócić. Poza tym sąd stwierdził, że „Facebooka” można pozwać w Polsce na podstawie polskiego prawa, co niestety wcale nie było oczywiste. Ale chociaż merytorycznie temat posuwa się w dobrą stronę, to jak na dłoni widać, że scenariusz „idź do sądu” nie jest rozwiązaniem problemu. Sprawa SIN ciągnie się już ponad trzy lata – mimo wsparcia naszego i pracującej pro bono kancelarii Wardyński i Wspólnicy. Częściowo to efekt rzucania kłód pod nogi przez samego „Facebooka”, który odmówił przyjęcia pozwu w języku polskim, twierdząc, że „nie ma w swoim zespole procesowym pracowników mówiących po polsku”. Tak: firma, która obsługuje 20 mln polskich użytkowników, twierdzi, że nie rozumie po polsku. W efekcie sąd przekazał dokumenty sprawy do oficjalnego tłumaczenia, obciążył kosztami SIN i raz jeszcze doręczał „Facebookowi” pozew za pośrednictwem sądu w Irlandii. Tłumaczenie kosztowało prawie 9 tys. zł. Zorganizowaliśmy zbiórkę i bardzo szybko zebraliśmy potrzebną kwotę. To pokazało nam, że ludziom na tym temacie zależy, ale też utwierdziło nas w przekonaniu, że potrzebujemy lepszego prawa, dzięki któremu system zewnętrznej kontroli nad moderacją treści na platformach internetowych będzie działał sprawniej.

– To ten drugi kierunek działań Panoptykonu?

– Tak. Na tym froncie dużo się teraz dzieje. Unia Europejska przyjęła niedawno rozporządzenie Digital Services Act (DSA), dużą regulację dotyczącą m.in. cybergigantów. Od początku uczestniczyliśmy w pracach nad tym dokumentem, poświęciliśmy temu prawie trzy lata. Gdy w drugiej połowie 2023 r. DSA zacznie obowiązywać w stosunku do największych platform internetowych, dostaniemy wreszcie do ręki nowe narzędzia w walce z arbitralną cenzurą.

– Co się zmieni? Załóżmy, że za rok dostanę bana na „Twitterze”.

– Po pierwsze: „Twitter” będzie musiał uzasadnić swoją decyzję, poinformować, za co konkretnie cię ukarał. Enigmatyczny komunikat o „naruszeniu standardów społeczności” nie wystarczy. Po drugie: powinien zaoferować ci możliwość skutecznego złożenia odwołania i podania w nim swoich argumentów. Po trzecie: takiego odwołania nie będzie mógł rozpatrywać wyłącznie algorytm. Oczywiście algorytmy pełnią kluczową rolę w moderacji treści, bo tych zwyczajnie jest za dużo na ludzkie możliwości. Ale nie są nieomylne. Nie wyłapują kontekstu, niektóre języki obsługują słabiej, nie zawsze trafnie rozpoznają obrazy. Mają tendencję do dyskryminowania pewnych grup: według badań bardziej narażona na zbanowanie jest np. społeczność LGBT czy czarnoskóre kobiety. To wszystko sprzyja nadmiarowemu usuwaniu treści, w tym także takich, które są w pełni legalne, a często też społecznie pożyteczne. Kiedyś zgłosiła się do nas organizacja pozarządowa, której „Facebook” zablokował post o unijnej polityce migracyjnej zilustrowany zdjęciem leżących w oddali zwłok imigrantów na greckich plażach. Algorytm usunął go za „rozpowszechnianie treści o charakterze seksualnym”.

– Odwołam się i dostanę odmowę. Co wtedy?

– DSA gwarantuje ci możliwość odwołania się poza platformę. W Europie powstaną specjalne organy do rozwiązywania takich sporów (z reguły w ciągu maksymalnie 90 dni). Będą musiały spełniać całą listę warunków i przejść procedurę certyfikacji, ale co ważne: na ich tworzenie monopolu nie będą miały państwa. Mogą to być również prywatne firmy i organizacje. Użytkownik będzie miał wybór, komu powierzy swoją skargę. Postępowanie przed nimi ma być bezpłatne dla użytkowników albo wymagać jedynie niewielkiej opłaty. Te decyzje nie będą jednak wiążące, więc DSA przewiduje, że użytkownik zawsze będzie mógł wnieść swoją sprawę również do sądu. Nawet jeśli zewnętrzną ścieżką odwoławczą wybiorą tylko najbardziej zdeterminowani, to samo jej stworzenie może zadziałać prewencyjnie, wymusić na platformach większą staranność i wpłynąć na zmniejszenie liczby popełnianych błędów.

– Czy zatem w Polsce wrócimy do pomysłu stworzenia Rady Wolności Słowa, czyli organu, który według pomysłu Ministerstwa Sprawiedliwości miał rozstrzygać spory dotyczące moderacji treści na platformach? Tylko tym razem pod skrzydłami unijnych przepisów?

– Obawiam się, że gdyby ten pomysł wrócił w oryginalnym kształcie, mógłby wypaczyć całą przewidzianą w DSA ideę zbudowania systemu zewnętrznego nadzoru nad moderacją treści na platformach internetowych. Podstawą takiego systemu musi być niezależność polityczna. Potrzeba ograniczenia władzy platform nad obiegiem informacji w sieci nie może być pretekstem do zwiększania kontroli rządzących nad tym obszarem. Tymczasem projekt Ministerstwa Sprawiedliwości pozostawiał pod tym względem dużo do życzenia. Sposób wyboru członków Rady (bez konieczności uzyskania ponadpartyjnego konsensusu) i niezbyt wyśrubowane warunki, które mieliby spełniać, nie gwarantował ani niezależności, ani eksperckiego charakteru tego organu. Jeśli dodamy do tego dość swobodne kryteria, którymi Rada miała się kierować w ocenie, jakie treści byłyby dopuszczalne, a jakie mogły być zablokowane (np. „naruszające dobre obyczaje”), to trudno mi uwierzyć, że poziom ochrony byłby dla wszystkich równy. Czy w obecnej rzeczywistości politycznej Rada stanęłaby w obronie choćby szczególnie narażonych na bany mniejszości seksualnych?

– Wróćmy do mojej wyobrażonej przygody z banem na „Twitterze”. Zastanawia mnie jeszcze jedno: a co, jeśli platforma wcale nie usunie mojego posta, tylko po prostu nikomu go nie pokaże?

– Takie nadzwyczajne zmniejszenie zasięgu, czyli shadow ban, może okazać się bardziej niebezpieczne niż tzw. twardy ban, bo możesz się nawet nie zorientować, że cię to spotkało. Dziś bardzo trudno udowodnić takie praktyki, zwłaszcza gdy firma zarzeka się, że nie stosuje żadnych „niewidzialnych” form cenzury. Teoretycznie dzięki DSA to się powinno zmienić, bo platformy będę zobowiązane informować użytkowników o każdej sankcji, która w jakikolwiek sposób ogranicza widoczność informacji. Zatem jawne i możliwe do zakwestionowania na tej samej zasadzie co twarde blokady powinny stać się zarówno shadow bany, jak i np. demonetyzacja danej treści, co zwłaszcza na YouTubie ma ogromne znaczenie. Ale jak będzie w praktyce – zobaczymy. To zależy od podejścia biznesu do wdrażania nowych przepisów.

– A czy nowe przepisy nie dają nam tej wolności zbyt dużo? Patrząc na to, jak łatwo dzisiaj o dezinformację i hejt w sieci, można mieć wątpliwości.

– To jest kluczowa sprawa: nowe przepisy pozwalające kwestionować bany nie oznaczają większego przyzwolenia na hejt czy dezinformację w Internecie. Platformy powinny reagować na bezprawne treści, w tym te szczególnie szkodliwe, takie jak nawoływanie do nienawiści. Chodzi jedynie o to, żeby moderacja nie była – jak teraz – całkowicie arbitralna i aby wpisy czy konta zablokowane przez przypadek lub niesłusznie miały szansę powrotu do sieci. Zresztą dzięki DSA platformy będzie też łatwiej rozliczyć z decyzji o nieusuwaniu treści, ponieważ osoby, które zgłaszają bezprawny wpis, będą mogły skorzystać z tych samych standardów co zablokowani, czyli przede wszystkim odwołać się od tej decyzji zarówno na platformie, jak i – w razie potrzeby – do niezależnego organu. Wiem, że wiele organizacji walczących z hejtem czy dyskryminacją różnych grup czuje się dzisiaj ignorowana przez platformy. To dwie strony tego samego medalu: niezależnie od tego, czy znajdziesz się po stronie blokowanych, czy żądających blokady, twoje prawa będę lepiej chronione, jeśli ich jedynym gwarantem nie będzie wszechwładna internetowa korporacja.

– W takim razie firmy mogą się w zasadzie cieszyć z DSA. Dostają od Komisji Europejskiej solidną propozycję rozwiązania problemu, z którym same nie umiały sobie poradzić, a przecież lepsze uregulowanie nadmiernego blokowania w ogóle nie zagraża ich zyskom.

– I to było widać w trakcie prac nad DSA: opór firm względem regulacji nietransparentnego usuwania treści był znacznie mniejszy niż w przypadku walki o kształt przepisów dotyczących np. systemów rekomendacyjnych. Bo to właśnie te systemy wprost wiążą się z żerującym na ludzkich słabościach modelem biznesowym największych platform, a jednocześnie na co dzień mają prawdopodobnie nawet większy niż moderacja wpływ na dostępność informacji. Mózgiem systemów rekomendacyjnych są algorytmy, które odpowiadają za szeregowanie treści w twoim newsfeedzie, wzmacniając zasięgi niektórych postów, a inne defaworyzując w taki sposób, że w efekcie i tak ich nie zobaczysz. Jak widać, granica między „normalnym” działaniem tego systemu, a tzw. shadow banem może być cienka. Algorytmy działają według nieznanych nam zasad. Wiemy tylko tyle, że ich celem jest jak najdłuższe zaangażowanie naszej uwagi. Jako autorzy treści nie mamy kontroli nad tym, do kogo i jak szeroko ona ostatecznie dotrze. Jako odbiorcy również musimy się zdać na to, co na podstawie analizy naszego zachowania algorytmy wywnioskują na nasz temat i jakie treści w związku z tym nam podsuną. Jeśli zmagasz się z problemami w związku, spodziewasz się dziecka albo walczysz z uzależnieniem, musisz się liczyć z tym, że wyświetlane ci treści mogą zostać dobrane właśnie pod tym kątem. Trudno więc mówić o rozwiązaniu problemu władzy cybergigantów nad obiegiem treści w sieci, dopóki nie uporządkujemy kwestii systemów rekomendacyjnych. Szczęśliwie DSA odpowiada przynajmniej w pewnym stopniu na wyzwania związane z ich działaniem, np. narzucając wymogi dotyczące przejrzystości ich funkcjonowania, a także – ograniczoną, ale zawsze – możliwość wyboru alternatywy. Największe platformy będą musiały bowiem udostępnić swoim użytkownikom opcję przynajmniej jednego systemu rekomendacyjnego nieopartego na profilowaniu. To, na ile alternatywa ta będzie funkcjonalna, zależy oczywiście od tego, jak firmy wdrożą ten obowiązek. Niewątpliwie jest to realna zmiana, z której możemy się cieszyć, choć o naprawdę nietoksyczne i lepiej nam służące systemy rekomendacyjne przyjdzie nam jeszcze powalczyć.

Z Dorotą Głowacką rozmawiał Krzysztof Story
Źródło: Panoptykon.org


TAGI: ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.