Facebook Files – lekcja dla europejskich polityków

Nie milknie burza po ujawnieniu przez Frances Haugen dokumentów Facebooka potwierdzających, że w mediach społecznościowych należących do giganta działo się wiele złego – o czym firma wiedziała, ale nic z tym nie zrobiła. Czy europejscy politycy wyciągną wnioski i – zamiast naklejać plasterki na otwartą ranę – zdecydują się na dalej idącą reformę, która zmusi giganta do otwarcia się na rozwiązania wykorzystujące inne modele biznesowe? Wysłuchanie Haugen, które odbędzie się już 8 listopada 2021 r. w Parlamencie Europejskim, to idealna okazja, żeby zobaczyć, jak wiele szkód rodzi niekontrolowana władza platform internetowych, i zastanowić się, jak skutecznie rozwiązać ten problem.

Dokumenty ujawnione przez Frances Haugen rzucają więcej światła na problemy, o których piszemy nie od dziś. Niedawno informowaliśmy na przykład o przeprowadzonym przez nas eksperymencie, który pokazał, że algorytm odpowiedzialny za to, jakie treści i reklamy oglądają użytkownicy na Facebooku, żeruje na ich słabościach i wzmacnia lęki. Dzięki Haugen wiemy, że Facebook miał świadomość wzmacniania przez algorytm wykorzystywany na Instagramie zaburzeń wśród nastolatek – ale nic z tym nie zrobił. Od 2019 r. prowadzimy przeciwko gigantowi sprawę dotyczącą arbitralnego i nieprzejrzystego usuwania treści. Kwestionujemy w niej sposób działania moderacji na jego platformach, które powodują, że treści społecznie pożyteczne są ukrywane przed odbiorcami. Z Facebook Files dowiedzieliśmy się, że algorytmy moderacyjne inaczej traktują instagramowe i facebookowe sławy niż zwykłych Kowalskich.

Z kolei w 2018 r. ze sporym sceptycyzmem przyglądaliśmy się zmianom algorytmu Facebooka, który miał promować treści zamieszczane przez znajomych. Mark Zuckerberg wyrażał wtedy nadzieję, że czas spędzony na Facebooku będzie lepszy, a docierające do użytkowników i użytkowniczek wiadomości zyskają na wiarygodności. Dokumenty ujawnione przez sygnalistkę potwierdziły nasze obawy: algorytm de facto zwiększył już głębokie podziały w społeczeństwie. W Polsce same partie polityczne przyznały się, że z powodu tego, jak działa algorytm Facebooka, stawiają na postowanie treści nacechowanych negatywnymi emocjami.

Frances Haugen mówi, że Facebook sam się nie ureguluje. Zwraca uwagę, że potrzebujemy do tego odpowiednich przepisów i instytucji. Jej zdaniem należy zwiększyć odpowiedzialność prawną platformy za to, jakie materiały polecają jej algorytmy, i nakazać Facebookowi wyświetlanie treści chronologicznie. Należy też wprowadzić rozwiązania zapobiegające szybkiemu rozchodzeniu się niesprawdzonych czy szkodliwych treści, pozwolić na niezależne badania w ramach platform Facebooka, a także powołać specjalną instytucję, która będzie kontrolowała działanie firmy.

O ile w 100% zgadzamy się z diagnozą sygnalistki dotyczącą szkód powodowanych przez sposób działania Facebooka i Instagrama i tego, że Facebook nie naprawi się sam, nie do końca przytakujemy proponowanym przez nią rozwiązaniom. Z ponad dekady doświadczenia w zmaganiu się z wyzwaniami związanymi z regulacją platform internetowych wyciągnęliśmy ważny wniosek: próba naprawiania Facebooka – bez podważania jego modelu biznesowego – ma swoje ograniczenia. Dotychczasowe wysiłki regulacyjne dotyczące odpowiedzialności za treść (dyrektywa e-commerce), prywatności (RODO) czy konkurencji (działania Komisji Europejskiej) nie były skuteczne. A to dlatego, że regulator zawsze reaguje po fakcie i nie jest w stanie nadążyć za algorytmicznymi eksperymentami, które Facebook prowadzi na użytkownikach i użytkowniczkach w czasie rzeczywistym.

Przygotowywany właśnie w Unii Europejskiej pakiet DSA-DMA (akt o usługach cyfrowych i akt o rynkach cyfrowych) do pewnego stopnia realizuje postulaty Frances Haugen. Nowe przepisy wyposażą krajowe organy nadzorcze i Komisję Europejską w nowe kompetencje, umożliwią im zaglądanie „do środka” Facebooka i nałożą na platformę nowe obowiązki (np. dotyczące przeprowadzania oceny ryzyka algorytmów). Te rozwiązania są niewątpliwie potrzebne, ale naszym zdaniem niewystarczające. To podejście nadal bowiem zakłada, że jesteśmy w stanie naprawić Facebooka, naklejając tu i tam kilka plasterków. Nie uwzględnia, że toksyczne algorytmy rekomendacyjne, które szkodzą społeczeństwu i poszczególnym użytkownikom i użytkowniczkom, są nierozerwalnie związane z samym modelem biznesowym platformy.

Tak długo, jak Facebook czerpie swoje miliardowe zyski ze śledzącej reklamy, która wymaga projektowania algorytmów pod kątem maksymalizowania zaangażowania użytkowników i użytkowniczek i analizy ich zachowania, wszelkie „ulepszenia” i „naprawy” będą powierzchowne. Naszym zdaniem jedyna droga do realnej zmiany to regulacja, która umożliwi wprowadzenie na Facebook alternatywnych algorytmów rekomendacyjnych. Alternatywnych, bo opartych na innych wartościach i parametrach niż te, które obowiązują na platformach finansowanych z reklamy, a które sprowadzają się do zaangażowania użytkownika za wszelką cenę. Dopiero możliwość wyboru zewnętrznych rozwiązań – albo działających w modelu non profit, albo komercyjnych, ale bazujących na innych modelach biznesowych – ma szansę spowodować, że to interesy użytkowników i użytkowniczek, a nie reklamodawców, będą miały pierwszeństwo. Pod tym postulatem podpisało się 50 organizacji broniących praw cyfrowych.

Wysłuchanie Frances Haugen w Parlamencie Europejskim będzie idealną okazją, żeby dokładniej przyjrzeć się, jakie szkody powoduje niekontrolowana władza platform internetowych, i zastanowić nad rozwiązaniem tego problemu w oparciu o nasze europejskie doświadczenia.

Autorstwo: Anna Obem, Karolina Iwańska
Źródło: Panoptykon.org