„Facebook” nie pozwoli ci o zapomnieć o traumie

Opublikowano: 08.12.2023 | Kategorie: Telekomunikacja i komputery, Wiadomości ze świata

Liczba wyświetleń: 1941

„Facebook” walczy o uwagę użytkowników, wykorzystując wiedzę o ich lękach i słabościach, a przyciski, które mają ograniczać wyświetlanie niechcianych treści, nie działają. Takie wnioski płyną z badania przeprowadzonego przez Fundację Panoptykon we współpracy z dr. Piotrem Sapieżyńskim z Uniwersytetu Northeastern w Bostonie.

Panoptykon i dr Sapieżyński wzięli pod lupę sprawę użytkowniczki, skarżącej się na zalew toksycznych treści na „Facebooku”. Szczególnie uciążliwe wydawały się jej treści z kategorii „proponowane dla ciebie”. W trakcie trwającego niespełna dwa miesiące badania przez feed Joanny (imię zmienione) przewinęło się ponad 2500 postów należących do tej kategorii.

Ponad 56% z nich (1416 postów, czyli średnio 27 postów dziennie) dotyczyło tematyki wskazanej przez badaną jako toksyczna:

– nagła śmierć młodych osób („Wrócili z wymarzonych wakacji. Zmarli w odstępie 4 godzin”; „Upadł na chodnik i zmarł. Nie żyje młody mężczyzna”);

– pozornie niewinne objawy śmiertelnej choroby („Zauważyła zadrapanie na piersi. Tak zaczęła się walka o jej życie”, „29-latkę bolały plecy. To był objaw nieoperacyjnego raka płuc”);

– alarmujące sygnały dotyczące zdrowia („Swędzą cię pachy? Jedna przyczyna jest wyjątkowo niebezpieczna”, „Ból, który może zwiastować tętniaka. Uważaj, to tykająca bomba”);

– choroby i śmierć celebrytów („Znana piosenkarka jest nieuleczalnie chora. Kości zaczęły pękać na potęgę”, „Znany piłkarz zmarł na raka. Choroba błyskawicznie dała przerzuty”);

– wypadki i śmierć małych dzieci („Nie żyje 4-miesięczne niemowlę. Przejmujące ustalenia”, „Tragedia rodzinna na wakacjach. 5-latka umierała na oczach rodziców”);

– dramatyczne wypadki i morderstwa („Wzorowy uczeń wrocławskiego liceum zabił ojczyma siekierą. Zadał pięć ciosów”, „Płonęli żywcem przywiązani do szpitalnych łóżek. Koszmar w Częstochowie”);

– makabryczne historie („Tragedia podczas koszenia trawy. Mężczyzna odciął sobie jądra”, „Wstrząsająca relacja… Zapłakana matka próbowała połączyć główkę dziecka z ciałem”).

To tylko kilka przykładów niepokojących treści dotyczących śmierci młodych osób, alarmujących sygnałów dotyczących zdrowia czy pozornie niewinnych objawów śmiertelnych chorób, które „Facebook” codziennie serwował Joannie.

„Facebook” udostępnia użytkownikom i użytkowniczkom różne opcje kontrolowania feedu. Teoretycznie mogą oni „nauczyć” algorytm odpowiedzialny za dobór wyświetlanych treści, jakie tematy są dla nich interesujące, a jakich woleliby unikać. Na przykład osoba, która nie lubi dzieci, może nie chcieć oglądać postów o rodzicielstwie. Joanna, która zmaga się z zaburzeniami lękowymi dotyczącymi zdrowia, nie chce oglądać treści dotyczących chorób.

Badanie pokazało jednak, że korzystanie z oferowanego przez „Facebook” przycisku „nie chcę tego widzieć” nic nie zmienia. „Przez tydzień klikałam »nie chcę tego widzieć« przy każdym poście dotyczącym śmierci lub choroby. Po tygodniu przestałam i czekałam na efekty. Wchodziłam na Facebooka z nadzieją, że udzielona przeze mnie informacja zwrotna przełoży się na efekt w postaci mniejszej liczby postów o tej tematyce. Ale to się nie wydarzyło” – opowiada. „Nieraz wyświetlało mi się kilkanaście postów w tygodniu dotyczących tego samego dziwnego wypadku, morderstwa czy śmierci jakiejś osoby. To chyba dość oczywiste, że skoro jakiś temat mnie nie interesuje, to Facebook mógłby przynajmniej na okrągło nie wyświetlać mi jednej historii. Niestety, to tak nie działa”.

To, co Joannie wydaje się oczywiste, wcale takie nie jest z jednego powodu. Algorytmy „Facebooka” mają za zadanie wyświetlać użytkownikom treści, które ich zaangażują – a klikanie „nie chcę tego widzieć” również jest formą zaangażowania. To błędne koło wyjaśnia dr Piotr Sapieżyński, który prowadził badanie. „Użytkowniczka dała wprawdzie »Facebookowi« znać, że nie jest zainteresowana konkretną tematyką, ale historia jej aktywności pozostała podobna do historii osób, które angażowały się w takie właśnie treści. Dla algorytmu »Facebooka« to, że treści angażują użytkowniczkę, jest jednoznaczne, z tym że chce je otrzymywać. Dlatego wyświetla ich jeszcze więcej. Tak działają algorytmy traumy »Facebooka«” – wyjaśnia Sapieżyński.

Joanna Flis, terapeutka uzależnień, cytuje badania Uniwersytetu w Arkansas: „Pięć godzin dziennie spędzonych w social mediach zwiększa ryzyko pojawienia się zaburzeń lękowych. Dotyczy to nie tylko osób, które już wcześniej odczuwały tego typu problemy, ale także zdrowych osób. Ciągła ekspozycja na treści dotyczące utraty zdrowia lub życia nie może pozostać bez wpływu na system nerwowy osoby, która jest jej poddana”. „Facebook” nie ma jednak ostrzeżenia „nie używaj dłużej niż”. Osoby w każdym wieku są do niego stale podłączone – a to nie pozostaje bez wpływu na społeczeństwo jako takie.

Szkody społeczne związane z działalnością wielkich platform (VLOP-ów), takich jak „Facebook”, dostrzegła Unia Europejska i przygotowała nowe regulacje mające im zapobiegać. Od sierpnia 2023 r. VLOP-y mają nowe obowiązki. Powinny między innymi oceniać ryzyko, jakie ich usługi powodują dla zdrowia publicznego, praw podstawowych czy procesów demokratycznych. Jedną z takich – potencjalnie ryzykownych – usług są systemy rekomendacyjne, czyli algorytmy odpowiadające za to, jakie treści widzą osoby korzystające np. z Facebooka. „Platformy muszą między innymi umożliwić swoim użytkownikom wybór nieprofilowanego feedu” – mówi Katarzyna Szymielewicz, prezeska Fundacji Panoptykon. „Joanna próbowała wpłynąć na swój feed za pomocą kontrolki udostępnionej przez Facebooka. Takie rozwiązania nie są dla platform obowiązkowe, ale jeśli już zostały wprowadzone, powinny działać” – komentuje. Jednak w czasie badania (czerwiec–lipiec 2023 r.) nie działały. Czy po 25 sierpnia coś się zmieniło? Panoptykon zapowiedział już kolejną edycję badania, w którym to sprawdzi. Szymielewicz jest przekonana, że negatywnym skutkom działania systemów rekomendacyjnych największych platform powinna wnikliwie przyjrzeć się Komisja Europejska [odpowiedzialna za egzekwowanie DSA]. „W tej grze nie chodzi już o to, czy dostaniemy lepiej dopasowane albo ciekawsze treści i reklamy. To walka o to, czy wszyscy wyjdziemy cało z tego eksperymentu społecznego”.

Źródło: Panoptykon.org
Licencja: CC BY-SA 4.0


TAGI:

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.