Liczba wyświetleń: 698
Wkrótce przestanie istnieć to, o czym sztuczna inteligencja nie powie! Ostrzeżenie przed „miękką cenzurą”, czyli znikającymi informacjami ze świadomości społecznej i przestrzeni publicznej.
Wraz z dynamicznym rozwojem sztucznej inteligencji (AI), zwłaszcza popularnych czatów opartych na dużych modelach językowych, takich jak ChatGPT, Bing AI czy Gemini, zmienia się sposób, w jaki ludzie pozyskują informacje. Dla wielu użytkowników AI staje się podstawowym źródłem wiedzy – szybszym, wygodniejszym i „czystszym” niż tradycyjne wyszukiwarki. Ale ten komfort może mieć swoją cenę – być może bardzo wysoką.
Nowa era informacji – bez wyszukiwarki
Zamiast przeszukiwać dziesiątki stron internetowych, użytkownik zadaje pytanie sztucznej inteligencji i w kilka sekund otrzymuje zwięzłą, uśrednioną odpowiedź. Problem w tym, że AI nie działa w próżni. Modele językowe, które dostarczają odpowiedzi, są trenowane na konkretnych danych i działają według reguł ustalonych przez firmy technologiczne. To oznacza, że nie każda dostępna w sieci informacja zostanie uwzględniona w odpowiedzi.
W praktyce — wystarczy, że dana strona zostanie oznaczona jako „dezinformacja”, „teoria spiskowa” lub „nieodpowiednia” według wewnętrznych wytycznych dostawcy AI, a model przestanie korzystać z jej treści. Co więcej — nawet nie wspomni, że taka informacja istnieje. Dla użytkownika to, czego nie ma w odpowiedzi AI, przestaje istnieć.
Cenzura bez śladu
Tego rodzaju „miękka cenzura” jest znacznie trudniejsza do wykrycia niż tradycyjne formy ograniczania wolności słowa. Nie ma zakazu, nie ma blokady strony — po prostu AI ignoruje pewne źródła. Dla przeciętnego użytkownika to wystarcza, by nigdy się o nich nie dowiedzieć.
Organizacje dziennikarskie i eksperci ds. praw człowieka już teraz ostrzegają, że rośnie ryzyko nadużyć. Jak podkreśla organizacja Article 19, nadmiar kontroli nad przepływem informacji może prowadzić do sytuacji, w której AI staje się narzędziem w rękach rządów, korporacji czy wpływowych grup, umożliwiając „cyfrowe wymazywanie” niepożądanych narracji.
Polityczne i korporacyjne wpływy
Już teraz znane są przypadki wpływania na wyniki wyszukiwania lub treści generowane przez AI poprzez działania lobbingowe. Przykłady? Ukrywanie informacji niewygodnych dla dużych firm farmaceutycznych, ignorowanie alternatywnych teorii dotyczących pandemii, filtrowanie treści związanych z kontrowersyjnymi wydarzeniami politycznymi.
Tego typu działania, nawet jeśli są oficjalnie uzasadniane walką z dezinformacją, mogą prowadzić do zawężenia przestrzeni debaty publicznej, a w konsekwencji – do manipulowania opinią społeczną i jej nastrojami, łącznie z profilaktycznym „wygaszaniem” emocji prowadzących do akcji protestacyjnych, w tym demonstracji ulicznych.
Społeczeństwo w cyfrowym kokonie
Ludzie coraz rzadziej weryfikują informacje. Skoro AI daje szybką, płynną odpowiedź, nie ma potrzeby zagłębiać się w źródła. Tymczasem, bez pluralizmu informacyjnego i możliwości poznania różnych punktów widzenia, łatwiej jest kształtować światopogląd użytkownika zgodnie z interesami osób, firm czy organizacji sterującymi treściami.
To ogromne zagrożenie dla demokracji, której fundamentem jest wolność słowa, dostęp do informacji i otwarta debata. Bez nich społeczeństwo staje się coraz bardziej podatne na manipulację i mniej zdolne do krytycznego myślenia.
Jak chronić się przed informacyjnym „czyszczeniem świata”?
1. Nie polegaj wyłącznie na AI. Traktuj czaty AI jako narzędzie pomocnicze, a nie jako jedyne źródło wiedzy.
2. Wracaj do wyszukiwarek i źródeł pierwotnych. Odwiedzaj niezależne portale, blogi, bazy danych, publikacje naukowe.
3. Korzystaj z alternatywnych wyszukiwarek, takich jak „Duck Duck Go” czy „Brave Search”, które mniej ingerują w wyniki.
4. Gromadź linki do wartościowych źródeł. Twórz własną bazę sprawdzonych, niezależnych źródeł informacji. Dziel się nimi ze znajomymi i na stronach społecznościowych.
5. Ucz się rozpoznawać manipulacje. Edukacja medialna i cyfrowa staje się niezbędną umiejętnością XXI wieku.
6. Wspieraj niezależne dziennikarstwo. Subskrypcje, datki, promocja wolnych mediów to inwestycja w zdrową demokrację i twoją wiedzę.
7. Działaj na rzecz ustawowego nakazu uwzględniania niewygodnych informacji przez czaty AI i stworzenia narzędzi społecznej kontroli nad ich algorytmami.
Podsumowanie
Sztuczna inteligencja ma ogromny potencjał, ale również ogromną władzę. Jeśli przestaniemy być czujni, może stać się narzędziem cenzury i kontroli narracji na skalę, jakiej jeszcze nie doświadczyliśmy. Informacja, która nie jest dostępna w modelu AI, staje się dla przeciętnego użytkownika niewidzialna. A niewidzialność w świecie cyfrowym to cyfrowa amnezja.
Nie pozwólmy, by świat informacji został zamknięty w wygodnym, ale kontrolowanym pudełku. Demokracja potrzebuje wolności – także tej informacyjnej.
Autorstwo: Aurelia
Ilustracje: WolneMedia.net (CC0)
Źródło: WolneMedia.net
Przecież po to właśnie tak naprawdę została stworzona. Dla kontroli mas i informacji.