Igrzyska w Paryżu – monitoring na dopingu

Opublikowano: 20.03.2023 | Kategorie: Kultura i sport, Prawo, Publicystyka

Liczba wyświetleń: 1482

Przepisy przygotowywane na czas igrzysk olimpijskich i paraolimpijskich w Paryżu w 2024 r. dopuszczają wykorzystanie systemów wyposażonego w algorytmy monitoringu wizyjnego do automatycznego wykrywania zagrożeń. Francja to pierwszy europejski kraj, który chce wprost zalegalizować tak inwazyjną technikę śledzenia w przestrzeni publicznej. Podpisaliśmy protest, w którym apelujemy o rezygnację z tego pomysłu – i wyjaśniamy dlaczego.

Monitoring wizyjny wykorzystujący algorytmy narusza prawo do prywatności, ogranicza wolność zgromadzeń i grozi dyskryminacją. Kategoryzacja biometryczna, którą umożliwia, jest do tego stopnia inwazyjna dla praw obywatelskich, że w przygotowywanych obecnie przepisach dotyczących sztucznej inteligencji (AI Act) rozważa się – także pod naciskiem europejskich organizacji społecznych, które nawołują do wpisania takiego zakazu w kampanii prowadzonej przez European Digital Rights – całkowite zakazanie systemów z taką funkcją.

Jednak art. 7 specustawy olimpijskiej go dopuszcza.

Dlaczego algorytmiczny monitoring narusza prawa obywatelskie?

Już zwykłe kamery ograniczają wolność i prawa obywatelskie, bo na każdym kroku w przestrzeni publicznej jesteśmy obserwowani, niezależnie od tego, czy robimy coś złego. Systemy monitoringu wyposażone w algorytmy, które mają wykrywać „zagrożenia” i „nietypowe zdarzenia”, to wyższa szkoła naruszeń. Jakie problemy wynikają z wykorzystania takich systemów w przestrzeni publicznej?

1. Naruszenie zasady niedyskryminacji

Wykrywanie „nietypowych zdarzeń” oznacza, że przestrzeń i przebywające w niej osoby będą bez przerwy monitorowane. Ich wizerunek, cechy fizjonomii, zachowanie, pozycja ciała, gesty – wszystko będzie poddane analizie. Na ryzyko z tym związane narażone są przede wszystkim osoby, które spędzają w tej przestrzeni najwięcej czasu, np. osoby bezdomne, ubogie, osoby z niepełnosprawnością (o ironio – w końcu mówimy o paraolimpiadzie).

Według badań czynniki takie jak pochodzenie czy kolor skóry również wpływają na wskaźnik fałszywych wskazań pozytywnych, zwiększając go od 10 do nawet 100 razy. Pokrzywdzone są także kobiety, w przypadku których wskaźnik false positives jest od 2 do 5 razy większy niż w przypadku mężczyzn.

Są też dowody na to, że użycie systemów algorytmicznych do zwalczania przestępczości kończy się nadmiarowymi interwencjami policji, strukturalną dyskryminacją i nadmierną kryminalizacją mniejszości etnicznych i religijnych. W ten sposób naruszona zostaje zasada niedyskryminacji – jedna z najważniejszych dla współczesnego systemu ochrony praw człowieka.

2. Biometryczna kategoryzacja

Wbrew temu, co twierdzą francuskie władze (art. 7 ust. III specustawy), wykorzystanie systemów służących rozpoznawaniu zagrożeń oznacza też przetwarzanie danych biometrycznych w rozumieniu RODO. Dlatego – bez względu na to, co ostatecznie znajdzie się w AI Act – już teraz istnieją poważne wątpliwości co do tego, czy rozpoznawanie twarzy w czasie rzeczywistym da się pogodzić z przepisami o ochronie danych osobowych.

3. Naruszenie zasady niezbędności i proporcjonalności

Technologia ma swoje ograniczenia, a źle wykorzystana – może szkodzić. Dlatego jej użycie przez państwo podlega konkretnym rygorom. Dopuszczone narzędzia powinny być niezbędne i proporcjonalne do problemów, które mają rozwiązywać.

Stoimy na stanowisku, że monitoring wyposażony w algorytmy nie spełnia tych rygorów. Istnieją liczne dowody na to, że monitoring wizyjny nie zapobiega przestępczości i nie zwiększa bezpieczeństwa. Francuskie władze nawet nie próbują nikogo przekonywać, że jest inaczej – i test na legalność ograniczenia wolności przegrywają walkowerem.

4. Normalizacja stanu wyjątkowego

Przez ponad 20 lat tzw. wojny z terroryzmem i podczas niedawnej pandemii koronawirusa mogliśmy obserwować stopniowy wzrost wykorzystania środków nadzoru w przestrzeni publicznej. Okazuje się, że organizacja imprez sportowych to pole do testowania nowych rozwiązań mających zwiększać bezpieczeństwo, które po zakończeniu eventu bynajmniej nie wracają do „magazynów”. Możemy zatem z dużym prawdopodobieństwem założyć, że algorytmiczny monitoring nie zniknie po igrzyskach.

We Francji cyklicznie odbywają się demonstracje, które niekiedy wiążą się z naruszeniem porządku publicznego i niszczeniem mienia. Czy w takiej sytuacji rząd nie wykorzysta faktu, że kamery już są, żeby utrudnić protesty np. przeciwko podwyższeniu wieku emerytalnego?

Obawy dotyczące możliwości wykorzystania systemów rozpoznawania twarzy do innych celów, niż pierwotnie zakładano, są podsycane także ujawnionymi kilka lat temu informacjami z Indii. Tamtejsza policja kupiła kamery z systemem rozpoznawania twarzy, które miały służyć do poszukiwania zaginionych dzieci. Jak przyznał premier Narendra Modi, obecnie kamery są wykorzystywane do filmowania protestów w celu identyfikacji osób podejrzewanych „o naruszenie porządku”.

Najbardziej uderzający przypadek materializacji zagrożeń związanych ze stosowaniem systemów rozpoznawania twarzy mogliśmy obserwować podczas długotrwałych protestów w Hongkongu. W mieście walczącym o swoją niezależność względem Chin zastosowano tysiące kamer, które dziś służą do rozpoznawania uczestników antyrządowych protestów.

Władze boją się krytyki igrzysk?

Zwiększanie nadzoru ze względu na szczególne wydarzenia to nie tylko francuska specyfika. W Polsce doświadczyliśmy tego kilkukrotnie: podczas EURO 2012, szczytu klimatycznego w Katowicach (COP24) czy z okazji Światowych Dni Młodzieży. Miasta-gospodarze na czas takiej imprezy przestawały należeć do swoich mieszkańców i mieszkanek, zamieniając się w zamknięte strefy pod szczególnym nadzorem. Przyznanie danemu państwu prawa organizacji takiej imprezy jest w końcu zaszczytem – o prawa człowieka i wolność przemieszczania się pomartwimy się kiedy indziej.

Tymczasem głosy krytyczne wobec imprez tej rangi są coraz głośniejsze. Koszty dla gospodarki, środowiska, lokalnych społeczności, praw człowieka są ogromne. Jeśli władze spodziewają się protestów, to prawdopodobnie mają rację.

Organizacje zapraszają do rozmowy

Jak na razie prawo żadnego kraju Unii Europejskiej nie dopuszcza otwarcie powszechnego stosowania monitoringu automatycznie rozpoznającego zagrożenia. W Polsce pojawiły się doniesienia o wykorzystywaniu kamer wyposażonych w funkcje rozpoznawania twarzy przez ABW (pisaliśmy o tym, dlaczego to niebezpieczne). Nie chcielibyśmy, żeby Francja przekroczyła ten rubikon. Dlatego w gronie 38 organizacji społecznych z całej Europy podpisaliśmy list otwarty w tej sprawie, przygotowany przez European Center for Not-for-Profit Law.

Mamy nadzieję, że francuskie władze przyjmą zaproszenie do rozmowy na temat tego, jak przygotować tak wielką imprezę z szacunkiem dla praw człowieka, bez technologicznego dopingu dla służb.

List otwarty i inne materiały dotyczące rozpoznawania twarzy znajdziesz TUTAJ.

Źródło: Panoptykon.org

Źródłografia

1. https://www.senat.fr/leg/pjl22-220.html

2. https://nvlpubs.nist.gov/nistpubs/ir/2019/NIST.IR.8280.pdf

3. https://edri.org/wp-content/uploads/2020/05/Paper-Ban-Biometric-Mass-Surveillance.pdf

4. https://www.scielo.br/j/cm/a/zcKnN9ChT9Wqc4hfGWKSk4d/?format=pdf&lang=en

5. https://krytykapolityczna.pl/swiat/olimpiada-mity-i-hipokryzje/

6. https://panoptykon.org/wiadomosc/dostep-sluzb-do-zdjec-paszportowych-poza-kontrola


TAGI: , , , , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

2 komentarze

  1. KubaD. 21.03.2023 11:13

    Jeżeli nie ma się nic do ukrycia, to nie widzę problemu, aby taki system działał w przestrzeni publicznej.
    Zwłaszcza w Paryżu gdzie każdy opalony brat może niespodziewanie eksplodować.

  2. emigrant001 21.03.2023 19:55

    @KubaD.
    Przepis nie jest po to aby zagrożenie “WYKRYĆ”, bo to nie jest aż takie trudne:) Przepis jest aby kontrolować, inwigilować i zbierać informacje o każdym, kto w danym momencie jest niewygodny:)
    Bezpieczeństwo nie ma z tym nic wspólnego. Władza i tylko władza się liczy.
    Kto tego nie rozumie nie jest istotą rozumną:)

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.