Do więzienia na mocy wskazania przez… algorytm?

W stanie New Jersey trwa proces Tybeara Milesa, oskarżonego o zabójstwo z 2021 roku. Wbrew podstawowym standardom prawa karnego, głównym dowodem nie są odciski palców ani zeznania świadków — lecz wynik tajemniczego algorytmu rozpoznawania twarzy, który nigdy nie został poddany pełnej, niezależnej weryfikacji.

Prokuratura opiera się na informacji od informatora o pseudonimie „Fat Daddy” oraz na danych z mediów społecznościowych, które przetworzono przez „czarną skrzynkę” – algorytm działający jak tajemniczy automat, stworzony w Dolinie Krzemowej i objęty ścisłą tajemnicą handlową i państwową. Obrona nie ma dostępu do kodu, metod treningu, wskaźników błędów czy protokołów testów. Bez tego niemożliwe jest rzetelne podważenie dowodu.

To nie tylko narusza fundamentalną zasadę równości stron i prawa do obrony — to także sygnał ostrzegawczy, że technologia, którą coraz częściej obarcza się ludzkie losy, działa poza jakąkolwiek kontrolą demokratyczną. „Systemy rozpoznawania twarzy to złożone procesy, pełne potencjalnych błędów na każdym etapie,” podkreślają obrońcy praw obywatelskich. Sąd apelacyjny w podobnej sprawie (State przeciwko Arteaga) podkreślił, że jeśli algorytm ma decydować o wolności człowieka, musi być jawny i wiarygodny.

Tymczasem prawdziwym problemem jest, kto i jak dysponuje taką technologią. Firmy technologiczne i państwowe służby nie chcą ujawniać szczegółów, zasłaniając się tajemnicami handlowymi i bezpieczeństwem państwa. Ale czy w tym zamkniętym środowisku nikt nie wykorzysta algorytmów do celów przestępczych? Co jeśli dostęp do takiej „czarnej skrzynki” stanie się narzędziem represji politycznej? Możliwość manipulacji wynikami, fałszowania dowodów czy celowego wpychania niewinnych ludzi za kratki staje się realnym zagrożeniem. W praktyce algorytmy te mogą stać się cyfrową bronią wymierzoną przeciwko opozycji, aktywistom czy krytykom władzy, szczególnie gdy działają bez nadzoru sądowego i przejrzystości. To nie fikcja — to przyszłość, jeśli nie podejmiemy zdecydowanych kroków.

W całych Stanach Zjednoczonych systemy rozpoznawania twarzy rozprzestrzeniają się w policyjnych praktykach, często bez żadnej kontroli i bez wiedzy obywateli. Sprawa Milesa jest symbolem tej niepokojącej tendencji: jeśli nie zdefiniujemy jasnych zasad i praw obywatelskich chroniących przed algorytmiczną inwigilacją i niesprawiedliwością, ryzykujemy, że wolność i prawo do rzetelnego procesu zostaną poświęcone na ołtarzu korporacyjnych interesów i bezdusznych technologii.

„Czarna skrzynka” to idiom używany na określenie systemu lub urządzenia, którego wewnętrzne działanie jest nieznane, niedostępne lub niemożliwe do sprawdzenia. W kontekście algorytmów oznacza to, że nie wiemy, jak dokładnie i na jakiej podstawie algorytm podejmuje decyzje.

W wymiarze sprawiedliwości to śmiertelne zagrożenie dla praworządności: nie możemy zaakceptować wyroków opartych na „magii” lub technologicznym „czarodziejstwie”, które nie mogą być zweryfikowane przez niezależnych ekspertów i strony procesu. Brak transparentności oznacza brak możliwości realnej obrony i ryzyko permanentnej niesprawiedliwości.

Jeśli teraz społeczeństwo nie zaprotestuje stanowczo przeciwko takim praktykom, kolejnym krokiem będzie wdrożenie algorytmów wskazujących „potencjalnych przestępców” — niczym w dystopijnej wizji z filmu „Raport mniejszości”.

Autorstwo: Aurelia
Ilustracja: WolneMedia.net (CC0)
Na podstawie: ReclaimTheNnet.org
Źródło: WolneMedia.net