Liczba wyświetleń: 556
W stanie New Jersey trwa proces Tybeara Milesa, oskarżonego o zabójstwo z 2021 roku. Wbrew podstawowym standardom prawa karnego, głównym dowodem nie są odciski palców ani zeznania świadków — lecz wynik tajemniczego algorytmu rozpoznawania twarzy, który nigdy nie został poddany pełnej, niezależnej weryfikacji.
Prokuratura opiera się na informacji od informatora o pseudonimie „Fat Daddy” oraz na danych z mediów społecznościowych, które przetworzono przez „czarną skrzynkę” – algorytm działający jak tajemniczy automat, stworzony w Dolinie Krzemowej i objęty ścisłą tajemnicą handlową i państwową. Obrona nie ma dostępu do kodu, metod treningu, wskaźników błędów czy protokołów testów. Bez tego niemożliwe jest rzetelne podważenie dowodu.
To nie tylko narusza fundamentalną zasadę równości stron i prawa do obrony — to także sygnał ostrzegawczy, że technologia, którą coraz częściej obarcza się ludzkie losy, działa poza jakąkolwiek kontrolą demokratyczną. „Systemy rozpoznawania twarzy to złożone procesy, pełne potencjalnych błędów na każdym etapie,” podkreślają obrońcy praw obywatelskich. Sąd apelacyjny w podobnej sprawie (State przeciwko Arteaga) podkreślił, że jeśli algorytm ma decydować o wolności człowieka, musi być jawny i wiarygodny.
Tymczasem prawdziwym problemem jest, kto i jak dysponuje taką technologią. Firmy technologiczne i państwowe służby nie chcą ujawniać szczegółów, zasłaniając się tajemnicami handlowymi i bezpieczeństwem państwa. Ale czy w tym zamkniętym środowisku nikt nie wykorzysta algorytmów do celów przestępczych? Co jeśli dostęp do takiej „czarnej skrzynki” stanie się narzędziem represji politycznej? Możliwość manipulacji wynikami, fałszowania dowodów czy celowego wpychania niewinnych ludzi za kratki staje się realnym zagrożeniem. W praktyce algorytmy te mogą stać się cyfrową bronią wymierzoną przeciwko opozycji, aktywistom czy krytykom władzy, szczególnie gdy działają bez nadzoru sądowego i przejrzystości. To nie fikcja — to przyszłość, jeśli nie podejmiemy zdecydowanych kroków.
W całych Stanach Zjednoczonych systemy rozpoznawania twarzy rozprzestrzeniają się w policyjnych praktykach, często bez żadnej kontroli i bez wiedzy obywateli. Sprawa Milesa jest symbolem tej niepokojącej tendencji: jeśli nie zdefiniujemy jasnych zasad i praw obywatelskich chroniących przed algorytmiczną inwigilacją i niesprawiedliwością, ryzykujemy, że wolność i prawo do rzetelnego procesu zostaną poświęcone na ołtarzu korporacyjnych interesów i bezdusznych technologii.
„Czarna skrzynka” to idiom używany na określenie systemu lub urządzenia, którego wewnętrzne działanie jest nieznane, niedostępne lub niemożliwe do sprawdzenia. W kontekście algorytmów oznacza to, że nie wiemy, jak dokładnie i na jakiej podstawie algorytm podejmuje decyzje.
W wymiarze sprawiedliwości to śmiertelne zagrożenie dla praworządności: nie możemy zaakceptować wyroków opartych na „magii” lub technologicznym „czarodziejstwie”, które nie mogą być zweryfikowane przez niezależnych ekspertów i strony procesu. Brak transparentności oznacza brak możliwości realnej obrony i ryzyko permanentnej niesprawiedliwości.
Jeśli teraz społeczeństwo nie zaprotestuje stanowczo przeciwko takim praktykom, kolejnym krokiem będzie wdrożenie algorytmów wskazujących „potencjalnych przestępców” — niczym w dystopijnej wizji z filmu „Raport mniejszości”.
Autorstwo: Aurelia
Ilustracja: WolneMedia.net (CC0)
Na podstawie: ReclaimTheNnet.org
Źródło: WolneMedia.net
W tym wypadku problemem nie jest algorytm, ale sąd, który dopuścił taki dowód. Trzeba by się więc przyjrzeć ustawodawstwu stanu New Jersey a konkretnie, w jaki sposób jest sformułowane. Jeśli wyraźnie zezwala na ferowanie wyroków wyłącznie na podstawie wyników jakiegoś „algorytmu”, którego działanie nie jest dodatkowo zbadane i opisane, to mamy do czynienia z bublem prawnym.
Dlatego podejrzewam, że chodzi o jakiś element pomocniczy. Tzn. prokurator dysponuje też całym szeregiem innych dowodów na popełnienie przez podejrzanego danego czynu a jako dowód dodatkowy przedstawił wynik algorytmu. Jeżeli jedynym dowodem jest rozpoznana przez algorytm twarz i ustawodawstwo na to zezwala, to należałoby unikać stanu New Jersey jak ognia. Bo w takim wypadku można posadzić każdego, kto jedynie trochę przypominał sprawcę dowolnego przestępstwa i akurat przebywał w okolicy jego popełnienia.
„Systemy rozpoznawania twarzy to złożone procesy, pełne potencjalnych błędów na każdym etapie” –
Jak precyzyjnie pisane są programy/algorytmy najlepszym dowodem jest sam Windows, który nękał użytkowników wiecznymi aktualizacjami – poprawki do poprawek, tzw. path, pełen dziur. Zniechęceni przesiadali się na Linuxa.
„Firmy technologiczne i państwowe służby nie chcą ujawniać szczegółów, zasłaniając się tajemnicami handlowymi i bezpieczeństwem państwa”. – Widać, że to chyba jednak dzieje się na poziomie federalnym – to by znów sugerowało, że Trump jest częścią deep state.
„Możliwość manipulacji wynikami, fałszowania dowodów czy celowego wpychania niewinnych ludzi za kratki staje się realnym zagrożeniem”. I taki właśnie ma być skutek.
Zawsze było tak ,jak ktoś przekupił lub przekonał
w inny sposób dwóch świadków,że osoba ta a ta ,
goniła osobę rzekomo pokrzywdzona z nożem,
mimo ,że to nia miało miejsca to osoba oskarżana szła do
paki lub psychiatryka.
A już zwłaszcza gdy osoba rzekomo pokrzywdzona
ma znajomego prokuratora/kę to powie temu komuś
co ma mówić ,żeby zniszczyć niewinną osobę,
bo ta z nia zadarła.
Więc algortm nic nie zmieni .
> Więc algortm nic nie zmieni .
No nie do końca: pozwoli na rozmycie odpowiedzialności, utrudni dochodzenie swoich praw (algorytm się nie myli, algorytm jest bezstronny bla bla bla) i umożliwi skuteczniejszą egzekutywę globalistycznej agendy.
Zapewne pogorszy złą sytuację.
Chodziło mi o to,że jest źle i algorytm
duzo nie zmieni.
Z pewnością nic na plus.