Do więzienia na mocy wskazania przez… algorytm?

Opublikowano: 07.06.2025 | Kategorie: Prawo, Publikacje WM, Telekomunikacja i komputery, Wiadomości ze świata

Liczba wyświetleń: 556

W stanie New Jersey trwa proces Tybeara Milesa, oskarżonego o zabójstwo z 2021 roku. Wbrew podstawowym standardom prawa karnego, głównym dowodem nie są odciski palców ani zeznania świadków — lecz wynik tajemniczego algorytmu rozpoznawania twarzy, który nigdy nie został poddany pełnej, niezależnej weryfikacji.

Prokuratura opiera się na informacji od informatora o pseudonimie „Fat Daddy” oraz na danych z mediów społecznościowych, które przetworzono przez „czarną skrzynkę” – algorytm działający jak tajemniczy automat, stworzony w Dolinie Krzemowej i objęty ścisłą tajemnicą handlową i państwową. Obrona nie ma dostępu do kodu, metod treningu, wskaźników błędów czy protokołów testów. Bez tego niemożliwe jest rzetelne podważenie dowodu.

To nie tylko narusza fundamentalną zasadę równości stron i prawa do obrony — to także sygnał ostrzegawczy, że technologia, którą coraz częściej obarcza się ludzkie losy, działa poza jakąkolwiek kontrolą demokratyczną. „Systemy rozpoznawania twarzy to złożone procesy, pełne potencjalnych błędów na każdym etapie,” podkreślają obrońcy praw obywatelskich. Sąd apelacyjny w podobnej sprawie (State przeciwko Arteaga) podkreślił, że jeśli algorytm ma decydować o wolności człowieka, musi być jawny i wiarygodny.

Tymczasem prawdziwym problemem jest, kto i jak dysponuje taką technologią. Firmy technologiczne i państwowe służby nie chcą ujawniać szczegółów, zasłaniając się tajemnicami handlowymi i bezpieczeństwem państwa. Ale czy w tym zamkniętym środowisku nikt nie wykorzysta algorytmów do celów przestępczych? Co jeśli dostęp do takiej „czarnej skrzynki” stanie się narzędziem represji politycznej? Możliwość manipulacji wynikami, fałszowania dowodów czy celowego wpychania niewinnych ludzi za kratki staje się realnym zagrożeniem. W praktyce algorytmy te mogą stać się cyfrową bronią wymierzoną przeciwko opozycji, aktywistom czy krytykom władzy, szczególnie gdy działają bez nadzoru sądowego i przejrzystości. To nie fikcja — to przyszłość, jeśli nie podejmiemy zdecydowanych kroków.

W całych Stanach Zjednoczonych systemy rozpoznawania twarzy rozprzestrzeniają się w policyjnych praktykach, często bez żadnej kontroli i bez wiedzy obywateli. Sprawa Milesa jest symbolem tej niepokojącej tendencji: jeśli nie zdefiniujemy jasnych zasad i praw obywatelskich chroniących przed algorytmiczną inwigilacją i niesprawiedliwością, ryzykujemy, że wolność i prawo do rzetelnego procesu zostaną poświęcone na ołtarzu korporacyjnych interesów i bezdusznych technologii.

„Czarna skrzynka” to idiom używany na określenie systemu lub urządzenia, którego wewnętrzne działanie jest nieznane, niedostępne lub niemożliwe do sprawdzenia. W kontekście algorytmów oznacza to, że nie wiemy, jak dokładnie i na jakiej podstawie algorytm podejmuje decyzje.

W wymiarze sprawiedliwości to śmiertelne zagrożenie dla praworządności: nie możemy zaakceptować wyroków opartych na „magii” lub technologicznym „czarodziejstwie”, które nie mogą być zweryfikowane przez niezależnych ekspertów i strony procesu. Brak transparentności oznacza brak możliwości realnej obrony i ryzyko permanentnej niesprawiedliwości.

Jeśli teraz społeczeństwo nie zaprotestuje stanowczo przeciwko takim praktykom, kolejnym krokiem będzie wdrożenie algorytmów wskazujących „potencjalnych przestępców” — niczym w dystopijnej wizji z filmu „Raport mniejszości”.

Autorstwo: Aurelia
Ilustracja: WolneMedia.net (CC0)
Na podstawie: ReclaimTheNnet.org
Źródło: WolneMedia.net

image_pdfimage_print

TAGI: , , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć „Wolne Media” finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji „Wolnych Mediów”. Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

5 komentarzy

  1. Irfy 07.06.2025 18:19

    W tym wypadku problemem nie jest algorytm, ale sąd, który dopuścił taki dowód. Trzeba by się więc przyjrzeć ustawodawstwu stanu New Jersey a konkretnie, w jaki sposób jest sformułowane. Jeśli wyraźnie zezwala na ferowanie wyroków wyłącznie na podstawie wyników jakiegoś „algorytmu”, którego działanie nie jest dodatkowo zbadane i opisane, to mamy do czynienia z bublem prawnym.

    Dlatego podejrzewam, że chodzi o jakiś element pomocniczy. Tzn. prokurator dysponuje też całym szeregiem innych dowodów na popełnienie przez podejrzanego danego czynu a jako dowód dodatkowy przedstawił wynik algorytmu. Jeżeli jedynym dowodem jest rozpoznana przez algorytm twarz i ustawodawstwo na to zezwala, to należałoby unikać stanu New Jersey jak ognia. Bo w takim wypadku można posadzić każdego, kto jedynie trochę przypominał sprawcę dowolnego przestępstwa i akurat przebywał w okolicy jego popełnienia.

  2. garsjo 07.06.2025 19:41

    „Systemy rozpoznawania twarzy to złożone procesy, pełne potencjalnych błędów na każdym etapie” –

    Jak precyzyjnie pisane są programy/algorytmy najlepszym dowodem jest sam Windows, który nękał użytkowników wiecznymi aktualizacjami – poprawki do poprawek, tzw. path, pełen dziur. Zniechęceni przesiadali się na Linuxa.

    „Firmy technologiczne i państwowe służby nie chcą ujawniać szczegółów, zasłaniając się tajemnicami handlowymi i bezpieczeństwem państwa”. – Widać, że to chyba jednak dzieje się na poziomie federalnym – to by znów sugerowało, że Trump jest częścią deep state.

    „Możliwość manipulacji wynikami, fałszowania dowodów czy celowego wpychania niewinnych ludzi za kratki staje się realnym zagrożeniem”. I taki właśnie ma być skutek.

  3. Bruce Lee 07.06.2025 20:28

    Zawsze było tak ,jak ktoś przekupił lub przekonał
    w inny sposób dwóch świadków,że osoba ta a ta ,
    goniła osobę rzekomo pokrzywdzona z nożem,
    mimo ,że to nia miało miejsca to osoba oskarżana szła do
    paki lub psychiatryka.
    A już zwłaszcza gdy osoba rzekomo pokrzywdzona
    ma znajomego prokuratora/kę to powie temu komuś
    co ma mówić ,żeby zniszczyć niewinną osobę,
    bo ta z nia zadarła.
    Więc algortm nic nie zmieni .

  4. Katarzyna TG 07.06.2025 20:50

    > Więc algortm nic nie zmieni .

    No nie do końca: pozwoli na rozmycie odpowiedzialności, utrudni dochodzenie swoich praw (algorytm się nie myli, algorytm jest bezstronny bla bla bla) i umożliwi skuteczniejszą egzekutywę globalistycznej agendy.

  5. Bruce Lee 07.06.2025 21:24

    Zapewne pogorszy złą sytuację.
    Chodziło mi o to,że jest źle i algorytm
    duzo nie zmieni.
    Z pewnością nic na plus.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.