Czy europosłowie zagłosują przeciwko biometrycznej inwigilacji?

Wybieracie się na wybory? Demonstrację? A może mecz na Narodowym lub igrzyska w Paryżu? Szykujcie się na inwigilację biometryczną – nic nie stanie na przeszkodzie temu, żeby ją prowadzić, jeśli europosłowie i europosłanki pójdą za propozycją Europejskiej Partii Ludowej.

W Unii Europejskiej finiszują prace nad regulacją sztucznej inteligencji. Akt o AI miał chronić nas, nasze prawa i wolności, przed negatywnymi konsekwencjami wykorzystania systemów stosujących tę technologię. Komisje rynku wewnętrznego (IMCO) i wolności obywatelskich (LIBE) wypracowały kompromis, zgodnie z którym regulacja miała m.in. zakazywać biometrycznej inwigilacji. Użycie takiej technologii mogłoby być tylko w wyjątkowych sytuacjach dopuszczone przez sąd.

Członkowie i członkinie Europejskiej Partii Ludowej uważają jednak, że to zbyt daleko idące ograniczenie, i chcą umożliwić stosowanie inwigilacji biometrycznej w „wyjątkowych sytuacjach” rządom krajów członkowskich – także na mocy decyzji administracyjnej, czyli bez konieczności uzyskania zgody sądu.

Dlaczego inwigilacja biometryczna jest niebezpieczna?

Rozwój sztucznej inteligencji to nie tylko tańczące roboty i wielkie modele językowe kompilujące przegadane rozprawki. To też nowe narzędzia dla organów ścigania. Systemy wykorzystujące zdalną identyfikację biometryczną (RBI – remote biometric identification) nadają się do rozpoznawania i śledzenia konkretnych osób w przestrzeni publicznej: na ulicach, dworcach, lotniskach, w centrach handlowych.

Aby dobrze działały, potrzebują danych o ludziach. Dane o osobach podejrzewanych o przestępstwa to za mało – żeby taki system dobrze sobie radził z rozpoznawaniem wzorców w ludzkim zachowaniu, musi mieć tych danych dużo, dużo więcej. Najlepiej o wszystkich.

Europejska Partia Ludowa (EPP), do której należą m.in. polska Platforma Obywatelska i Polskie Stronnictwo Ludowe, chce, żeby rządy mogły „w wyjątkowych sytuacjach” uchylić zakaz stosowania systemów biometrycznych w miejscach publicznych. Co to za wyjątkowe sytuacje? Poszukiwanie osób zaginionych, podejrzenie zagrożenia ataku terrorystycznego oraz poszukiwanie osób podejrzanych o popełnienie przestępstw zagrożonych karą powyżej trzech lat pozbawienia wolności.

Dotychczasowa „wojna z terroryzmem” to za mało?

Lata „wojny z terroryzmem”, a na polskim podwórku: lata walki ze społeczeństwem, każą domniemywać, że te „wyjątkowe” sytuacje w gruncie rzeczy wcale takie wyjątkowe nie będą. Światowe Dni Młodzieży, szczyt klimatyczny, czarny protest, igrzyska olimpijskie? Francuskie władze już przyjęły przepisy dopuszczające inwigilację biometryczną w czasie olimpiady i paraolimpiady w Paryżu w 2024 r. Co stanie na przeszkodzie, żeby polskie władze sięgnęły po biometryczną inwigilację wobec ludzi domagających się na ulicach poszanowania praworządności czy praw kobiet? To nie science fiction – takie technologie są rozwijane jako narzędzia kontrolowania społeczeństwa w Chinach czy Singapurze.

Nie zapominajmy też, że systemy rozpoznawania twarzy, jak każde narzędzie oparte na sztucznej inteligencji, popełniają błędy. Błąd w takim przypadku oznacza niesłuszne oskarżenie danej osoby o poważne przestępstwo czy akt terroryzmu. Przy czym nie każda osoba ma równe szanse paść ofiarą takiego błędu. Nie jesteś białym mężczyzną w średnim wieku? Ryzyko, że to spotka właśnie ciebie, jest znacząco wyższe: nie wszystkie grupy ludzi są jednakowo reprezentowane w bazach danych, na których trenowane są systemy sztucznej inteligencji.

Co zrobią europosłowie i europosłanki?

Dopiero co cieszyliśmy się w Panoptykonie z dobrych poprawek, które członkowie i członkinie komisji IMCO i LIBE wprowadzili do aktu o sztucznej inteligencji. To właśnie oni rozszerzyli listę zakazanych zastosowań AI (w tym o zakaz biometrycznych systemów inwigilacji osób).

Mieliśmy nadzieję, że na kolejnym etapie prac nad tą regulacją uda się jeszcze odrobinę wzmocnić ochronę praw i wolności człowieka w zetknięciu z narzędziami wykorzystującymi sztuczną inteligencję. W aktualnej wersji aktu brakuje nam m.in. obowiązku informowania ludzi o tym, że są poddani działaniu systemów AI oraz bezwzględnego prawa do wyjaśnienia istotnych decyzji podjętych z użyciem AI.

Według „Euractiv” główne grupy polityczne w Parlamencie Europejskim wstępnie porozumiały się, że uznają kompromisową wersję aktu przyjętą w maju w komisjach IMCO i LIBE i w związku z tym nie będą składały poprawek przed głosowaniem plenarnym. Jak podaje portal, część polityków i polityczek uważa, że składając tak kontrowersyjne propozycje poprawek (jak m.in. poluzowanie ograniczeń w stosowaniu inwigilacji biometrycznej), EPP naruszyła to porozumienie.

Kto przeciw inwigilacji biometrycznej, niech podniesie rękę!

W tym tygodniu Parlament Europejski zagłosuje nad aktem o sztucznej inteligencji w głosowaniu plenarnym. W tym ważnym głosowaniu my – organizacje społeczne śledzące prace nad aktem o sztucznej inteligencji od samego początku – rekomendujemy posłom i posłankom poparcie kompromisu, jaki wypracowały komisje IMCO i LIBE oraz poparcie kilku naprawdę potrzebnych poprawek. Chodzi m.in. o wydłużenie listy zakazanych zastosowań AI (np. o wykorzystanie biometrii w polityce migracyjnej), szersze prawo do wyjaśnienia dla osób poddanych działaniu AI, a także o umożliwienie organizacjom społecznym występowania w interesie publicznym i w imieniu osób, których prawa zostały naruszone.

Głosowanie w Parlamencie Europejskim to nie koniec prac nad aktem o AI. Treść tej regulacji może się jeszcze zmienić (nawet bardzo!) w wyniku negocjacji trójstronnych między Komisją Europejską, Parlamentem i Radą Unii Europejskiej. Niektóre rządy chcą uzyskać szerokie prawo stosowania AI dla celów bezpieczeństwa narodowego, w związku z czym najwygodniejszym rozwiązaniem byłoby wyłączenie tego obszaru z zakresu regulacji. Najwygodniejszym rzecz jasna dla rządów, bo o ochronie praw ludzi nadzorowanych przez systemy AI możemy wtedy zapomnieć.

Im więcej europosłów i europosłanek opowie się teraz przeciwko poluzowaniu ograniczeń w stosowaniu inwigilacji biometrycznej, tym większa szansa, że ta propozycja nie powróci na ostatniej prostej, czyli w negocjacjach z Radą UE.

Autorstwo: Anna Obem
Współpraca: Dominika Chachuła, Filip Konopczyński
Źródło: Panoptykon.org

Źródłografia

1. https://www.euractiv.com/section/artificial-intelligence/news/ai-acts-plenary-vote-cast-with-uncertainty-as-political-deal-crumbles/

2. https://www.europarl.europa.eu/plenary/en/report-details.html?reference=A9-0188-2023

3. https://edri.org/our-work/remote-biometric-identification-a-technical-legal-guide/

4. https://www.biometricupdate.com/202212/chinas-political-biometric-id-surveillance-grows-in-scope-and-tech

5. https://www.biometricupdate.com/202207/metasphere-biometric-check-in-hub-approved-for-singapores-e-visitor-authentication-system

6. https://panoptykon.org/paryz-igrzyska-olimpijskie-2024

7. https://gizmodo.com/facial-recognition-randall-reid-black-man-error-jail-1849944231

8. https://panoptykon.org/ai-act-glosowanie-imco-libe