Co z zakazem rozpoznawania twarzy?
W poprzednim tygodniu Rada Unii Europejskiej przyjęła kolejną wersję aktu o sztucznej inteligencji. Rozwój programów opartych na autonomicznych algorytmach, zastosowanie ich w medycynie, finansach czy motoryzacji wymusza taką regulację.
Pierwszą wersję aktu o sztucznej inteligencji Komisja Europejska zaprezentowała w kwietniu 2021 r. Rok później pierwsze poprawki (o których pisaliśmy na naszej stronie) zaproponowali sprawozdawcy parlamentarnych komisji ds. rynku wewnętrznego i konsumentów (IMCO) oraz wolności obywatelskich, sprawiedliwości i spraw wewnętrznych (LIBE).
W kolejnym kroku Rada UE wypracowała konsensus w sprawie definicji sztucznej inteligencji i klasyfikacji systemów według stopnia ryzyka. Projekt uzupełniono też o propozycję regulacji tzw. generatywnej sztucznej inteligencji (general purpose AI – to na niej opierają się czaty i generatory obrazów).
Dobrą informacją jest także to, że Rada rozszerzyła ograniczenia stosowania tzw. systemów kredytu społecznego na prywatne podmioty, a nie wyłącznie instytucje publiczne. Systemy te służą do oceny wiarygodności społecznej czy sytuacji ekonomicznej ludzi.
Rada Unii Europejskiej i Parlament Europejski nie mają wciąż wspólnego stanowiska w kluczowej dla praw obywatelskich kwestii: dopuszczalności stosowania zdalnego biometrycznego rozpoznawania twarzy. Oczekujemy, że Parlament Europejski (w ramach prac w komisjach) przyjmie poprawki, które doprowadzą do zakazania tej praktyki w jak najszerszym zakresie.
Regulacja nie ochroni nas też przed negatywnymi konsekwencjami zastosowania sztucznej inteligencji także w celach obronności, badawczych i naukowych, zwalczania przestępczości, kontroli granic. To ogromna sfera wykorzystania AI, a co za tym idzie – dużo potencjalnych zagrożeń.
Trwają też jeszcze dyskusje na temat zasad działania nowego organu, który będzie nadzorował, czy prawo w zakresie sztucznej inteligencji jest przestrzegane. Do rozstrzygnięcia pozostają przede wszystkim jego uprawnienia, ale też techniczne szczegóły dotyczące składu czy nazwy.
Postulaty NGO: ochrona człowieka, audytowanie technologii
Fundacja Panoptykon jest głęboko zaangażowana w proces tworzenia tego prawa – zarówno na poziomie polskim, jak i europejskim. Przypomina, że wraz z innymi europejskimi organizacjami zrzeszonymi w EDRi już w kwietniu rekomendowała uzupełnienie AI Act m.in. o konkretne rozwiązania chroniące człowieka, żeby:
– ludzie mogli zgłosić skargę, jeśli system narusza ich prawa;
– ludzie mieli prawo do otrzymania wyjaśnienia istotnych decyzji, które podejmowane są w wykorzystaniem AI (nawet jeśli w procesie brał udział człowiek),
– organizacje społeczne, takie jak Panoptykon, mogły reprezentować osoby, których prawa zostaną naruszone,
– wszystkie podmioty miały obowiązek przeprowadzania analizy wpływu AI na prawa człowieka (zarówno prywatne, jak i publiczne, także te zajmujące się ściganiem przestępczości),
– ludzie byli informowani, że mają do czynienia z AI – zwłaszcza, jeśli to zetknięcie niesie za sobą wysokie ryzyko, że ich prawa zostaną naruszone.
Co dalej? Po nowym roku planowane są dalsze prace nad poprawkami w komisjach Europarlamentu. Następny krok to głosowanie na posiedzeniu plenarnym, zaplanowane na luty bądź marzec. Tylko do tego momentu można liczyć na uwzględnienie postulatów wzmacniających ochronę praw obywatelskich. Następnie Parlament, Rada i Komisja uzgodnią ostateczne brzmienie dokumentu. Ma to nastąpić do końca 2023 r.
Autorstwo: Filip Konopczyński
Współpraca: Anna Obem, Dominika Chachuła
Źródło: Panoptykon.org