Liczba wyświetleń: 730
Broń autonomiczna nie przypomina kolejnej bomby atomowej. To raczej coś jak zakazana konwencjami amunicja kasetowa albo miny przeciwpiechotne. Zapraszamy na wywiad z dr Catherine Connolly, która zajmuje się monitorowaniem prawa międzynarodowego i debaty politycznej nad bronią autonomiczną w zespole Automated Decision Research.
– Dlaczego zewsząd słyszę, że państwa muszą inwestować w autonomiczną broń i że przyszłość konfliktów zbrojnych to AI?
– Po pierwsze, nie wszystkie państwa tego chcą. Przeciwnie, mamy rosnącą koalicję krajów, które postulują zakaz produkcji tego typu broni i jasno dały do zrozumienia, że same nie zamierzają przyłożyć do tego ręki. Zaś państwa, które narzucają narrację o nieuchronnym nadejściu autonomicznych broni i o tym, że od AI nie ma ucieczki, to często te kraje, które same mają w tym interes. Pierwszy i oczywisty powód, dla którego teraz tyle słyszymy o konieczności rozwoju broni autonomicznej, jest taki, że grupa państw eksportujących broń i prowadzących zaawansowane prace nad nimi może na tym zarobić. Wkoło słyszymy też, że jeśli „my” nie wejdziemy w produkcję tego typu broni, ktoś inny zrobi to za nas. I że na państwach demokratycznych spoczywa moralny imperatyw, by to właśnie one opanowały śmiercionośne roboty dla potrzeb obrony naszych wartości. Ale w podkręcaniu hype’u dotyczącego użycia AI do celów militarnych chodzi również o to, żeby jeszcze bardziej obniżyć próg dopuszczalności prowadzenia konfliktów zbrojnych.
– To znaczy?
– Wszystkim rządom zależy na tym, by ograniczyć ryzyko dla własnych żołnierzy. Im bardziej bezpieczny w ich ocenie będzie konflikt zbrojny, tym bardziej akceptowalny politycznie się stanie – i łatwiej będzie w niego wejść. Oczywiście, ryzyko przerzucane jest na ludność cywilną. Inna sprawa, że zapewnienia o tym, jak precyzyjna, bezpieczna i tania w użyciu jest broń kierowana AI, często okazują się fałszywe. Dlatego chcemy, aby działania na rzecz podpisania międzynarodowych traktatów nabrały tempa.
– Jakie to działania?
– W ciągu ostatnich dwóch lat dwie rezolucje na temat regulacji tematu broni autonomicznej w prawie międzynarodowym zdobyły bardzo szerokie poparcie na Zgromadzeniu Ogólnym Organizacji Narodów Zjednoczonych. Z naszego monitoringu stanowisk państw wynika, że dziś 129 krajów na całym świecie popiera próby wynegocjowania nowego prawa międzynarodowego i w szczególności traktatu o broni autonomicznej. Kolejne konferencje i wysiłki dyplomatyczne w ramach ONZ i poza nim naprawdę nabrały już rozpędu. W Genewie od ponad dekady trwa negocjowanie konwencji o zakazie lub ograniczeniu użycia pewnych typów broni konwencjonalnych (intencją jest rozszerzenie przepisów o broń autonomiczną). Jednak grupa państw o rozwiniętym sektorze zbrojeniowym, w tym Rosja, wykorzystuje – a właściwie nadużywa – reguły konsensusu, by zatrzymać postęp tych rozmów. Dlatego poza tymi rozmowami potrzebujemy innych formatów, by ten realny sprzeciw wobec rozwoju broni autonomicznych przekuć w nowe umowy międzynarodowe. Nie tylko widzimy już poparcie wielu krajów, ale także zarys zgody na temat tego, co powinno podlegać ograniczeniu czy zakazowi.
– Najwyższa pora zapytać. Zakazać, ale czego?
– W naszej kampanii Stop Killer Robots stosujemy definicję zgodną ze stanowiskiem Międzynarodowego Komitetu Czerwonego Krzyża, która mówi, że broń autonomiczna bazuje na wykryciu celu i użyciu siły w oparciu na danych z czujników, a nie czynnościach człowieka. Po aktywacji nie wiemy, kiedy i wobec jakiego celu zostanie użyta. Gdy zaś wzywamy do międzynarodowego zakazu albo embargo, mówimy w szczególności o dwóch kategoriach: broni biorącej za cel ludzi (anti-personnel autonomous weapons) i broni, której użycie wyklucza sensowny nadzór ze strony człowieka. Temat autonomicznej broni często jest redukowany do dronów. Ale to błąd. Musimy pamiętać, że niemal każdy rodzaj broni prędzej czy później (w połączeniu z rozpoznawaniem twarzy, zaprogramowanym profilem celu itd.) może stać się bronią autonomiczną. Choćby dlatego chcemy jednoznacznego zakazu broni biorącej za cel człowieka. Przykłady używania systemów rozpoznawania twarzy przez policję w USA i służby na całym świecie dały nam dość przykładów, żeby wiedzieć, że są to omylne narzędzia – szczególnie skore do pomyłek, gdy dane dotyczą osób o innym niż biały kolorze skóry lub przedstawicieli mniejszości.
– A czy nie ma tu analogii do broni jądrowej? Państwa, które już mają broń autonomiczną, zgodzą się na traktat o nierozpowszechnianiu, żeby inni nie mogli po nią sięgnąć?
– Nie. To, o czym mówimy, dużo bardziej przypomina konwencję o zakazie stosowania min przeciwpiechotnych czy użyciu amunicji kasetowej. Dzisiaj te kraje, które nie chcą zakazu autonomicznej broni, to te same, które chcą ją rozprowadzać. Zaś te, które chciałyby zakazu, nie mają jej i nie są zainteresowane jej pozyskaniem oraz rozpowszechnieniem na świecie. Podobnie było w przypadku zakazu stosowania amunicji kasetowej czy min przeciwpiechotnych w przeszłości. Co więcej, te negocjacje skończyły się sukcesem i większość państw przestrzega zapisów. Dziś oczywiście słyszymy, że i tak używa się amunicji kasetowej – choćby w Ukrainie. Ale gdyby nie fakt, że kiedyś zobowiązano się do ich zakazu i że obowiązuje pewna norma, w ogóle by nas to nie oburzało. W tym sensie wymienione przeze mnie konwencje i negocjacje międzynarodowe służą dziś w przypadku AI za lepszą analogię niż dyskusje o proliferacji broni jądrowej.
– I możemy założyć, że te systemy są i tak dziś testowane – jakby to powiedzieć – na żywym (sic!) organizmie podczas konfliktów na całym świecie?
– Tak. Ale to wcale nie jest oczywiste. Z jednej strony wiemy, że systemy, które da się według naszej definicji klasyfikować jako broń autonomiczną, są testowane na całym świecie. Z drugiej – nie możemy z całą pewnością powiedzieć, że w danym przypadku jednoznacznie mamy do czynienia z użyciem broni autonomicznej.
– Zaraz, jak to?
– Chodzi o to, że jej producenci się zabezpieczają. Zastrzegają, że zawsze jest gdzieś człowiek, który to kontroluje, i nigdy nie ma ryzyka, że coś się stanie bez ludzkiego nadzoru. Jednocześnie ci sami producenci, reklamując się, powołują się na coś zupełnie przeciwnego – mówią, że ich broń ma naprawdę autonomiczne oprogramowanie. To ciekawe, bo mamy do czynienia ze swego rodzaju…
– Obrotową narracją, gdzie inna wersja funkcjonuje na potrzeby debaty publicznej, a inna w branży?
– Tak. Dysponujemy dokładnymi cytatami szefów korporacji zbrojeniowych, którzy jasno dają do zrozumienia, że na razie człowiek jest zawsze obecny przy podejmowaniu decyzji. Ale jeśli klient będzie chciał inaczej; jeśli uzna, że woli zrezygnować z tej funkcji i że „wszystko jest OK z punktu widzenia konwencji genewskiej” (to cytat), to już jego decyzja. Firmy takie jak Helsing czy Anduril nie ukrywają, że testują swoje produkty w Ukrainie i że są niezwykle zadowolone z rezultatów. Mówią o tym publicznie. Wiemy też, że izraelskie wojsko i tamtejszy sektor zbrojeniowy traktuje Gazę i Zachodni Brzeg Jordanu jako swego rodzaju laboratorium sztucznej inteligencji (rozpoznawanie twarzy, zautomatyzowane bramki graniczne i militarne AI). W przypadku Izraela dzięki pracom dziennikarzy wiemy o co najmniej dwóch systemach – o nazwach Lavender i Hasbora – używających AI do typowania celów. Dla firm zbrojeniowych to wyśmienita okazja: dostają masę danych, mogą testować swoje produkty, wdrażać nowe funkcjonalności. Dzięki temu zyskują dodatkowy argument: „Zobaczcie, to, co wam oferujemy, jest naprawdę efektywne, tanie i – co więcej – przetestowane”. Problem w tym, że dziennikarzom dziś bardzo trudno pracować w Gazie i weryfikować te wszystkie doniesienia oraz na bieżąco informować nas o prawdziwych skutkach stosowania tych narzędzi.
– To prowadzi mnie do kolejnego pytania. Na ile dziś rozgraniczenie na sektor zbrojeniowy i cywilny, na AI wojskowe i powszechnego użytku, jest w ogóle zasadne? Sami piszecie w swoim newsletterze ostatnio niemal co tydzień o kolejnych firmach, które przekraczają tę granicę i wchodzą w biznes dostarczania rozwiązań dla służb i wojska.
– Racja, choć to działa w obie strony. Niektóre firmy zaczynały już ponad dekadę temu od rozwiązań algorytmicznych, analizy big data itp. w celu zwalczania terroryzmu. Było jasne, że prędzej czy później wejdą w sektor czysto zbrojeniowy. Jednocześnie dostarczają swoje produkty (jak choćby Palantir) systemom brytyjskiej publicznej ochrony zdrowia. Gdzie przebiega granica, jeśli te same algorytmy czy platformy są rozwijane równolegle? W drugą stronę dzieje się podobnie. Firmy działające w sektorze, nazwijmy to, ogólnodostępnego AI mówią teraz, że wchodzą we współprace ze służbami, udostępniają swoje modele językowe na potrzeby bezpieczeństwa i będą ubiegać się o kontrakty wojskowe.
– Mamy powody, żeby się martwić?
– Po pierwsze, autonomiczna broń ma potencjał, żeby zmienić oblicze wojny jako takiej. Może doprowadzić do rozprzestrzenienia się konfliktu asymetrycznego i – co już widzimy – nowego wyścigu zbrojeń. Przenosi w jeszcze większym stopniu śmiertelność konfliktu na cywili. Działa w podobny sposób jak miny – to ofiara czy cel może je uruchomić, a nie działanie człowieka. Możemy zostać celem, nie wiedząc o tym ani nawet nie zdając sobie sprawy, że w ogóle toczy się konflikt: wystarczy, że nasze dane będą pasować do wzoru. Co więcej, zazwyczaj jest tak, że technologie wykorzystywane na wojnie „wracają do domu” i znajdują zastosowanie w polityce wewnętrznej. Tak stało się z wieloma technologiami nadzoru chociażby. To wszystko wiemy. Ale spójrzmy na zjawisko cyfrowego odczłowieczania…
– „Cyfrowego odczłowieczania”?
– Tak. Ten proces opiera się na tym, że jesteśmy – czy nam się to podoba, czy nie – redukowani do ciągu liczb, a następnie decyzje, które bezpośrednio dotyczą naszego życia, są podejmowane w oparciu o te liczby. Ten proces prowadzi do tego, że coraz bardziej realna staje się perspektywa podejmowania w ten sposób decyzji o życiu i śmierci. Myślę, że nadszedł moment, w którym warto głośno zapytać – jak robi to m.in. Międzynarodowy Komitet Czerwonego Krzyża – czy naprawdę jesteśmy na to gotowi i czy ktokolwiek świadomie się na to godzi.
Z dr Catherine Connolly rozmawiał Jakub Dymek
Zdjęcie: gessicamarques862 (CC0)
Źródło: Panoptykon.org.pl
Kiedyś biznes produkował broń, aby państwa mogły wygrywać wojny.
Dziś państwa produkują wojny, aby biznes mógł trzepać kasę.
Popieram takie próby zatrzymania rozwoju broni autonomicznej czy robotycznej, ale póki powyższe 2 zdania będą prawdziwe nie wierzę w ich realizację.
Poza tym to jest coś więcej niż miny, gaz bojowy czy amunicja kasetowa. To jest jakby nowa era w dziejach uzbrojenia. Przełom, coś w stylu jak czołgi, tylko że lepiej, bo każdy tym razem dostrzega potencjał zwiększenia efektywności w dziele mordowania ludzi.
Czy można to zatrzymać? Jasne, że tak. Ale nie w dzisiejszym świecie, nie w takiej jego formie, w której magnateria rządzi, a przeciętny człowiek to zaledwie żywy inwentarz Właścicieli. Póki taki model będzie dominował nic się nie zmieni w fundamentalnych sprawach międzyludzkich.
Kościół Vatykański swego czasu też próbował zatrzymać rozpowszechnianie użycia kuszy, jako nowinki taktycznej, znacznie podnoszącej efektywność armii. Postulując, że to niegodne narzędzie do prowadzenia wojny. Tak jak gdyby jakieś inne były godne. Mniejsza z tym, ważne że mało kto słuchał tych prób zatrzymania innowacji. Łucznicy może i byli lepsi, ale trening ich zajmował lata, gdzie kusznika można było zmusztrować w kilka tygodni, albo i lepiej.
Konserwatyzm niezależnie w jakiej dziedzinie społecznej zawsze stał na przegranej pozycji, to tylko kwestia czasu.