Firma Google chce produkować broń ze sztuczną inteligencją
Na początku lutego 2025 roku media poinformowały, że Google wycofuje swoją obietnicę rezygnacji z systemów broni sztucznej inteligencji.
W 2018 r. firma narzuciła sobie zasady etyczne. Stało się tak jednak tylko dlatego, że w szeregach pracowników Google wybuchł ogromny opór przeciwko zaangażowaniu firmy w broń AI. Tysiące pracowników podpisało wówczas petycję, a dziesiątki w ramach protestu zwolniły się.
Następnie firma Google zapewniła, że nie będzie rozwijać ani dostarczać technologii AI do systemów uzbrojenia lub nadzoru. Dotyczyło to następujących obszarów/kategorii:
– technologie zaprojektowane, by szkodzić ludziom;
– systemy uzbrojenia, w których głównym celem jest sztuczna inteligencja;
– technologie nadzoru naruszające międzynarodowe standardy;
– aplikacje naruszające prawo międzynarodowe lub prawa człowieka.
Teraz Google robi kolejny krok w kierunku broni AI. Szefowie firmy ogłosili niedawno na blogu, że firma zmieni swoje własne zasady dotyczące sztucznej inteligencji. Nowa wersja zasad, dotyczących działań w zakresie sztucznej inteligencji, nie obejmuje już dobrowolnego zobowiązania podjętego w 2018 roku. Dyrektorzy generalni uzasadniają tę ponowną zmianę kursu w kierunku systemów uzbrojenia AI między innymi szybkim postępem w rozwoju technologii.
Korporacja stwierdziła niedawno, że firmy, rządy i organizacje zajmujące się sztuczną inteligencją powinny teraz współpracować, między innymi w celu ochrony bezpieczeństwa narodowego. Ale czy systemy uzbrojenia oparte na sztucznej inteligencji naprawdę przyczyniają się do bezpieczeństwa, czy wręcz przeciwnie, stanowią ogromne zagrożenie?
Ilustracja: WolneMedia.net (CC0)
Źródło: KLA.tv