Liczba wyświetleń: 524
Departament Obrony USA wydał 24 lutego pięć zasad dotyczących wykorzystania sztucznej inteligencji, w tym systemów biometrycznych, takich jak rozpoznawanie twarzy. Systemy muszą być odpowiedzialne, sprawiedliwe, identyfikowalne, nadzorowane i niezawodne.
Cztery dni później, pod koniec watykańskich warsztatów analizujących etykę i prawo sztucznej inteligencji, papież Franciszek, Microsoft Corp., IBM Corp. i inne zaproszone organizacje wezwały do „nowych form regulacji” i sześciu zasad pokrywających się z listą Departamentu Obrony USA.
Dokument, zatytułowany „Rzymskie wezwanie do etyki AI” i poparty przez papieża, mówi, że każdy etap i aspekt sztucznej inteligencji musi być zgodny z ideałami przejrzystości, włączenia, odpowiedzialności, bezstronności, niezawodności, bezpieczeństwa i prywatności.
Watykan i Pentagon martwią się o wpływ sztucznej inteligencji na ludzkość. Pentagon przede wszystkim martwi się o przyszłość z bezwzględnymi, nieobliczalnymi wojownikami maszynowymi. W dokumencie Departamentu Obrony, w którym ogłoszono stanowisko wojska, zauważono: „Te zasady opierają się na długiej historii departamentu dotyczącej etycznego wdrażania nowych technologii”.
Był to wynik piętnastu miesięcy dyskusji prowadzonych przez Obronną Radę Innowacji, dotyczących wykorzystania sztucznej inteligencji w walce i poza walką. Zarząd zalecił staraniom departamentu:
1. Odpowiedzialność: Personel zachowa odpowiedni poziom osądu i ostrożności, pozostając odpowiedzialny za rozwój, wdrażanie i wykorzystanie sztucznej inteligencji
2. Dokładność: Departament podejmie celowe kroki, aby zminimalizować niezamierzone odchylenie w zdolnościach AI
3. Identyfikację: Możliwości zostaną opracowane i wdrożone w taki sposób, aby odpowiedni personel posiadał odpowiednie zrozumienie technologii, procesów rozwojowych i metod operacyjnych mających zastosowanie do zdolności AI, w tym przejrzystych i kontrolowanych metodologii, źródeł danych oraz procedur projektowych i dokumentacji
4. Niezawodność: zdolności AI działu będą miały wyraźne, dobrze określone zastosowania, a bezpieczeństwo i skuteczność takich możliwości będą podlegały testom i zapewnieniu w ramach tych określonych zastosowań przez cały cykl życia
5. Zarządzanie: Personel zaprojektuje i opracuje zdolności AI w celu spełnienia zamierzonych funkcji, mając jednocześnie zdolność wykrywania i unikania niezamierzonych konsekwencji oraz zdolność do wyłączania lub dezaktywacji wdrożonych systemów wykazujących niezamierzone zachowanie
Watykańska grupa, w skład której wchodzi również dyrektor generalny Organizacji Narodów Zjednoczonych ds. Wyżywienia i Rolnictwa Qu Dongyu, jest godnością człowieka. Grupa już teraz widzi, jak sztuczna inteligencja, szczególnie rozpoznawanie twarzy, zaczyna osłabiać godność i zdradzać zasady sprawiedliwości. Dokument grupy określa zasady zgodne z określonymi wartościami społecznymi Kościoła Katolickiego. Dokument wzywa do przejrzystości, mówiąc, że systemy sztucznej inteligencji muszą być proste do wyjaśnienia, zaoferować najlepsze możliwe warunki wyrażania siebie i rozwoju, odpowiedzialności.
Podobnie ci, którzy projektują i wdrażają sztuczną inteligencję, muszą ponosić odpowiedzialność i przejrzystość, bezstronność, czyli nie tworzą ani nie działają zgodnie z uprzedzeniami, oznacza to, że systemy muszą działać niezawodnie i bezpiecznie w sposób, który szanuje prywatność.
Te dwa listy są punktami docelowymi, nad którymi przemysł i rządy muszą współpracować w ramach nieustającego wysiłku.
Źródło oryginalne: Biometricupdate.com
Źródło polskie: Wolna-Polska.pl