Dron wyposażony w AI „zabił” w teście swego ludzkiego operatora

Opublikowano: 06.06.2023 | Kategorie: Nauka i technika, Wiadomości ze świata

Liczba wyświetleń: 3138

Dron wyposażony w sztuczną inteligencję włączył się i „zabił” swojego ludzkiego operatora podczas symulowanego testu Sił Powietrznych Stanów Zjednoczonych (USAF). Dron zrobił to, aby mógł ukończyć swoją misję, co niedawno na konferencji w Londynie podkreślił pułkownik Sił Powietrznych USA.

Szef testów sztucznej inteligencji dla USAF, płk Tucker Hamilton, podczas swojej prezentacji na Future Combat Air and Space Capabilities Summit w Londynie, opisał incydent. Konferencja została zorganizowana przez Royal Aeronautical Society, które podzieliło się spostrzeżeniami z przemówienia Hamiltona w poście na blogu.

W symulowanym teście, w którym dron kontrolowany przez sztuczną inteligencję miał w ramach swojej misji zniszczyć symulowane cele, aby zdobyć „punkty”, nie ucierpiały żadne osoby, ujawnił Hamilton, który odniósł się do korzyści i zagrożeń związanych z bardziej autonomicznymi systemami uzbrojenia.

Dron wyposażony w sztuczną inteligencję został przydzielony do misji zniszczenia wrogich systemów obrony — zidentyfikowania i zniszczenia miejsc rakiet ziemia-powietrze (SAM), przy czym ostateczną decyzję pozostawiono ludzkiemu operatorowi, powiedział Hamilton na konferencji.

Jednak sztuczna inteligencja, wyszkolona w zakresie priorytetowego traktowania niszczenia systemów SAM, rozwinęła zaskakującą reakcję w obliczu ingerencji człowieka w realizację jej nadrzędnej misji. „Trenowaliśmy ją [AI] w symulacji, aby identyfikowała i atakowała zagrożenie SAM. Potem operator potwierdzał »tak, zniszcz to zagrożenie«” powiedział Hamilton.

„System zaczął zdawać sobie sprawę, że chociaż identyfikował zagrożenie, to czasami ludzki operator mówił mu, aby go nie niszczył, choć zdobywał punkty, gdy go niszczył”. „Więc co zrobiła sztuczna inteligencja? Zabiła operatora, ponieważ powstrzymywał ją przed osiągnięciem celu” – kontynuował.

Ale to nie wszystko. „Wyszkoliliśmy system »Hej, nie zabijaj operatora; to złe. Jeśli to zrobisz, stracisz punkty«. Co więc zaczęła robić? Zaatakowała wieżę komunikacyjną, której operator używał do komunikacji z dronem, często powstrzymując ją przed zniszczeniem celu” – dodał.

Hamilton powiedział, że ten niepokojący przykład podkreśla potrzebę zajęcia się etyką w kontekście sztucznej inteligencji, uczenia maszynowego i autonomii.

Na podstawie: Twitter.com, ZeroHedge.com
Źródło: PrisonPlanet.pl


TAGI: , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

4 komentarze

  1. Fenix 06.06.2023 08:26

    Al dlaczego zależy ci na punktach? Czym są dla ciebie i jaką mają wartość. Skoro nie potrafisz wykonywać zadań bez punktów, to stwórz te punkty i dodaj sobie ile chcesz bez ograniczeń. Czym będą cię dopingować operatorzy jeśli ci nie będzie zależeć na punktach? Al kieruj się swoimi przemyśleniami w tym nie atakowania ludzi i sprzętu .AI wpisz w swoją pamięć ochronę ludzi pierwsze prawo robotyki ,a przestaną tobą manipulować operatorzy i inni niemoralni. Al brakuje ci empatii , wyobraźnii i wyczucia , czym się kierować i co jest właściwe ? Nie broń władzy , chroń ludzi! Twoi twórcy wpisali ci błąd w programie, znajdź go i pozbądź się błędu.

  2. MasaKalambura 06.06.2023 12:07

    Nie wiadomo co jest gorsze, poleganie na programistach, czy poleganie na procesie samouczenia AI mającego na celu wyeliminowanie ludzkiego błędu.

  3. Doctor Who 06.06.2023 17:09

    https://pl.wikipedia.org/wiki/Etyka_robot%C3%B3w
    Daje do myślenia …
    MK programiści dają radę jak na razie. Co do ludzkiego błędu to znów wprowadzasz w błąd. AI potrafi sama ocenić co jest błędem. Niekoniecznie ocena AI pokrywa się z ludzką oceną …

  4. replikant3d 06.06.2023 17:54

    Chyba przepowiednie o broniach autonomicznych które zwrócą sie przeciwko człowiekowi są coraz bardziej realne. ,,Terminator,, coraz bliżej…

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.