Polaka w Strefie Gazy wystawiła na cel Sztuczna Inteligencja?

Opublikowano: 07.04.2024 | Kategorie: Nauka i technika, Polityka, Wiadomości ze świata

Liczba wyświetleń: 1194

Izraelskie media twierdzą, że siły zbrojne tego kraju wykorzystuje sztuczną inteligencję do wybierania celów dla swoich ataków. Izrael oficjalnie zaprzecza i twierdzi, że AI i używany program służy jedynie do gromadzenia informacji. Tymczasem zaniepokojenie użyciem tego sposobu walki, wyraził Sekretarz Generalny ONZ.

Media stawiają sobie pytanie – w jaki sposób armia izraelska wybiera cele swoich ataków w Strefie Gazy i w środę 3 kwietnia, dwa niezależne izraelskie media, portale „+972” i „Local Call”, postawiły tezę, że armia korzysta z programu opartego na sztucznej inteligencji o nazwie Lavender. Można się zapytać, czy ów Lavender wybierał cele w ataku na konwój organizacji humanitarnej, w której zginął także polski obywatel?

Izrael oficjalnie twierdzi, że Lavender to prosta baza danych, zawierająca odniesienia do informacji zebranych przez jego służby. Sekretarz Generalny ONZ Antonio Guterres oświadczył jednak 5 kwietnia, że jest „głęboko zaniepokojony” wynikami dziennikarskiego śledztwa i wykorzystywaniem sztucznej inteligencji przez armię izraelską.

Internetowy serwis medialny „+972” powołuje się na sześć anonimowych źródeł izraelskiego wywiadu. Opisuje Lavender jako „program oparty na sztucznej inteligencji”, mający na celu identyfikację osób podejrzanych o przynależność do Hamasu i Islamskiego Dżihadu oraz oznaczanie ich jako „potencjalne cele ataków”.

Armia izraelska, według danych zebranych przez „+972”, w dużym stopniu polegała na tym systemie, szczególnie na początku swojej interwencji wojskowej w Gazie. Jeden z anonimowych funkcjonariuszy, z którym przeprowadzono wywiad, stwierdził, że miał 20 sekund na podjęcie decyzji o każdym celu wskazanym przez Lavender i jako człowiek miał „zero szans” na inne działania, niż zatwierdzenie ataku. Według +972 system przeprowadził błędne analizy w prawie 10% przypadków.

Według tych mediów Lavender różni się od „Evangile”, innego algorytmu używanego przez izraelską armię do obserwacji i wyznaczania celów ataków na budynki. Poprzednie dziennikarskie śledztwo „+972” i „Local Call” przedstawiało także ten system jako „fabrykę masowych zabójstw”, przedkładającą „ilość nad jakość”.

Izrael nie zaprzeczył istnieniu Lavendera, ale według armii nie jest „systemem”, ale bazą danych wykorzystywaną do porównywania źródeł wywiadowczych w celu uzyskania aktualnych informacji na temat członków organizacji terrorystycznych. Armia zapewniła także, że „przestrzega prawa międzynarodowego” i „atakuje wyłącznie cele wojskowe i żołnierzy”.

Autorstwo: BD
Na podstawie: „Le Figaro”, 972mag.com
Źródło: NCzas.info


TAGI: , , , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.