Zabójcze roboty mogą wywołać masowe okrucieństwa

Opublikowano: 27.09.2019 | Kategorie: Nauka i technika, Publicystyka

Liczba wyświetleń: 724

Fakty są takie, że była inżynierka oprogramowania Google ostrzega przed przemysłowym rozwojem sztucznej inteligencji w zakresie tworzenia „zabójczych robotów”, które miałyby autonomię w podejmowaniu decyzji, kogo zabić bez zabezpieczenia w postaci interwencji człowieka. Refleksja w takiej sytuacji może być tylko jedna, otóż widzimy, że wydarzenia takie jak potencjalne stworzenie „zabójczych robotów” ostatecznie może wpłynąć na całkowitą zmianę kursu współczesnej cywilizacji.

Drodzy Czytelnicy, wkroczyliśmy w naszej historii na drogę, w której zaawansowane technologie oparte na sztucznej inteligencji mogą stawać się coraz bardziej podatne na niezamierzone działania, które zagrażają bezpieczeństwu i autonomii ludzi. A ci z nas, którzy wierzą w bezpieczeństwo i autonomię są okłamywani i mamieni złudnymi wyjaśnieniami. Uwierzcie nam, że większość elit za kurtyną znajdujących się na szczycie obecnej piramidy władzy jest coraz bardziej mniej świadoma i czujna wobec tego rosnącego zagrożenia.

Argumenty za i przeciw nieskrępowanemu rozwojowi sztucznej inteligencji i jej integracji ze zdolnościami wojskowymi są następujące: zwolennicy rozwoju sztucznej inteligencji po prostu wskazują na zwiększoną wydajność i dokładność, zapewnioną przez sztuczną inteligencję. Jednak ich nieskrępowany zapał zwykle opiera się na dość naiwnym, lub udawanym zaufaniu do rządu, korporacji i wywiadu wojskowego.

Druga strona argumentu opiera swoją podstawową nieufność na dobrze udokumentowanym przekonaniu, że w rzeczywistości nasi obecni przywódcy korporacyjni, rządowi i wojskowi działają w oparciu o własne wąskie plany, które nie uwzględniają bezpieczeństwa i autonomii człowieka. Nikt nie sprzeciwia się rozwojowi sztucznej inteligencji jako takiej, do zastosowania w sposób, który wyraźnie i niezaprzeczalnie przyniesie korzyści ludzkości. Nie można jednak nie dostrzegać, że ogromne fundusze pompowane są w przemysł zbrojeniowy, a zatem w wojnę.

Być może nie ma sposobu, aby w pełni uniemożliwić wojskowym prowadzenie badań nad ulepszeniami sztucznej inteligencji w ich aplikacjach. Wydaje się jednak, że istnieje jedna wyraźna linia rozgraniczająca, której zdaniem wielu nie należy przekraczać, czyli przyznanie programom o statusie sztucznej inteligencji, wyłącznego upoważnienia przez człowieka, na przykład w sytuacji czy dana osoba lub grupa ludzi powinna zostać zabita.

Inżynierka oprogramowania Laura Nolan, zrezygnowała ze stanowiska Google w proteście po tym, jak przydzielono ją do pracy w 2017 roku nad Projektem Maven, projektem stosowanym do radykalnego ulepszenia technologii amerykańskich dronów wojskowych po przez stworzenie sztucznej inteligencji dla tych urządzeń. Laura Nolan jak przyznaje, czuła, że ​​jej praca posunie naprzód niebezpieczną zdolność maszyn do zabijania bez chwili namysłu.

Poprzez protesty i rezygnacje odważnych ludzi, takich jak Laura Nolan, Google zezwolił na wygaśnięcie Projektu Maven w marcu 2019 roku. Laura powiedziała nie, oraz ponad trzy tysiące pracowników podpisało petycję protestującą przeciwko zaangażowaniu firmy w rozwój tego typu technologii. Powinno to być dla nas wszystkich wskazówką, że ci wielcy korporacyjni giganci nie podejmują etycznych decyzji samodzielnie, ponieważ są zasadniczo niemoralni.

W przeciwieństwie do dronów, które są ściśle kontrolowane przez zespoły wojskowe często oddalone nawet o tysiące kilometrów, Nolan powiedziała, że zabójcze roboty, mogą potencjalnie robić: „katastrofalne rzeczy, dla których nie były pierwotnie zaprogramowane”. Laura Nolan, dodaje również, że korporacja Google, przeznacza rocznie setki milionów dolarów na rozwój projektów podobnych do projektu Maven.

„Prawdopodobieństwo katastrofy jest proporcjonalne do liczby tych maszyn na danym obszarze jednocześnie. To, na co patrzysz, to możliwe okrucieństwa i bezprawne zabójstwa, nawet na podstawie przepisów wojennych, zwłaszcza, jeśli setki lub tysiące tych maszyn zostaną rozmieszczone. Mogą wystąpić wypadki na dużą skalę, ponieważ te rzeczy zaczną się zachowywać w nieoczekiwany sposób. Dlatego wszelkie zaawansowane systemy uzbrojenia powinny podlegać znaczącej kontroli ze strony ludzi, w przeciwnym razie należy je zakazać, ponieważ są zbyt nieprzewidywalne i niebezpieczne” – uważa Laura Nolan.

Drodzy czytelnicy, wydarzenia w naszym świecie, takie jak pojawienie się autonomicznych zabójczych robotów, są złowieszcze i przejmujące, ale nie musimy uciekać przed tego rodzaju wiadomościami. Możemy potraktować tego typu informacje jako wyzwalacz dla każdego z nas, aby dokładnie określić, jakiego rodzaju świata chcemy, w jakim świecie chcemy żyć. W ten sposób uczestniczymy w większym procesie przebudzenia i pomagamy popychać ludzkość do przodu w przejściu do świata większego pokoju i harmonii.

Zdjęcie: gessicamarques862 (CC0)
Źródło: Globalne-Archiwum.pl


TAGI: , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

1 wypowiedź

  1. Fenix 28.09.2019 07:45

    Jedno wyjście, oślepić roboty !

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.