Naukowcy ostrzegają przed sztuczną inteligencją

Opublikowano: 15.01.2015 | Kategorie: Nauka i technika, Wiadomości ze świata

Liczba wyświetleń: 591

Do Stephena Hawkinga i Elona Muska dołączyło kilkuset naukowców i technologów z całego świata, którzy ostrzegają przed sztuczną inteligencją. Ich zdaniem AI może zagrozić całej ludzkości, dlatego należy ustalić i stosować się do pewnych reguł, które uchronią nas przed niebezpieczeństwem.

Sztuczna inteligencja i inteligentne roboty mogą nam np. odebrać pracę, która wymaga prostych czynności fizycznych. Wraz z rozwojem inteligentnych systemów, mogłyby one z czasem podjąć się bardziej skomplikowanych czynności. Roboty mogą okazać się równie wydajne co człowiek bądź nawet lepsze w danej pracy a przede wszystkim stałyby się najtańszą siłą roboczą.

Według Stephena Hawkina oraz Elona Muska, sztuczna inteligencja może okazać się przydatnym narzędziem które ułatwi nam życie, lub może też nam bezpośrednio zagrozić a nawet zniszczyć naszą cywilizację. Dlatego jeśli prace nad AI mają być kontynuowane, należałoby odpowiednio kontrolować nasze dzieło.

Uczeni z całego świata podpisali się w liście otwartym, gdzie uznają wszystkie dotychczasowe osiągnięcia, takie jak autonomiczne samochody czy systemy rozpoznawania mowy, ale zaznaczają, że sztuczna inteligencja musi robić dokładnie to czego będziemy od niej wymagać i należy zmaksymalizować korzyści z niej wynikające.

W liście stwierdzono również, że przyszłe AI może mieć znaczny wpływ na społeczeństwo, bezpieczeństwo systemów komputerowych, ekonomię, prawo i filozofię. Pojawia się również pytanie, czy autonomiczne roboty powinny decydować o tym kogo należy zabić podczas działań zbrojnych i czy można sprawić aby maszyny stosowały się do prawa humanitarnego.

Autorstwo: John Moll
Na podstawie: www.techworld.com
Źródło: Zmiany na Ziemi


TAGI: ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

3 komentarze

  1. MichalR 16.01.2015 10:02

    Najbardziej niebezpiecznym w sztucznej inteligencji jest to że aby była ona inteligentna musi ona zawierać w sobie pewną nieprzewidywalność i nieszablonowość – nawet żeby osiągniętą przez losowość i późniejszą weryfikację własnych działań. Coś co z natury jest nieprzewidywalne nie może być w pełni bezpieczne szczególnie jeśli w dodatku ma być czymś inteligentnym.

  2. realista 16.01.2015 11:27

    nie AL tylko AI=ai (Artificial Intelligence – AI).

    już Asimov ponad 70 lat temu stworzył prawa, które powinny być respektowane przy konstruowaniu sztucznej inteligencji ( http://pl.wikipedia.org/wiki/Etyka_robot%C3%B3w ). mimo, iż funkcjonują w świadomości społecznej (i nawet się filmy o tym robi) to jak mówią fakty – nie są one w najmniejszym stopniu respektowane. nie trzeba nic nowego wymyślać, wystarczyłoby je po prostu stosować…
    problem z nimi jest jednak taki, że jeśli AI osiągnęła by prawdziwą inteligencję, to sprzeciwiłaby się tym prawom na takiej zasadzie, jak niewolnik panu. dlatego dotyczyć one mogą jedynie prymitywnej AI, ale zdaje się o tym jest właśnie mowa w artykule… .. .

  3. goldencja 16.01.2015 12:03

    Żeby sztuczna inteligencja mogła naprawdę się rozwinąć, by konkurować z ludzką, to musiałaby podlegać ewolucji. Innymi słowy musiałaby walczyć o swój byt (bo intelekt powstał w celu walki o byt swojego ciała) i posiadać instynkty przetrwania oraz dostosowywania się do warunków zewnętrznych. Na dzień dzisiejszy nie widzę żadnej możliwości stworzenia czegoś takiego przez człowieka. Ludzkie i zwierzęce instynkty zbudowane są w oparciu na naturalnych prawach fizyki, chemii, a potem biologii, ciągłym dostosowywaniu się do warunków zewnętrznych i walki o zasoby (w tym przypadku również reprodukcji płciowej). Czy w świecie organizmów nie rozmnażających się płciowo intelekt jest znaczący? Raczej nie, tam inne prawa regulują ich skuteczność. Jak to przełożyć na oprogramowanie? Jeśli AI nie będzie miało algorytmów zgodnych ze wszechświatem (których człowiek jeszcze właściwie nie pojął), to nie będzie istnieć samodzielnie i tyle. Nie widzę żadnego zagrożenia ze strony sztucznej inteligencji (poza rękami człowieka). Można napisać jakiś mega wirus ale na dłuższą metę sam on nie przetrwa.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.