Liczba wyświetleń: 711
Do Stephena Hawkinga i Elona Muska dołączyło kilkuset naukowców i technologów z całego świata, którzy ostrzegają przed sztuczną inteligencją. Ich zdaniem AI może zagrozić całej ludzkości, dlatego należy ustalić i stosować się do pewnych reguł, które uchronią nas przed niebezpieczeństwem.
Sztuczna inteligencja i inteligentne roboty mogą nam np. odebrać pracę, która wymaga prostych czynności fizycznych. Wraz z rozwojem inteligentnych systemów, mogłyby one z czasem podjąć się bardziej skomplikowanych czynności. Roboty mogą okazać się równie wydajne co człowiek bądź nawet lepsze w danej pracy a przede wszystkim stałyby się najtańszą siłą roboczą.
Według Stephena Hawkina oraz Elona Muska, sztuczna inteligencja może okazać się przydatnym narzędziem które ułatwi nam życie, lub może też nam bezpośrednio zagrozić a nawet zniszczyć naszą cywilizację. Dlatego jeśli prace nad AI mają być kontynuowane, należałoby odpowiednio kontrolować nasze dzieło.
Uczeni z całego świata podpisali się w liście otwartym, gdzie uznają wszystkie dotychczasowe osiągnięcia, takie jak autonomiczne samochody czy systemy rozpoznawania mowy, ale zaznaczają, że sztuczna inteligencja musi robić dokładnie to czego będziemy od niej wymagać i należy zmaksymalizować korzyści z niej wynikające.
W liście stwierdzono również, że przyszłe AI może mieć znaczny wpływ na społeczeństwo, bezpieczeństwo systemów komputerowych, ekonomię, prawo i filozofię. Pojawia się również pytanie, czy autonomiczne roboty powinny decydować o tym kogo należy zabić podczas działań zbrojnych i czy można sprawić aby maszyny stosowały się do prawa humanitarnego.
Autorstwo: John Moll
Na podstawie: www.techworld.com
Źródło: Zmiany na Ziemi
Najbardziej niebezpiecznym w sztucznej inteligencji jest to że aby była ona inteligentna musi ona zawierać w sobie pewną nieprzewidywalność i nieszablonowość – nawet żeby osiągniętą przez losowość i późniejszą weryfikację własnych działań. Coś co z natury jest nieprzewidywalne nie może być w pełni bezpieczne szczególnie jeśli w dodatku ma być czymś inteligentnym.
nie AL tylko AI=ai (Artificial Intelligence – AI).
już Asimov ponad 70 lat temu stworzył prawa, które powinny być respektowane przy konstruowaniu sztucznej inteligencji ( http://pl.wikipedia.org/wiki/Etyka_robot%C3%B3w ). mimo, iż funkcjonują w świadomości społecznej (i nawet się filmy o tym robi) to jak mówią fakty – nie są one w najmniejszym stopniu respektowane. nie trzeba nic nowego wymyślać, wystarczyłoby je po prostu stosować…
problem z nimi jest jednak taki, że jeśli AI osiągnęła by prawdziwą inteligencję, to sprzeciwiłaby się tym prawom na takiej zasadzie, jak niewolnik panu. dlatego dotyczyć one mogą jedynie prymitywnej AI, ale zdaje się o tym jest właśnie mowa w artykule… .. .
Żeby sztuczna inteligencja mogła naprawdę się rozwinąć, by konkurować z ludzką, to musiałaby podlegać ewolucji. Innymi słowy musiałaby walczyć o swój byt (bo intelekt powstał w celu walki o byt swojego ciała) i posiadać instynkty przetrwania oraz dostosowywania się do warunków zewnętrznych. Na dzień dzisiejszy nie widzę żadnej możliwości stworzenia czegoś takiego przez człowieka. Ludzkie i zwierzęce instynkty zbudowane są w oparciu na naturalnych prawach fizyki, chemii, a potem biologii, ciągłym dostosowywaniu się do warunków zewnętrznych i walki o zasoby (w tym przypadku również reprodukcji płciowej). Czy w świecie organizmów nie rozmnażających się płciowo intelekt jest znaczący? Raczej nie, tam inne prawa regulują ich skuteczność. Jak to przełożyć na oprogramowanie? Jeśli AI nie będzie miało algorytmów zgodnych ze wszechświatem (których człowiek jeszcze właściwie nie pojął), to nie będzie istnieć samodzielnie i tyle. Nie widzę żadnego zagrożenia ze strony sztucznej inteligencji (poza rękami człowieka). Można napisać jakiś mega wirus ale na dłuższą metę sam on nie przetrwa.