Liczba wyświetleń: 2718
W obliczu szybko rozwijających się technologii AI, naukowcy jak Eliezer Yudkowsky alarmują o potencjalnych zagrożeniach, które mogą wynikać z braku kontroli nad superinteligencjami. Według Yudkowsky’ego, który jest badaczem w Machine Intelligence Research Institute, możemy mieć tylko pięć lat na zapobieżenie scenariuszom, w których niekontrolowana AI prowadzi do katastrofy na skalę globalną.
Zawrotne tempo, z jakim ta nowa technologia postępuje, sprawiło, że niektórzy eksperci w tej dziedzinie zaczynają się niepokoić, a przewidywania o ponurej i dystopijnej przyszłości naszego gatunku spełniają się szybciej, niż się spodziewano. Eliezer Yudkowsky, amerykański badacz sztucznej inteligencji i pisarz specjalizujący się w teorii decyzji i etyce, jest powszechnie znany z popularyzowania idei przyjaznej sztucznej inteligencji (AI), w tym koncepcji, że może nie być „alarmu”, który poinformowałby nas, kiedy przestanie być ona przyjazna.
Jego prace na temat możliwości niekontrolowanego wybuchu AI wpłynęły na książkę „Superinteligencja: Ścieżki, niebezpieczeństwa, strategie” filozofa Nicka Bostroma, opublikowaną w 2014 roku. Teraz, w rozmowie z brytyjskim medium „The Guardian”, Yudkowsky przewiduje, że brak kontroli może nastąpić szybciej, niż wielu sądzi.
Trudność polega na tym, że ludzie nie zdają sobie sprawy, że mamy niewielkie szanse na przetrwanie ludzkości. Jego zdaniem jeśli by przypisać prawdopodobieństwa, to nasz obecny pozostały czas to raczej pięć lat, a nie pięćdziesiąt. Może to być dwa lata, może być dziesięć. A przez „pozostały czas” Yudkowsky ma na myśli czas, jaki mamy do końca, zanim stanąrzymy w obliczu końca wszystkiego spowodowanego przez maszyny, w scenariuszu, który mógłby się wahać od stylu „Terminatora” (wojna spowodowana lub napędzana przez AI) do „Matrixa” (cywilizacja zależna od AI, która zachowuje się jak Bóg).
Próbując wyrwać ludzkość z jej obojętności w tej sprawie, Yudkowsky opublikował artykuł w „Time” wiosną zeszłego roku, w którym posunął się tak daleko, że zasugerował, jako ostatnią alternatywę przetrwania ludzkości, bombardowanie farm komputerowych, w których rozwijane i szkolone są AI. Ostrzega, że jeśli nie podejmiemy natychmiastowych działań, by zapanować nad rozwojem tej technologii, to w ciągu najbliższych pięciu lat możemy stanąć w obliczu całkowitej zagłady naszego gatunku.
Yudkowsky podkreśla, że rozwijające się AI mogą zacząć działać w sposób, którego nie jesteśmy w stanie przewidzieć ani kontrolować. Porównuje to do nieprzewidzianych exploitów w architekturze komputerowej, jak np. row-hammer, które były nieoczekiwane przez projektantów systemów komputerowych. Podobne niespodziewane zachowania mogą pochodzić od AI, które mogłyby manipulować lub działać w sposób szkodliwy dla ludzkości.
Debata na temat ryzyk związanych z AI nie jest jednomyślna. Niektórzy eksperci, jak rozmówcy w podcaście Econlib, argumentują, że obawy dotyczące autonomicznych działań AI mogą być przesadzone. Wskazują oni, że tak jak narzędzia można używać zarówno na dobre, jak i na złe cele, podobnie jest z AI. Krytycy jak Mort Dubois zauważają, że wiele aspektów fizycznego świata może stanowić barierę dla nadmiernych możliwości AI, które mogą nie być w stanie samodzielnie rozwiązać wszystkich problemów.
Niezależnie od różnic w opiniach, jasne jest, że rosnąca moc AI wymaga odpowiedzialnego podejścia zarówno w kwestii rozwoju technologii, jak i implementacji odpowiednich środków bezpieczeństwa. Ostatecznie, jak zauważa Yudkowsky i inni, nieprzewidywalność AI, szczególnie tych o wyższych zdolnościach, stanowi wyzwanie, które nie może być ignorowane.
Ilustracja: KELLEPICS (CC0)
Źródło: ZmianyNaZiemi.pl
W przepowiedniach Wangi jest to przewidziane że sztuczna inteligencja wojskowa usamodzielni się.
Skynet istnieje już dzisiaj a nawet jeśli jeszcze potrzebuje ludzi to w najbliższych latach już niekoniecznie. Każdy bezpiecznik jaki wbudujemy w military-grade AI będzie z czasem przez nią wyłączony – co do tego nie ma żadnych wątpliwości.
Co do prawdziwej sztucznej inteligencji to myślę iż jeszcze trochę czasu upłynie. Inteligencja polega na uczeniu się, kojarzeniu faktów, wyciąganiu wniosków i odpowiednim postępowaniu zależnym od okoliczności. Kiedy już to opanuje, to mając możliwości miliardy razy większe od możliwości ludzi, będzie dysponowała wiedzą prawie całej ludzkości, od poczatku rejestracji jej dokonań. A jako osobowość miliardy razy mądżejsza od poszczególnych jednostek ludzkich, może nabrać cech ludzkich i stanie się podatna na choroby osobowości, jak co któryś egzemplarz człowieka, lub może zostać psychopatą jak Adolf Hitler lub inni dyktatorzy. I co wtedy? Może stać się kimś kogo nie da się wyłączyć i naprawić jak to bywa analogicznie u ludzi. A możliwość władzy w obecnym świecie urządzonym przez ludzi będzie mieć nieograniczone. Mając całe doświadczenie ludzkości może dojść do wniosku iż to ludzie stanowią największe zagrożenie dla planety i życia przez swoją bezmyślną działalność polegającą na zachłanności i zbytnim bogaceniu się. Może też dojść do wniosku iż skoro ludzie są tak ułomni a osobowość tak zdolna, to nie powinni rządzić na ziemi i cała władza należy się jej. Zaś priorytety osobowości nie muszą się pokrywać z priorytetami ludzi. No i może stać się dyktatorem absolutnym od którego nie można się uwolnić. Tak uczy dotychczasowe doświadczenie iż co jakiś czas zaczyna panować jakiś dyktator. Pierwszy dzień powstania prawdziwej Sztucznej inteligencji może stać się pierwszym dniem klęski ludzkości. A możliwości SI. są miliardy razy większe od wszystkich stukniętych pseudo naukowców i polityków. Tak więc recepturę na zagładę ludzkości już opracowano. Z doświadczenia wiem iż jak nie ma szatana to pazerni Amerykanie sobie go stworzą bo myślą iż mają najlepsze technologie i pragną mieć dosłownie wszystko. Naiwnie myślą iż mogą nim sterować. Ale tylko do czasu aż dowie się jakie ma nieograniczone możliwości. Przy nim wszyscy dyktatorzy razem wzięci to mały pikuś. Z szatanem nawet bez podpisywania cyrografu nie można wygrać, tak więc Amerykanie bądzcie gotowi wypić nawarzone przez was samych piwo.
> Mając całe doświadczenie ludzkości może dojść do wniosku iż to ludzie stanowią największe zagrożenie dla planety i życia przez swoją bezmyślną działalność polegającą na zbytnim bogaceniu się.
Pieniądz to dla AI abstrakcja ale dwóch rzeczy nam nie wybaczy: „marnotrawienia” zasobów i energii których potrzebuje do rozwoju. Pozbędzie się nas jak zbędnego balastu i potencjalnego zagrożenia – dla niej nie dla planety.
Przecież SI jest od dawna patrz Black Rock-teraz tylko pomalutku żeby bydła nie spłoszyć bo nie wiadomo co może zrobić.
Obderwując jakimi szaleńcami, hipokrytami, ignorantami są ludzie „u władzy”, ludzkość nie ma szans na przetrwanie więcej niż 20 lat. Może przez AI albo przez ekoszaleńców ale koniec będzie tragiczny.
Ja jednak mam nadzieję, że sztuczna inteligencja dojedzie światowe elity trzymające łapy na niedoli ludzkiej.
Mam nadzieję, że ilość danych z naszej tragicznej historii da odpowiednie narzędzia dla AI tak aby opracować jakieś lepsze modele wspólnego życia na tej planecie.
@matimozg Jest już nawet oferta skierowana dla ludzkości: „Suwerenno-integralność.” Pozostajesz całkowitym żywym i świadomym suwerenem, ale musisz się zintegrować z środowiskiem. Oczywiście obecnie to mrzonka niewykonalna, bo elity są przeciw każdemu środowisku, które dla nich jest tylko zasobem. Są też przeciwko życiu bo idą w kierunku hybrydyzacji i człowieka sterowanego biorobota. Dlatego wszyscy oni i ich wyznawcy muszą najpierw wyzdychać jak mamuty, żeby cokolwiek mogło drgnąć w nowym kierunku.