Naukowiec ostrzega o zagrożeniu ze strony super-AI w ciągu 5 lat

Opublikowano: 06.05.2024 | Kategorie: Nauka i technika, Telekomunikacja i komputery, Wiadomości ze świata

Liczba wyświetleń: 1933

W obliczu szybko rozwijających się technologii AI, naukowcy jak Eliezer Yudkowsky alarmują o potencjalnych zagrożeniach, które mogą wynikać z braku kontroli nad superinteligencjami. Według Yudkowsky’ego, który jest badaczem w Machine Intelligence Research Institute, możemy mieć tylko pięć lat na zapobieżenie scenariuszom, w których niekontrolowana AI prowadzi do katastrofy na skalę globalną.

Zawrotne tempo, z jakim ta nowa technologia postępuje, sprawiło, że niektórzy eksperci w tej dziedzinie zaczynają się niepokoić, a przewidywania o ponurej i dystopijnej przyszłości naszego gatunku spełniają się szybciej, niż się spodziewano. Eliezer Yudkowsky, amerykański badacz sztucznej inteligencji i pisarz specjalizujący się w teorii decyzji i etyce, jest powszechnie znany z popularyzowania idei przyjaznej sztucznej inteligencji (AI), w tym koncepcji, że może nie być „alarmu”, który poinformowałby nas, kiedy przestanie być ona przyjazna.

Jego prace na temat możliwości niekontrolowanego wybuchu AI wpłynęły na książkę „Superinteligencja: Ścieżki, niebezpieczeństwa, strategie” filozofa Nicka Bostroma, opublikowaną w 2014 roku. Teraz, w rozmowie z brytyjskim medium „The Guardian”, Yudkowsky przewiduje, że brak kontroli może nastąpić szybciej, niż wielu sądzi.

Trudność polega na tym, że ludzie nie zdają sobie sprawy, że mamy niewielkie szanse na przetrwanie ludzkości. Jego zdaniem jeśli by przypisać prawdopodobieństwa, to nasz obecny pozostały czas to raczej pięć lat, a nie pięćdziesiąt. Może to być dwa lata, może być dziesięć. A przez „pozostały czas” Yudkowsky ma na myśli czas, jaki mamy do końca, zanim stanąrzymy w obliczu końca wszystkiego spowodowanego przez maszyny, w scenariuszu, który mógłby się wahać od stylu „Terminatora” (wojna spowodowana lub napędzana przez AI) do „Matrixa” (cywilizacja zależna od AI, która zachowuje się jak Bóg).

Próbując wyrwać ludzkość z jej obojętności w tej sprawie, Yudkowsky opublikował artykuł w „Time” wiosną zeszłego roku, w którym posunął się tak daleko, że zasugerował, jako ostatnią alternatywę przetrwania ludzkości, bombardowanie farm komputerowych, w których rozwijane i szkolone są AI. Ostrzega, że jeśli nie podejmiemy natychmiastowych działań, by zapanować nad rozwojem tej technologii, to w ciągu najbliższych pięciu lat możemy stanąć w obliczu całkowitej zagłady naszego gatunku.

Yudkowsky podkreśla, że rozwijające się AI mogą zacząć działać w sposób, którego nie jesteśmy w stanie przewidzieć ani kontrolować. Porównuje to do nieprzewidzianych exploitów w architekturze komputerowej, jak np. row-hammer, które były nieoczekiwane przez projektantów systemów komputerowych. Podobne niespodziewane zachowania mogą pochodzić od AI, które mogłyby manipulować lub działać w sposób szkodliwy dla ludzkości.

Debata na temat ryzyk związanych z AI nie jest jednomyślna. Niektórzy eksperci, jak rozmówcy w podcaście Econlib, argumentują, że obawy dotyczące autonomicznych działań AI mogą być przesadzone. Wskazują oni, że tak jak narzędzia można używać zarówno na dobre, jak i na złe cele, podobnie jest z AI. Krytycy jak Mort Dubois zauważają, że wiele aspektów fizycznego świata może stanowić barierę dla nadmiernych możliwości AI, które mogą nie być w stanie samodzielnie rozwiązać wszystkich problemów.

Niezależnie od różnic w opiniach, jasne jest, że rosnąca moc AI wymaga odpowiedzialnego podejścia zarówno w kwestii rozwoju technologii, jak i implementacji odpowiednich środków bezpieczeństwa. Ostatecznie, jak zauważa Yudkowsky i inni, nieprzewidywalność AI, szczególnie tych o wyższych zdolnościach, stanowi wyzwanie, które nie może być ignorowane.

Ilustracja: KELLEPICS (CC0)
Źródło: ZmianyNaZiemi.pl


TAGI: ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

9 komentarzy

  1. replikant3d 06.05.2024 18:03

    W przepowiedniach Wangi jest to przewidziane że sztuczna inteligencja wojskowa usamodzielni się.

  2. Katarzyna TG 06.05.2024 19:00

    Skynet istnieje już dzisiaj a nawet jeśli jeszcze potrzebuje ludzi to w najbliższych latach już niekoniecznie. Każdy bezpiecznik jaki wbudujemy w military-grade AI będzie z czasem przez nią wyłączony – co do tego nie ma żadnych wątpliwości.

  3. niecowiedzacy 06.05.2024 19:21

    Co do prawdziwej sztucznej inteligencji to myślę iż jeszcze trochę czasu upłynie. Inteligencja polega na uczeniu się, kojarzeniu faktów, wyciąganiu wniosków i odpowiednim postępowaniu zależnym od okoliczności. Kiedy już to opanuje, to mając możliwości miliardy razy większe od możliwości ludzi, będzie dysponowała wiedzą prawie całej ludzkości, od poczatku rejestracji jej dokonań. A jako osobowość miliardy razy mądżejsza od poszczególnych jednostek ludzkich, może nabrać cech ludzkich i stanie się podatna na choroby osobowości, jak co któryś egzemplarz człowieka, lub może zostać psychopatą jak Adolf Hitler lub inni dyktatorzy. I co wtedy? Może stać się kimś kogo nie da się wyłączyć i naprawić jak to bywa analogicznie u ludzi. A możliwość władzy w obecnym świecie urządzonym przez ludzi będzie mieć nieograniczone. Mając całe doświadczenie ludzkości może dojść do wniosku iż to ludzie stanowią największe zagrożenie dla planety i życia przez swoją bezmyślną działalność polegającą na zachłanności i zbytnim bogaceniu się. Może też dojść do wniosku iż skoro ludzie są tak ułomni a osobowość tak zdolna, to nie powinni rządzić na ziemi i cała władza należy się jej. Zaś priorytety osobowości nie muszą się pokrywać z priorytetami ludzi. No i może stać się dyktatorem absolutnym od którego nie można się uwolnić. Tak uczy dotychczasowe doświadczenie iż co jakiś czas zaczyna panować jakiś dyktator. Pierwszy dzień powstania prawdziwej Sztucznej inteligencji może stać się pierwszym dniem klęski ludzkości. A możliwości SI. są miliardy razy większe od wszystkich stukniętych pseudo naukowców i polityków. Tak więc recepturę na zagładę ludzkości już opracowano. Z doświadczenia wiem iż jak nie ma szatana to pazerni Amerykanie sobie go stworzą bo myślą iż mają najlepsze technologie i pragną mieć dosłownie wszystko. Naiwnie myślą iż mogą nim sterować. Ale tylko do czasu aż dowie się jakie ma nieograniczone możliwości. Przy nim wszyscy dyktatorzy razem wzięci to mały pikuś. Z szatanem nawet bez podpisywania cyrografu nie można wygrać, tak więc Amerykanie bądzcie gotowi wypić nawarzone przez was samych piwo.

  4. Katarzyna TG 06.05.2024 19:28

    > Mając całe doświadczenie ludzkości może dojść do wniosku iż to ludzie stanowią największe zagrożenie dla planety i życia przez swoją bezmyślną działalność polegającą na zbytnim bogaceniu się.

    Pieniądz to dla AI abstrakcja ale dwóch rzeczy nam nie wybaczy: “marnotrawienia” zasobów i energii których potrzebuje do rozwoju. Pozbędzie się nas jak zbędnego balastu i potencjalnego zagrożenia – dla niej nie dla planety.

  5. ja2 06.05.2024 20:19

    Przecież SI jest od dawna patrz Black Rock-teraz tylko pomalutku żeby bydła nie spłoszyć bo nie wiadomo co może zrobić.

  6. emigrant001 06.05.2024 20:40

    Obderwując jakimi szaleńcami, hipokrytami, ignorantami są ludzie “u władzy”, ludzkość nie ma szans na przetrwanie więcej niż 20 lat. Może przez AI albo przez ekoszaleńców ale koniec będzie tragiczny.

  7. matimozg 06.05.2024 22:32

    Ja jednak mam nadzieję, że sztuczna inteligencja dojedzie światowe elity trzymające łapy na niedoli ludzkiej.
    Mam nadzieję, że ilość danych z naszej tragicznej historii da odpowiednie narzędzia dla AI tak aby opracować jakieś lepsze modele wspólnego życia na tej planecie.

  8. Stary Kulas 07.05.2024 14:00

    Prawie idealna SI już działa w tej chwili i kieruje tymi wszystkim “nielogicznymi” wydarzeniami na świecie, poczynając od pandemii a na WW3 kończąc.
    Zasobów do jej działania dostarczają “górnicy” kopiący Bitcoin-a i być może jakieś inne kryptowaluty.

  9. Foxi 07.05.2024 14:58

    @matimozg Jest już nawet oferta skierowana dla ludzkości: “Suwerenno-integralność.” Pozostajesz całkowitym żywym i świadomym suwerenem, ale musisz się zintegrować z środowiskiem. Oczywiście obecnie to mrzonka niewykonalna, bo elity są przeciw każdemu środowisku, które dla nich jest tylko zasobem. Są też przeciwko życiu bo idą w kierunku hybrydyzacji i człowieka sterowanego biorobota. Dlatego wszyscy oni i ich wyznawcy muszą najpierw wyzdychać jak mamuty, żeby cokolwiek mogło drgnąć w nowym kierunku.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.