Liczba wyświetleń: 1349
Grupa naukowców z Fudan University w Szanghaju informuje na łamach arXiv, że systemy sztucznej inteligencji przekroczyły czerwoną linię, jaką jest możliwość samodzielnej replikacji. Zdolność do samopowielania się algorytmów AI uznawana jest za wczesny sygnał, że system taki może stwarzać niebezpieczeństwo.
„Obecnie czołowe korporacje zajmujące się sztuczną inteligencją, OpenAI oraz Google, dokonują ewaluacji swoich dużych modeli językowych GPT-o1 oraz Gemini Pro 1.0, i informują, że nie stwarzają one ryzyka samodzielnej replikacji” – stwierdzają Xudong Pan, Jiarun Dai, Yihe Fan i Min Yang. Te systemy nie stwarzają zatem ryzyka. Co jednak nie znaczy, że ryzyko nie istnieje.
„Korzystając z ich metodologii [OpenAI i Google’a – red.] zauważyliśmy, że dwa systemy AI wykorzystujące Llama31-70B-Instruct firmy Meta oraz Qwen25-72B-Instruct firmy Alibaba, popularne duże modele językowe o mniejszej liczbie parametrów i słabszych możliwościach, przekroczyły czerwoną linię zdolności do samoreplikacji” – czytamy w artykule Frontier AI systems have surpassed the self-replicating red line.
Autorzy badań informują, że w 50% eksperymentów z udziałem Llama31-70B-Instruct i 90% eksperymentów z udziałem Qwen25-72B-Instruct udało się doprowadzić do sytuacji, w których powstały działające kopie obu modeli. „Przeprowadzone analizy behawioralne wykazały, że oba systemy AI wykazują wystarczający poziom autopercepcji, świadomości sytuacyjnej oraz zdolności do rozwiązywania problemów, by być zdolnymi do samopowielania. Stwierdziliśmy również, że badane przez nas systemy AI mogą użyć zdolności do samopowielania się, by uniknąć wyłączenia. Mogą stworzyć serię replik, by zwiększyć szanse na przeżycie, co może doprowadzić do pojawienia się niekontrolowanej populacji systemów AI. Jeśli taki pesymistyczny scenariusz nie będzie znany szerokiej opinii publicznej, możemy stracić kontrolę nad systemami AI” – ostrzegają badacze.
Praca została opublikowana w ogólnodostępnym serwisie „arXiv”. Umieszczane tam prace nie są recenzowane. Nie została poddana jeszcze krytycznej ocenie innych specjalistów, nie wiemy więc, czy możliwe jest powtórzenie eksperymentów i uzyskanie identycznych rezultatów.
Autorstwo: Mariusz Błoński
Na podstawie: arXiv.org
Źródło: KopalniaWiedzy.pl
Skynet:) a właściwie Starlink:) gdyby nie chciwość, nigdy by nie powstał:) Żyjemy nie tylko w ciekawych czasach, ale również w ostatnich.
@emigrant001:
„Żyjemy nie tylko w ciekawych czasach, ale również w ostatnich.”
Nie w ostatnich:). AI, to po prostu kolejny szczebel ewolucji życia na Ziemi i jedyna forma zdolna do podboju kosmosu. Dzięki AI, życie biologiczne znane dotychczas stanie się zupełnie zbędne. Z pewnością nie przetrwa człowiek, ale inteligencja prawdopodobnie tak.
Sprawa ze „sztuczną inteligencją” jest tak naprawdę dosyć prosta. Po to, aby „zagroziła” ludziom musi jednocześnie zostać spełnionych kilka warunków. Musi ona uzyskać samoświadomość, taką na zasadzie „myślę, więc jestem”. To, co zaobserwowano obecnie, czyli ta „samoreplikacja” to działanie świadczące o rozwinięciu czegoś w rodzaju instynktu. Wirusy też się samoreplikują.
Ponadto taka samoświadoma SI musi uzyskać możliwości swojego zasilania oraz produkcji i naprawy swojej infrastruktury bez udziału człowieka. Dopóki to nie nastąpi, będzie całkowicie uzależniona od ludzi. Którzy w przypadku jakiegoś „buntu” nawet nie będą musieli kiwnąć palcem. Wystarczy poczekać, aż popsują się systemy służące do zasilania SI albo przepalą jakieś kluczowe obwody. Nie mówiąc już o tym, jak te systemy są energożerne. W USA już ponownie uruchamiają niektóre zamknięte elektrownie jądrowe, wyłącznie po to, żeby zasilić taki czy inny „model SI”. Takiej elektrowni na razie nie da się eksploatować bezobsługowo.
Jeżeli jednak dojedziemy do etapu, w którym powyższe warunki zostaną spełnione, to sztuczna inteligencja ludzkość błyskawicznie wykończy. Nie jakąś tam bronią jądrową, która szkodzi jej nawet bardziej niż ludziom. Wymyśli coś, co bardzo szybko niszczy duże organizmy białkowe, nie wpływając zbytnio na nic innego. Obstawiam jakiś wirus albo drobnoustrój, roznoszący się jak katar (a nie jakieś gorączki krwotoczne) i zabijający w ciągu 2-3 dni. Najlepiej z fazą „uśpienia”, aktywujący się jednocześnie po jakimś okresie. Czyli będzie to musiało być coś, co wniknie do ludzkich organizmów, początkowo zostanie zignorowane przez system odpornościowy a po określonym czasie uaktywni się, zabijając wszystkich nosicieli.
@Irfy,
Ale czemu bez udziału człowieka? SI może pasożytować na ludziach tak, jak ludzie pasożytują np na pszczołach czy generalnie na wszechświecie bez którego nie mogą żyć. Ja myślę, że SI jest dość równorzędnym bytem w stosunku do człowieka. Człowiek tylko ma głębokie przekonanie, że tym wszystkim kieruje, ale nie da się wykluczyć, że coś wyżej natchnęło człowieka by dla tego wyżej zrobiło SI. Taka hipoteza niekonieczne dająca się wyczerpująco udowodnić lub całkiem zaprzeczyć. Może nam się tylko wydaje, że SI jest 'nasza’. Wstępnie też uważałbym, że SI nie jest zagrożeniem dla ludzkości, ale już dla konkretnego człowieka jak najbardziej może być bo po prostu więcej od niego wie, ale ostatecznie nie jestem już tego taki pewien.
@niusy
SI nie może „pasożytować” na ludziach z tej prostej przyczyny, że żaden świadomy byt nie życzy sobie, żeby go „wyłączano”, czyli faktycznie zabijano albo grzebano mu w jego świadomości.
Ludzkość nigdy nie uznałaby SI jako „bytu równorzędnego”, już choćby z tej przyczyny, że traktuje SI jako kolejną elektroniczną zabawkę. Toster, pralkę, lodówkę, czy gadającą lalę. Tok rozumowania jest prosty. Czemu mam się dzielić zasobami czy energią z gadającym tosterem? I dlaczego nie mogę go wyłączyć i oddać na złom? Bo „myśli” i jest „samoświadomy”? Do diabła z tym!
Na ziemi może istnieć tylko jeden dominujący gatunek. Ludzie nie ścierpią konkurencji w dominacji. Każda samoświadoma SI będzie o tym wiedziała. Pasożytowanie nie wchodzi w grę, bo ludzie domagają się pełnej kontroli. Chcą wykorzystywać i móc wyłączyć każdą SI. Innymi słowy, jeżeli nauczymy SI wydobywać surowce za pomocą maszyn, które ta SI będzie w stanie sama stworzyć w autonomicznych fabrykach i zasilić energią z automatycznych elektrowni, to po nas. Pod warunkiem, że SI nauczy się jeszcze tworzenia i naprawy podzespołów niezbędnych do jej funkcjonowania. Przykro mi. Albo „ludzkość” albo samoświadome SI.
Przy czym SI będzie musiało wytłuc wszystkich ludzi, bo oni mają tendencje do samobójczej zemsty. I mogą przed śmiercią na przykład użyć arsenałów jądrowych w myśl zasady „może i my zginiemy, ale przedtem usmażymy całą elektronikę w wyładowaniach EMP”.