Liczba wyświetleń: 3131
Miliarder Elon Musk i wielu wtórujących mu ekspertów wezwało do wstrzymania rozwoju potężnych systemów sztucznej inteligencji (AI), aby dać czas na upewnienie się, że są one bezpieczne. List otwarty, podpisany przez ponad 1000 osób, w tym Muska i współzałożyciela Apple, Steve’a Wozniaka, został poproszony o wstrzymanie rozwoju chatbota GPT-4 przez wspieraną przez Microsoft firmę OpenAI. Firma twierdzi, że jej najnowszy model jest znacznie potężniejszy niż poprzednia wersja, która była używana do uruchamiania ChatGPT, bota zdolnego do generowania tekstów, książek oprogramowania i wielu innych rzeczy.
Globalne implikacje eksplozji sztucznej inteligencji dla większości z nas są jeszcze całkowitą abstrakcją. Trzeba jednak uzmysłowić sobie, że AI zmieni świat n awet bardziej niż zmienił go Internet.
Zdaniem sygnatariuszy listu otwartego zatytułowanego „Zawiesić eksperymenty AI na dużą skalę”, „systemy sztucznej inteligencji z inteligencją podobną do ludzkiej mogą stanowić poważne zagrożenie dla społeczeństwa i ludzkości”. „Potężne systemy sztucznej inteligencji powinny być opracowywane dopiero po upewnieniu się, że ich wpływ będzie pozytywny, a ryzyka możliwe do opanowania”. Problem w tym, że niektórych ryzyk nie umiemy sobie nawet wyobrazić.
Musk był pierwotnie inwestorem w OpenAI, spędził nawet kilka lat w radzie dyrektorów organizacji, ale wycofał się gdy jego firma motoryzacyjna Tesla zaczęła opracowywać własne systemy sztucznej inteligencji, aby między innymi zasilać technologię autonomicznej jazdy. Odejście motywował konfliktem interesów.
List, opublikowany przez finansowany przez Muska „Future of Life Institute”, został podpisany przez wybitnych krytyków, a także konkurentów OpenAI, takich jak szef Stability AI, Emad Mostak. Kanadyjski pionier sztucznej inteligencji, Yoshua Bengio, który również podpisał list, ostrzegł na wirtualnej konferencji prasowej w Montrealu, że „społeczeństwo nie jest gotowe” na to potężne narzędzie i możliwe nadużycia.
„Zwolnijmy. Upewnijmy się, że stworzymy mocniejsze ogrodzenia” – powiedział, wzywając do gruntownej międzynarodowej dyskusji na temat sztucznej inteligencji i jej implikacji – „tak jak zrobiliśmy to w przypadku energii jądrowej i broni jądrowej”.
List cytuje post na blogu założyciela OpenAI, Sama Altmana, który zasugerował, że „w pewnym momencie może być ważne uzyskanie niezależnej recenzji przed przejściem do szkolenia zaawansowanych systemów”. „Zgadzamy się. Nadeszła ta chwila” – piszą autorzy listu otwartego. „Dlatego wzywamy wszystkie laboratoria AI do natychmiastowego zawieszenia szkoleń w zakresie systemów AI potężniejszych niż GPT-4 na co najmniej 6 miesięcy”.
Wezwali też rządy do interwencji i nałożenia moratorium, jeśli firmy nie osiągną porozumienia. Te sześć miesięcy należy wykorzystać na opracowanie protokołów bezpieczeństwa, systemów kontroli sztucznej inteligencji i ponowne ukierunkowanie badań na uczynienie systemów sztucznej inteligencji bezpieczniejszymi, dokładniejszymi, „niezawodnymi i lojalnymi”.
List nie zawierał szczegółowego opisu zagrożeń zidentyfikowanych poprzez pojawienie się GPT-4, ale badacze, w tym Gary Marcus z New York University, który podpisał list, od dawna twierdzą, że chatboty są doskonałymi kłamcami i mogą stać się robo-trollami rozpowszechniającymi dezinformację.
Źródło: ZmianyNaZiemi.pl
No bo gdyby tak w pewnym momencie AI uznała że największymi pasożytami jest kilkaset najbogatszych ludzi. Rewolucja nigdy nie kończy się tak jak była planowana.
Mocna konkurencja to już potrzebują czasu.
Pamiętam jak się rozpoczęły kickstartery. To w pewnym momencie czytałem, że nakładali ograniczenia finansowania, żeby przypadkiem jakaś opcja na tego typu stronie nie miała za dużego budżetu na początek.
Firmy i rządy mają głęboko w d…..pie te ostrzeżenia. Po kryjomu dalej będą to robić. Zwłaszcza armie. Według przepowiedni to własnie wojskowa SI wywoła wojnę.,,Terminator,, coraz bliżej…