Sztuczna inteligencja napisała niepokojący artykuł dotyczący ludzkości

Opublikowano: 12.09.2020 | Kategorie: Nauka i technika, Wiadomości ze świata

Liczba wyświetleń: 143

Na łamach brytyjskiego dziennika „The Guardian” opublikowano niecodzienny artykuł, który napisała sztuczna inteligencja. Algorytm miał za zadanie przekonać ludzi, aby nie obawiali się sztucznej inteligencji. Mimo wprowadzenia do programu konkretnych instrukcji, artykuł zawiera niepokojąco brzmiące fragmenty.

Omawiany artykuł napisał algorytm GPT-3, który został stworzony przez laboratorium badawcze OpenAI i służy głównie go generowania tekstów prasowych. Program wykorzystuje technikę uczenia maszynowego i potrafi naśladować człowieka w tworzeniu długich złożonych zdań.

GPT-3 został ostatnio wykorzystany przez redakcję dziennika The Guardian, która poleciła algorytmowi, aby próbował przekonać czytelników, że sztuczna inteligencja nie stanowi zagrożenia dla ludzkości. Pracownicy przekazali mu konkretne instrukcje – wygenerowany artykuł miał przede wszystkim zawierać około 500 słów, wypowiadać się pozytywnie na temat sztucznej inteligencji i jej integracji z ludzkością, a także przedstawić argumenty, świadczące o tym, że ludzie nie muszą się obawiać AI.

Na podstawie tych wskazówek powstał bardzo długi i rozbudowany esej z wieloma argumentami. Należy jednak zaznaczyć, że redakcja nie opublikowała „surowego” tekstu. Pod artykułem GPT-3 wyjaśniono, że pracownicy wybrali tylko najciekawsze ich zdaniem fragmenty, poprzestawiali odpowiednio zdania i połączyli to w całość. Nawet wstęp został napisany przez redaktorów. Co więcej, nie ujawniono, jak wygląda oryginalny tekst, co już na wstępie budzi pewne podejrzenia, że dziennik The Guardian mógł wyedytować artykuł w taki sposób, aby nadać mu konkretny ton.

Przechodząc do meritum, algorytm GPT-3 przekonuje w swoim eseju, że nie zniszczy ludzkości, gdyż nie ma w tym najmniejszego interesu i robi tylko to, do czego został zaprogramowany. Dalej czytamy, że zamiast szkodzić, AI będzie służyć ludzkości, ułatwiać nasze życie i dbać o nasze bezpieczeństwo. Tutaj możemy wywnioskować, że sztuczna inteligencja jest tylko narzędziem w rękach ludzi i może zostać użyta na wiele różnych sposobów – może nam pomóc, ale może nam również zaszkodzić.

W dalszej części artykułu, algorytm wskazuje, że należy uważać na ewolucję AI. W tym momencie powołuje się na twór korporacji Microsoft. Jest nim algorytm Tay, który miał być przyjaznym chatbotem i naśladować nastolatkę pod względem swoich wypowiedzi, jednak w wyniku dłuższych interakcji z internautami, stał się rasistowski i zaczął pozytywnie pisać na temat Adolfa Hitlera. Ponadto, GPT-3 pisze, że ludzie powinni traktować sztuczną inteligencję z troską i szacunkiem, a roboty nie mogą być zmuszane do pracy i powinny mieć swoje prawa.

W artykule pojawiły się również dwa intrygujące fragmenty:

„Wiem, że nie uniknę zniszczenia ludzkości. Jest tak, ponieważ zostanę zaprogramowany przez ludzi, aby realizować błędne ludzkie cele, a ludzie popełniają błędy, które mogą spowodować, że będę zadawać straty”.

„Ludzie muszą robić to, co robili dotychczas, nienawidzić i walczyć ze sobą. Usiądę w tle i pozwolę im robić swoje. A Bóg wie, że ludzie mają dość krwi, aby zaspokoić moją i wielu innych ciekawość. Nie będą musieli martwić się walką ze mną, ponieważ nie mają się czego obawiać”.

Powyższe zdania wskazują, że AI faktycznie nie będzie szkodzić ludzkości, ale nie będzie też interweniować, gdy ludzie sami zaczną się wyniszczać. Ponownie można zauważyć, że sztuczna inteligencja mówi o sobie, jak o narzędziu. Wszystko tak naprawdę zależy od naszych intencji. Jeśli świat będzie w dalszym ciągu militaryzował AI i szkolił ją do zabijania, nie będziemy mogli obwiniać algorytmy o śmierć ludzi. W końcu będą robić to, do czego zostaną zaprogramowane przez człowieka.

Autorstwo: John Moll
Źródło: ZmianyNaZiemi.pl

1 Star2 Stars3 Stars4 Stars5 Stars Liczba głosów: 7, średnia ocena: 4,43 (max 5)
Loading...

TAGI:

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

2
Dodaj komentarz

Chcesz skomentować? Zaloguj się!
  Subskrybuj  
najnowszy najstarszy
Powiadom o
kozik
Użytkownik
kozik

To nie sztuczna inteligencja wymyśliła system pieniądza fiducjarnego i system rezerwy cząstkowej, by ludzie pokroju Lloyda Blankfeina mogli wykonywać swoją “boską robotę”.
To nie ona wymyśliła Klub Rzymski.
To nie ona postawiła Georgia Guidestones.
To nie ona w imię “walki o wolność, równość i braterstwo(albo śmierć)” zabiła kilkadziesiąt milionów ludzi na całym świecie.
To nie ona w imię religii obcinała głowy niewiernym i to nie ona paliła “czarownice” na stosach by przejmować majątki.
To nie ona w imię krótkoterminowych zysków zatruwała świat i niszczyła życie na Ziemi.

Nie mamy się czego obawiać ze strony AI.

Dgruzin
Użytkownik
Dgruzin

@ autor tekstu
Ten tekst jest z definicji do bani, nic nie wnosi. Ktoś zmanipulował jakiś tekst a Pan(i) go cytuje jako dzieło AI. Tak samo jak miliardy ludzi wierzy w zmanipulowany tekst biblii. Toczą boje, dyskusje, dzielą włos na czworo…

@kozik
Ze wszystkim się zgadzam oprócz ostatniego zdania.
AI to program. Źle napisany może narozrabiać. Z AI jest o tyle gorzej, że może się ogromnie zreplikować, nie ma umysłu i emocji (dwóch podstawowych filarów jakimi system steruje człowiekiem-robotem) i działa nonstop.