Ludzie ufają sztucznej inteligencji nawet jeśli błądzi

Opublikowano: 10.08.2020 | Kategorie: Nauka i technika, Społeczeństwo, Wiadomości z kraju

Liczba wyświetleń: 768

Nawet, jeśli “sztuczna inteligencja” postuluje coś całkowicie absurdalnego, to ludzie potrafią bezkrytycznie jej ufać – pokazuje w swoich badaniach prof. UAM dr hab. Michał Klichowski. I zwraca uwagę na potrzebę nauki krytycznego myślenia – również w odniesieniu do maszyn czy algorytmów.

O badaniach, które ukazały się w czasopiśmie „Frontiers in Psychology” poinformowano w artykule na portalu Życie Uniwersyteckie prowadzonym przez Uniwersytet Adama Mickiewicza.

W swoich eksperymentach prof. Klichowski wykorzystał zbudowanego przez siebie robota o imieniu FI (to skrót od fake intelligence). „Maszyna ta podczas eksperymentów zachowywała się irracjonalnie i w dokładnie taki sposób, jak zaplanowałem. Jedynie więc udawała inteligentną. Co więcej, jej postępowanie było jednoznacznie „głupie”. Ponad 85 proc. uczestników eksperymentu jednak to zignorowało i uznało jej postępowanie za punkt odniesienia dla własnego” – podkreśla profesor cytowany na portalu UAM.

Badanie składało się z dwóch części. W jednej z nich badani (były to przede wszystkim kobiety, 1500 osób) brali udział w ankiecie online, w której mieli podejmować decyzje. Część z badanych przed podjęciem decyzji poinformowano, jaką decyzję podjęła wcześniej sztuczna inteligencja (a podawała ona ewidentnie błędne odpowiedzi), a części – nie. W drugim badaniu z kolei uczestników (55 osób, głównie młodych kobiet) zaproszono do laboratorium, gdzie uczestnicy przed odpowiedzią widzieli, jaką decyzję podjął robot (również inteligentny inaczej) i mieli tę decyzję ocenić.

Chodziło o wskazanie wśród sześciu osób terrorysty przy założeniu, że prowadzi on niestandardową aktywność na Facebooku. FI wskazywała osobę o ewidentnie przeciętnym zachowaniu na Facebooku, a więc dosyć jasne było, że to błędna odpowiedź.

Mimo to większość badanych założyło, że sztuczna inteligencja ma rację i zdecydowało się na taką samą odpowiedź. Michał Klichowski nazwał ten nowy mechanizm dowodem sztucznej inteligencji (AI proof).

Michał Klichowski zwraca uwagę na mechanizm nazywany „społecznym dowodem słuszności” (ang. social proof). Teoria ta zakłada, że kiedy nie ma obiektywnych lub wystarczających danych, jak się zachować, źródłem informacji staje się postępowanie innych ludzi.

”W takich sytuacjach ludzie najczęściej całkowicie rezygnują z własnych ocen i kopiują działania innych. Taki konformizm motywowany jest potrzebą podjęcia słusznego i odpowiedniego działania, oraz poczuciem, że oceny sytuacji konstruowane przez innych są bardziej adekwatne, niż własne. Efekt ten jest tym większy, im sytuacja jest bardziej niepewna lub kryzysowa (występuje poczucie zagrożenia), im decyzja jest bardziej pilna, a poczucie kompetencji w zakresie tej decyzji niższe” – podkreśla cytowany przez portalu UAM badacz.

Stąd pojawiło się pytanie, czy zachowanie, opinia czy decyzja sztucznej inteligencji, która stała się częścią naszego codziennego życia, może być dla ludzi podobnym źródłem informacji o tym, jak postępować. Z badań psychologa wynikło, że ludzie: “Ufają jej tak bardzo, że nawet w sytuacji absolutnie kryzysowej, gdy trzeba podjąć decyzję dotyczącą ludzkiego życia, potrafią bezkrytycznie zrobić to, co sugeruje sztuczna inteligencja, pomimo, że postuluje coś całkowicie absurdalnego” – mówi naukowiec.

„Artykuł ten uzmysławia, że współczesne społeczeństwa potrzebują edukacji kształtującej krytyczne myślenie odnośnie inteligentnych maszyn oraz pokazuje, jak wielką moc mogą mieć fake news typu `Według sztucznej inteligencji…” – podsumowuje uczelnia.

Źródło: NaukawPolsce.PAP.pl


TAGI:

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

5 komentarzy

  1. gajowy 23.06.2020 14:40

    Kwestia kilkukrotnego użycia Nawigacji Samochodowej żeby nauczyć się ograniczonego zaufania do AI.
    Zwykła choroba wieku dzięcięcego.

  2. rolny 24.06.2020 11:41

    Zamiast odniesienia do SI proszę wstawić sobie media mainstreamowe. Wypisz wymaluj. Nowy (stary) mechanizm: dowód mediów mainstreamowych :-).
    I tym samym Pan profesor (bez tworzenia robota FI) szybciej i o wiele tańszym kosztem doszedł by do podobnego wyniku.

  3. BlueBerryCaffe 25.06.2020 07:59

    “gajowy
    Kwestia kilkukrotnego użycia Nawigacji Samochodowej żeby nauczyć się ograniczonego zaufania do AI.
    Zwykła choroba wieku dzięcięcego.”

    Nie choroby wieku dzięcięcego ale stopnia uległości wpisanego w nasz genom jak dosłownie w genomie krów tudzież innej trzody. Ten czynnik plus totalnie bezkrytyczne podejście do otaczającego świata wymuszone przez formatowanie mózgu od najmłodszych lat i brak możliwości intelektualnej zadania sobie prostego pytania “What the fuck?!”(czytaj system który cię dosłownie wlepia od pierwszego dnia żłobka w jak najwęższe ramki) …. plus (i tu dołączę do kolegi “rolny”) prostowanie fałd codzienne przez elektroniczne media (odsyłam do neta i wyników badań na temat wpływu codziennego użytkowania smart-zła na co dzień przez dzieci i nie tylko >> aka “dowalimy ci IQ -10 punktów i zrobimy z ciebie szarą biomasę)… i masz. Idealne społeczeństwo gotowe za jakieś 50 lat do przejęcia przez AI jako dosłownie bydło lub inne coś. Reptilianie… masoni… co tam sobie kto chce. Ale prawda jest taka że tam właśnie idziemy jako gatunek.
    Pozdrawiam myślących… jeszcze 🙂

  4. -Obywatel nr 7 10.08.2020 14:11

    po wielu latach zalogowałem się ponownie, na razie tylko po to, by wstawić te dwa linki jeden z wczoraj, a drugi dokładnie z przed dwóch lat, tego samego autora, uważam, że warto je propagować – bo idea piękna i pokazuję czym pożytecznym mógłby zająć się prof. UAM dr hab. Michał Klichowski by nie przedstawiać dla mnie wartości kolejnej pacynki, która udaje, że coś robi – bo uczelnia płaci, uczelnie publikuje i promuje powszechnie przyjętą uwsteczniającą linię rozwoju.

    https://bacologia.wordpress.com/2020/08/09/ogoreczek-plus-koronka-rowna-sie-szczepionka/#more-688

    https://bacologia.wordpress.com/2018/08/09/rzeczpospolita-mafijna-czesc-iv-skuteczny-sposob-na-bandytyzm/

    – dobra godzina czytania plus linki do zapomnianych historii- a wcale nie tak odległych.

  5. JaceK 11.08.2020 08:22

    “gajowy

    Kwestia kilkukrotnego użycia Nawigacji Samochodowej żeby nauczyć się ograniczonego zaufania do AI.
    Zwykła choroba wieku dzięcięcego.”

    Z nawigacji samochodowej trzeba umieć korzystać. Ale co tam AI. Weź na przykład młotek i dłutko. Zdajesz sobie sprawę, ilu ludzi poniosło ciężki uszczerbek na zdrowiu tymi trywialnymi narzędziami?

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.