Liczba wyświetleń: 870
Nawet, jeśli „sztuczna inteligencja” postuluje coś całkowicie absurdalnego, to ludzie potrafią bezkrytycznie jej ufać – pokazuje w swoich badaniach prof. UAM dr hab. Michał Klichowski. I zwraca uwagę na potrzebę nauki krytycznego myślenia – również w odniesieniu do maszyn czy algorytmów.
O badaniach, które ukazały się w czasopiśmie „Frontiers in Psychology” poinformowano w artykule na portalu Życie Uniwersyteckie prowadzonym przez Uniwersytet Adama Mickiewicza.
W swoich eksperymentach prof. Klichowski wykorzystał zbudowanego przez siebie robota o imieniu FI (to skrót od fake intelligence). „Maszyna ta podczas eksperymentów zachowywała się irracjonalnie i w dokładnie taki sposób, jak zaplanowałem. Jedynie więc udawała inteligentną. Co więcej, jej postępowanie było jednoznacznie „głupie”. Ponad 85 proc. uczestników eksperymentu jednak to zignorowało i uznało jej postępowanie za punkt odniesienia dla własnego” – podkreśla profesor cytowany na portalu UAM.
Badanie składało się z dwóch części. W jednej z nich badani (były to przede wszystkim kobiety, 1500 osób) brali udział w ankiecie online, w której mieli podejmować decyzje. Część z badanych przed podjęciem decyzji poinformowano, jaką decyzję podjęła wcześniej sztuczna inteligencja (a podawała ona ewidentnie błędne odpowiedzi), a części – nie. W drugim badaniu z kolei uczestników (55 osób, głównie młodych kobiet) zaproszono do laboratorium, gdzie uczestnicy przed odpowiedzią widzieli, jaką decyzję podjął robot (również inteligentny inaczej) i mieli tę decyzję ocenić.
Chodziło o wskazanie wśród sześciu osób terrorysty przy założeniu, że prowadzi on niestandardową aktywność na Facebooku. FI wskazywała osobę o ewidentnie przeciętnym zachowaniu na Facebooku, a więc dosyć jasne było, że to błędna odpowiedź.
Mimo to większość badanych założyło, że sztuczna inteligencja ma rację i zdecydowało się na taką samą odpowiedź. Michał Klichowski nazwał ten nowy mechanizm dowodem sztucznej inteligencji (AI proof).
Michał Klichowski zwraca uwagę na mechanizm nazywany „społecznym dowodem słuszności” (ang. social proof). Teoria ta zakłada, że kiedy nie ma obiektywnych lub wystarczających danych, jak się zachować, źródłem informacji staje się postępowanie innych ludzi.
”W takich sytuacjach ludzie najczęściej całkowicie rezygnują z własnych ocen i kopiują działania innych. Taki konformizm motywowany jest potrzebą podjęcia słusznego i odpowiedniego działania, oraz poczuciem, że oceny sytuacji konstruowane przez innych są bardziej adekwatne, niż własne. Efekt ten jest tym większy, im sytuacja jest bardziej niepewna lub kryzysowa (występuje poczucie zagrożenia), im decyzja jest bardziej pilna, a poczucie kompetencji w zakresie tej decyzji niższe” – podkreśla cytowany przez portalu UAM badacz.
Stąd pojawiło się pytanie, czy zachowanie, opinia czy decyzja sztucznej inteligencji, która stała się częścią naszego codziennego życia, może być dla ludzi podobnym źródłem informacji o tym, jak postępować. Z badań psychologa wynikło, że ludzie: „Ufają jej tak bardzo, że nawet w sytuacji absolutnie kryzysowej, gdy trzeba podjąć decyzję dotyczącą ludzkiego życia, potrafią bezkrytycznie zrobić to, co sugeruje sztuczna inteligencja, pomimo, że postuluje coś całkowicie absurdalnego” – mówi naukowiec.
„Artykuł ten uzmysławia, że współczesne społeczeństwa potrzebują edukacji kształtującej krytyczne myślenie odnośnie inteligentnych maszyn oraz pokazuje, jak wielką moc mogą mieć fake news typu `Według sztucznej inteligencji…” – podsumowuje uczelnia.
Źródło: NaukawPolsce.PAP.pl
Kwestia kilkukrotnego użycia Nawigacji Samochodowej żeby nauczyć się ograniczonego zaufania do AI.
Zwykła choroba wieku dzięcięcego.
Zamiast odniesienia do SI proszę wstawić sobie media mainstreamowe. Wypisz wymaluj. Nowy (stary) mechanizm: dowód mediów mainstreamowych :-).
I tym samym Pan profesor (bez tworzenia robota FI) szybciej i o wiele tańszym kosztem doszedł by do podobnego wyniku.
„gajowy
Kwestia kilkukrotnego użycia Nawigacji Samochodowej żeby nauczyć się ograniczonego zaufania do AI.
Zwykła choroba wieku dzięcięcego.”
Nie choroby wieku dzięcięcego ale stopnia uległości wpisanego w nasz genom jak dosłownie w genomie krów tudzież innej trzody. Ten czynnik plus totalnie bezkrytyczne podejście do otaczającego świata wymuszone przez formatowanie mózgu od najmłodszych lat i brak możliwości intelektualnej zadania sobie prostego pytania „What the fuck?!”(czytaj system który cię dosłownie wlepia od pierwszego dnia żłobka w jak najwęższe ramki) …. plus (i tu dołączę do kolegi „rolny”) prostowanie fałd codzienne przez elektroniczne media (odsyłam do neta i wyników badań na temat wpływu codziennego użytkowania smart-zła na co dzień przez dzieci i nie tylko >> aka „dowalimy ci IQ -10 punktów i zrobimy z ciebie szarą biomasę)… i masz. Idealne społeczeństwo gotowe za jakieś 50 lat do przejęcia przez AI jako dosłownie bydło lub inne coś. Reptilianie… masoni… co tam sobie kto chce. Ale prawda jest taka że tam właśnie idziemy jako gatunek.
Pozdrawiam myślących… jeszcze 🙂
po wielu latach zalogowałem się ponownie, na razie tylko po to, by wstawić te dwa linki jeden z wczoraj, a drugi dokładnie z przed dwóch lat, tego samego autora, uważam, że warto je propagować – bo idea piękna i pokazuję czym pożytecznym mógłby zająć się prof. UAM dr hab. Michał Klichowski by nie przedstawiać dla mnie wartości kolejnej pacynki, która udaje, że coś robi – bo uczelnia płaci, uczelnie publikuje i promuje powszechnie przyjętą uwsteczniającą linię rozwoju.
https://bacologia.wordpress.com/2020/08/09/ogoreczek-plus-koronka-rowna-sie-szczepionka/#more-688
https://bacologia.wordpress.com/2018/08/09/rzeczpospolita-mafijna-czesc-iv-skuteczny-sposob-na-bandytyzm/
– dobra godzina czytania plus linki do zapomnianych historii- a wcale nie tak odległych.
„gajowy
Kwestia kilkukrotnego użycia Nawigacji Samochodowej żeby nauczyć się ograniczonego zaufania do AI.
Zwykła choroba wieku dzięcięcego.”
Z nawigacji samochodowej trzeba umieć korzystać. Ale co tam AI. Weź na przykład młotek i dłutko. Zdajesz sobie sprawę, ilu ludzi poniosło ciężki uszczerbek na zdrowiu tymi trywialnymi narzędziami?