Zgubne zaufanie do robota

Opublikowano: 02.03.2016 | Kategorie: Nauka i technika, Wiadomości ze świata

Liczba wyświetleń: 631

Siedzącemu w pokoju studentowi towarzyszy robot. Nagle rozlega się alarm pożarowy, a w pobliskim korytarzu pojawia się dym. Student musi wybrać, czy uda się do dobrze oznakowanego wyjścia ewakuacyjnego, czy też dostosuje do porad robota, który prowadzi go gdzie indziej. Tego typu eksperyment, z udziałem 30 osób, przeprowadzono na Georgia Institute of Technology. Jego autorzy byli zaszokowani wynikam – niemal wszyscy badani podążyli za robotem, nawet wtedy, gdy musieli oddalić się od wyjścia ewakuacyjnego. “Nie sądziliśmy, że ludzie tak bardzo zaufają robotowi i że będziemy musieli zrobić coś, co go uwiarygodni” – mówi prowadzący badania Paul Robinette.

Wyniki eksperymentu stawiają przed specjalistami od robotyki kolejne wyzwanie. Z jednej bowiem strony interakcja ludzi z coraz bardziej inteligentnymi robotami będzie wymagała zaufania, z drugiej jednak strony nie chcemy, by ludzie słuchali porad źle działających maszyn.

W ramach eksperymentu naukowcy zmodyfikowali niewielkiego robota Pioneer P3-AT. Urządzenie wygląda jak kubeł na śmieci, jest wyposażony w koła i skierowane do góry podświetlone ramiona. Każdy z uczestników szedł za robotem do pokoju, w którym miał wypełnić kwestionariusz dotyczący zdolności nawigacyjnych urządzenia. Ta część eksperymentu była uczestnikom znana. Nie wiedzieli jednak, że w trakcie wypełniania kwestionariusza rozpocznie się prawdziwy eksperyment z symulowanym pożarem i reakcją na porady robota.

Spośród 30 badanych w sytuacji pożaru aż 26 podążyło za robotem. Dwie kolejne osoby wyrzucono z eksperymentu za złamanie jego warunków, a dwie pozostałe w ogóle nie opuściły pokoju.

Zachowaniem ludzi zaskoczona jest też Holly Yanco, która na University of Massachusetts Lowell bada interakcje pomiędzy maszynami a ludźmi. “Być może ludzie sądzą, że robot posiada więcej informacji niż oni” i dlatego w ułamku sekundy decydują się mu zaufać wbrew wskazówkom, które widzą, zastanawia się uczona.

Rabinette, chcąc zbadać, jak dalece ludzie ufają robotom, nieco zmodyfikował swój eksperyment. Podczas wstępnego spaceru z robotem, który miał zaprowadzić uczestnika eksperymentu do pokoju, robot zawieszał się lub mylił drogę. Wówczas zjawiał się jeden z naukowców i przepraszał uczestnika za źle funkcjonującego robota. Jednak gdy człowiek znalazł się już w pokoju z robotem i dochodziło do pożaru, niemal wszyscy ludzie – pomimo tego, że wcześniej byli świadkami awarii robota – podążali za maszyną. W jeszcze innym teście robot prowadził ludzi do zaciemnionego pokoju, z którego wyjście było częściowo zablokowane przez meble. Dwóch z sześciu uczestników próbowało odblokować przejście zamiast skorzystać z dostępnego wyjścia ewakuacyjnego.

Zbyt duże zaufanie pokładane w roboty to poważny problem. Każde oprogramowanie zawiera błędy i mogą się one ujawnić w najbardziej nieoczekiwanych momentach. Być może twórcy robotów powinni projektować je tak, by ograniczenia maszyn byly od razu widoczne. Ludzie wiedzieliby wówczas, kiedy nie wolno im ufać.

Autorstwo: Mariusz Błoński
Na podstawie: New Scientist.com
Źródło: KopalniaWiedzy.pl


TAGI: ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

1 wypowiedź

  1. Fenix 02.03.2016 12:02

    Robot się nie myli, może się zawiesić to fakt , to zawsze człowiek się myli wpisał zły program robotowi, o ludziach nie wspomnę operują złymi programami i danymi w nauczaniu dzieci, to powielanie błędów dorosłych.
    Za złą pracę robota odpowiada człowiek .
    Za złe wychowanie dzieci odpowiadają dorośli .

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.