Zgubne zaufanie do robota

Opublikowano: 02.03.2016 | Kategorie: Nauka i technika, Wiadomości ze świata

Przeczytano 126 razy!

Siedzącemu w pokoju studentowi towarzyszy robot. Nagle rozlega się alarm pożarowy, a w pobliskim korytarzu pojawia się dym. Student musi wybrać, czy uda się do dobrze oznakowanego wyjścia ewakuacyjnego, czy też dostosuje do porad robota, który prowadzi go gdzie indziej. Tego typu eksperyment, z udziałem 30 osób, przeprowadzono na Georgia Institute of Technology. Jego autorzy byli zaszokowani wynikam – niemal wszyscy badani podążyli za robotem, nawet wtedy, gdy musieli oddalić się od wyjścia ewakuacyjnego. “Nie sądziliśmy, że ludzie tak bardzo zaufają robotowi i że będziemy musieli zrobić coś, co go uwiarygodni” – mówi prowadzący badania Paul Robinette.

Wyniki eksperymentu stawiają przed specjalistami od robotyki kolejne wyzwanie. Z jednej bowiem strony interakcja ludzi z coraz bardziej inteligentnymi robotami będzie wymagała zaufania, z drugiej jednak strony nie chcemy, by ludzie słuchali porad źle działających maszyn.

W ramach eksperymentu naukowcy zmodyfikowali niewielkiego robota Pioneer P3-AT. Urządzenie wygląda jak kubeł na śmieci, jest wyposażony w koła i skierowane do góry podświetlone ramiona. Każdy z uczestników szedł za robotem do pokoju, w którym miał wypełnić kwestionariusz dotyczący zdolności nawigacyjnych urządzenia. Ta część eksperymentu była uczestnikom znana. Nie wiedzieli jednak, że w trakcie wypełniania kwestionariusza rozpocznie się prawdziwy eksperyment z symulowanym pożarem i reakcją na porady robota.

Spośród 30 badanych w sytuacji pożaru aż 26 podążyło za robotem. Dwie kolejne osoby wyrzucono z eksperymentu za złamanie jego warunków, a dwie pozostałe w ogóle nie opuściły pokoju.

Zachowaniem ludzi zaskoczona jest też Holly Yanco, która na University of Massachusetts Lowell bada interakcje pomiędzy maszynami a ludźmi. “Być może ludzie sądzą, że robot posiada więcej informacji niż oni” i dlatego w ułamku sekundy decydują się mu zaufać wbrew wskazówkom, które widzą, zastanawia się uczona.

Rabinette, chcąc zbadać, jak dalece ludzie ufają robotom, nieco zmodyfikował swój eksperyment. Podczas wstępnego spaceru z robotem, który miał zaprowadzić uczestnika eksperymentu do pokoju, robot zawieszał się lub mylił drogę. Wówczas zjawiał się jeden z naukowców i przepraszał uczestnika za źle funkcjonującego robota. Jednak gdy człowiek znalazł się już w pokoju z robotem i dochodziło do pożaru, niemal wszyscy ludzie – pomimo tego, że wcześniej byli świadkami awarii robota – podążali za maszyną. W jeszcze innym teście robot prowadził ludzi do zaciemnionego pokoju, z którego wyjście było częściowo zablokowane przez meble. Dwóch z sześciu uczestników próbowało odblokować przejście zamiast skorzystać z dostępnego wyjścia ewakuacyjnego.

Zbyt duże zaufanie pokładane w roboty to poważny problem. Każde oprogramowanie zawiera błędy i mogą się one ujawnić w najbardziej nieoczekiwanych momentach. Być może twórcy robotów powinni projektować je tak, by ograniczenia maszyn byly od razu widoczne. Ludzie wiedzieliby wówczas, kiedy nie wolno im ufać.

Autorstwo: Mariusz Błoński
Na podstawie: New Scientist.com
Źródło: KopalniaWiedzy.pl

1 Star2 Stars3 Stars4 Stars5 Stars Zostań pierwszą osobą, która oceni ten wpis!
Loading...

TAGI: ,

OD ADMINISTRATORA PORTALU: Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

1 wypowiedź

  1. Fenix 02.03.2016 12:02

    Robot się nie myli, może się zawiesić to fakt , to zawsze człowiek się myli wpisał zły program robotowi, o ludziach nie wspomnę operują złymi programami i danymi w nauczaniu dzieci, to powielanie błędów dorosłych.
    Za złą pracę robota odpowiada człowiek .
    Za złe wychowanie dzieci odpowiadają dorośli .

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.

pl Polski
X