Sztuczną inteligencję da się oszukać

Opublikowano: 14.12.2020 | Kategorie: Nauka i technika, Publicystyka, Telekomunikacja i komputery

Liczba wyświetleń: 1783

Naklejka na znaku drogowym może wprowadzić w błąd autonomiczny samochód, a zmylony zakodowanym sygnałem asystent głosowy może zlecić przelew naszych pieniędzy na wybrane konto. Ataki na systemy, które potrafią same się uczyć, mają więcej wspólnego z codziennym życiem, niż mogłoby się wydawać.

SYSTEM OSZUKUJE SYSTEM

„Sztuczna inteligencja nas obserwuje, słyszy i uczy się nas – czy tego chcemy, czy nie. W świecie Web 3.0 inteligentne systemy są wykorzystywane na każdym portalu internetowym. W zależności od tego, czego szukamy w sieci, co kupujemy, o czym mówimy i piszemy przez telefon, są nam sugerowane wybrane dla nas treści. Portale społecznościowe proponują nam znajomych, serwisy sprzedażowe podsuwają produkty i usługi, jakich „potrzebujemy”” – mówi dr inż. Rafał Kasprzyk z Wojskowej Akademii Technicznej w Warszawie.

Zaznacza jednak, że te dobrze działające urządzenia można wprowadzić w błąd. Sposób na oszukanie sztucznej inteligencji określany jest w języku naukowym jako antagonistyczne, czyli przeciwstawne uczenie się maszyn. W skrócie – drugi system uczy się, jak działa pierwszy, który również sam się uczy.

Dzięki temu procederowi może się zdarzyć, że maszyna „połknie” na wejściu złośliwie spreparowane dane. Dla człowieka takie dane wyglądają na poprawne i nie wprowadzają go w błąd. Maszyna jednak daje się nabrać. Naukowiec wyjaśnia to na przykładzie autonomicznych samochodów.

Jak opisuje, auta takie jak Tesla bardzo dobrze trzymają się pasów i świetnie rozpoznają znaki drogowe – nawet te na naszych drogach – bardzo liczne. Choćby warunki atmosferyczne były złe, a znak stop byłby pomalowany przez kogoś na zielono, sensory uruchomią mechanizmy ochrony przed wypadkiem.

Jeśli jednak system zostanie w sposób przemyślany zaatakowany, wtedy – na przykład – wystarczy nakleić niepozorny element na znaku STOP, aby samochód odebrał ten znak jako informację: „droga z pierwszeństwem przejazdu”. Nietrudno wyobrazić sobie konsekwencje w postaci niewyjaśnionej serii kraks.

DWIE DROGI UCZENIA (SIĘ) MASZYN

Dr inż. Kasprzyk tłumaczy, że przy budowie inteligentnych maszyn można wykorzystać wiedzę eksperta. Człowiek – specjalista z danej dziedziny – wskazuje, jak powinna funkcjonować maszyna. Następnie informatyk „tłumaczy” to na kod w wybranym języku programowania maszyn. Opracowuje jasne reguły, które wyznaczają sposób działania maszyny.

Można to porównać do sytuacji, w której sami programujemy ekspres do kawy, żeby – bez ustawiania wszystkiego za każdym razem – serwował nam wymarzoną kawę o ulubionej porze.

Drugi sposób jest bardziej abstrakcyjny, bo mamy w nim do czynienia z ogromną ilością danych. Żaden ekspert ani grono specjalistów, nie jest w stanie ogarnąć umysłem mechanizmów zarządzania nimi. A jednak – choć reguły, jakimi rządzi się maszyna nie są jawne i znane naukowcom – system, zaprogramowany przez człowieka na samodzielne uczenie się, działa prawidłowo, niejednokrotnie znacznie lepiej niż sam człowiek.

To podejście można z kolei porównać do sytuacji, w której ekspres do kawy automatycznie przygotowuje właściwą kawę. Bierze pod uwagę godzinę, temperaturę i wilgotność w pomieszczeniu, dzień tygodnia i – może jeszcze coś więcej? A uczy się w oparciu o to, w jaki sposób użytkownik do tej pory wykorzystywał go w różnych porach dnia, miesiąca, roku.

Istnieje wiele algorytmów uczenia maszynowego, czyli metod, według których ludzie budują maszyny „karmiące się” niezliczoną ilością danych. Dalej „pałeczkę” przejmuje system, za którym ludzki umysł już nie może nadążyć. Informacje zbierane są przez sensory otaczające nas w świecie rzeczywistym i wirtualnym. Inteligentne maszyny przetwarzają te dane i szukają między nimi zależności. Na ich podstawie dalej się uczą.

Naukowcy potrafią nauczyć inteligentne maszyny, jak identyfikować osoby podejrzane o terroryzm. W projekcie Pentagonu powstał system „Znawca” (Maven), który potrafi namierzać, rozpoznawać, a następnie śledzić obiekty na obrazach rejestrowanych przez satelity lub bezzałogowe statki powietrzne.

Naukowcy – m.in. na Wydziale Cybernetyki WAT szukają możliwych sposobów na wprowadzanie maszyn w błąd. Znając je – będą mogli temu zapobiec.

Autorstwo: Karolina Duszczyk
Źródło: NaukawPolsce.PAP.pl


TAGI:

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

3 komentarze

  1. janpol 15.12.2020 01:51

    No właśnie, kolejny dowód, że nie ma jeszcze czegoś takiego jak sztuczna inteligencja, są za to złożone systemy ekspertowe.

  2. realista 15.12.2020 11:32

    a ten dalej swoje, mimo wyjaśnień, choćby w powyższym tekście.
    tłumaczyłem ci wielokrotnie, ale ty chyba po prostu nie rozumiesz określenia “sztuczna inteligencja”….. …

  3. janpol 17.12.2020 01:27

    No cóż, z przykrością muszę o raz kolejny skonstatować, że nawet niektórzy, teoretycznie “wolnomyślący”, nie do końca rozumieją teksty pisane i to co się im usiłuje wytłumaczyć nawet metodą “jak krowie na rowie”, szkoda…
    Mógłbym (i czuję, że powinienem) skończyć cytując: “…a ten dalej swoje, mimo wyjaśnień, choćby w powyższym tekście. Tłumaczyłem ci wielokrotnie, ale ty chyba po prostu nie rozumiesz określenia “sztuczna inteligencja”…” (ale może po raz kolejny trafi, tym bardziej, że temat artykułu tym razem bardziej odpowiedni).
    Tytułem wstępu: JA rozumiem co oznacza określenie “sztuczna inteligencja” (AI np. https://pl.wikipedia.org/wiki/Sztuczna_inteligencja) i “system ekspertowy” (ES np. https://mfiles.pl/pl/index.php/System_ekspercki lub może bardziej łopatologicznie np. taka prezentacja: file:///C:/Users/JaDom/AppData/Local/Temp/systexp.pdf – tym razem nie Wiki bo tu “wdarły się” różne “twórcze pomysły nomenklaturowe”, często dużo późniejsze, ludzi którzy mieszają proste i jasne pojęcia dla swoich, często niejasnych celów, np wyciągania kasy od “bjuznesu” na dalsze “zabawy z kompem”, których nie można “sprzedać” w dającej się przewidzieć przyszłości) ponieważ te pojęcia są znane od co najmniej 70 lat i ich twórcy bardzo dokładnie je nazwali i sprecyzowali (dla przypomnienia – AI wg twórców A.M. Turinga i J. McCarthy’ego to taki system stworzony przez człowieka, którego nieświadomy użytkownik/rozmówca nie odróżni od żywego człowieka). To proste jak drut, nie rozumiem, czego tu nie można zrozumieć?! Przypominam, że mieszanie pojęć to jeden z czerwońskich “wynalazków” wdrożony np. przez komunpropagandę (i nadal forsowany przez pogrobowców Lenina/Stalina/Trockiego itp. w postaci, np. “mowy nienawiści” (co nią jest – decydują oczywiście “śfiatli czerwońcy”), poprawność polityczna itp., itd.) po to aby “normalni ludzie” (używający pojęć w tradycyjny sposób) nie mogli się dogadać i musieli zwracać się po “wykładnię” do “śfiatłych czerwońskich elytek”.
    Przypominam: AI taka jaka powinna być wg twórców NIE ISTNIEJE i wg mnie, nie powstanie szybko! To z czym mamy do czynienia to ES – coraz bardziej złożone oraz mające coraz więcej możliwości i zastosowań (nawet AlphaGo to ES, który “nauczył” się wygrywać z człowiekiem poprzez zgromadzenie i przeanalizowanie potężnej bazy danych o rozegranych partiach i regułach gry – TYLKO! To takie trudne do zrozumienia?). Argumenty, że “tzw. AI” robi wiele rzeczy szybciej, sprawniej itd. od człowieka to ŻADEN argument! Na ilustracji tu w WM dzisiaj np. jest baaaaardzo starożytny człowiek, który dokonał odkrycia, że nawet maszyny proste takie jak tłuk pięściowy czy pałka są lepsze i skuteczniejsze np. do rozłupywania orzechów niż “żywa pięść” ale chyba nie będziemy go podejrzewać o to, że pracował nad “AI”? Dla ucięcia durnowatych sporów proponuję stworzyć nowe, bardziej adekwatne pojęcie dla określenia tego zjawiska: “forged mind” – bardzo mi się podoba i miłej zabawy w analizowaniu różnych tłumaczeń. Jeżeli się na to zgodzimy to oczywiście koniec dyskusji.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.