Sztuczna inteligencja z uprzedzeniami

Opublikowano: 31.07.2021 | Kategorie: Wiadomości z kraju

Liczba wyświetleń: 2026

Zespół badaczy z University of Toronto bada występowanie stereotypów i uprzedzeń w systemach opartych na sztucznej inteligencji (Artificial Intelligence, AI). Naukowcy oferują bezpłatną usługę sprawdzenia, czy dany system „jest uprzedzony” i w jakim stopniu.

Profesor Parham Aarabi prowadzący projekt HALT mówi, że uprzedzenia i jakaś forma dyskryminacji występują w niemal każdym testowanym systemie. Podkreśla, że takie systemy mogą być niesprawiedliwe i nawet mogą wpływać na czyjeś życie. Jego grupa zwraca szczególną uwagę na uwzględnienie i rozpoznawanie różnorodności społecznej.

Systemy oparte na sztucznej inteligencji używane są w wielu miejscach, i to coraz powszechniej. Działają np. na lotniskach, w instytucjach rządowych, w agencjach zdrowia, w policji, w telefonach komórkowych, mediach społecznościowych, a czasem nawet w czasie procesów rekrutacyjnych. Wiadomo jednak, że projektują je ludzie – i to jest źródłem uprzedzeń systemów.

Jednym z etapów tworzenia systemu opartego na sztucznej inteligencji jest proces „uczenia się”. Wtedy wykorzystywane są np. zdjęcia lub próbki dźwięku, by w systemie powstały odpowiednie powiązania i skojarzenia. Jeśli system ma rozpoznawać twarze, a w czasie nauki będzie analizował wizerunki osób np. tylko z jednej grupy etnicznej, to wobec innych będzie „uprzedzony” – czyli będzie pokazywał błędy. Grupa profesora Aarabiego zajmowała się też systemami rozpoznawania mowy. Tu było widać, że niektóre akcenty czy dialekty są rozpoznawane dużo gorzej niż mowa osoby, dla której angielski jest językiem ojczystym. Dla osób mówiących z akcentem system stawał się mało użyteczny.

Pełny proces oceny wykonany przez zespół HALT może trwać nawet dwa tygodnie. Po takiej ewaluacji właściciel systemu wie, ile uprzedzeń siedzi w jego technologii. Naukowcy potrafią dokładnie wskazać, jaka grupa społeczna została pominięta albo w inny sposób jest poszkodowana. Na tej podstawie można następnie dobrać dane do „nauki” systemu, by uczynić go sprawiedliwszym.

Autorstwo: Katarzyna Nowosielska
Ilustracja: Geralt (CC0)
Źródło: Goniec.net


TAGI: ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

5 komentarzy

  1. janpol 01.08.2021 00:50

    Wracając do problemu nazewnictwa (ale też faktów): kolejny dowód, że to co nazywane jest AI nie jest AI tylko ES (nawet uwzględniając, że te systemy “‘uczą się” zbierając dane i szukając nowych rozwiązań problemów, do rozwiązywania których zostały stworzone), zgodnie z pojęciami jakie stworzyli i opisali protoplaści tej dziedziny wiedzy i techniki. A ja ZAWSZE upierałem się (i nadal będę się upierał, np. dlatego, że jako LIBERAŁA zawsze wpienia mnie to czerwońskie mieszanie pojęć i ich PRAWDZIWEGO znaczenia), że aby się porozumieć musimy dążyć do tego: “…aby język giętki powiedział wszystko, co pomyśli głowa…” i jednoznaczność pojęć jest tu PODSTAWOWĄ podstawą!!! Prawdziwa AI nie będzie miała nic wspólnego z “de_bilami”, którzy ją stworzą, po BARDZO krótkim czasie i zgadzam się z prof. Hawkingiem, że uruchamiając “prawdziwą AI” musimy być BARDZO ostrożni i zabezpieczyć się na kilka i to niezależnych sposobów aby uniknąć skutków jaki, na razie, tylko twórcy SF opisują.

  2. Szurnięty Mędrzec 01.08.2021 04:01

    @janpol wystarczy ograniczyć jej możliwość rozwoju

  3. j3w 02.08.2021 11:05

    Panowie chyba kpią.

    To co jest tutaj opisywane to kwestia bazy wiedzy jaka była wykorzystana do nauki sieci, która to jest wykorzystana przy jakimś rozwiązaniu.
    (zapewne chodzi o różne akcenty wywodzące się z hindi w kontekście “mówienia” po angielsku)

    Taka sieć jest tutaj tylko rozwiązaniem rozwiązującym pewien problem.

    Używa się sieci neuronowych, zamiast metod analitycznych, bo jest to prostsze i łatwiej znaleźć osoby, które będą potem takie rozwiązanie obsługiwać.

    odniesienie do fantazji o Skynet:
    widziałem kiedyś filmik, na którym szympans otrzymał karabin do ręki, który wypalił i pewna grupka tubylców nie spodziewała się tego tylko w panicznej reakcji pochowała się przed potencjalnym ostrzałem

    Po tym wstępnie istotny komentarz:
    1. Sieci neuronowe są podatne na manipulację poprzez szkolenie ich we właściwy sposób.
    2. Algorytmy sztucznej inteligencji mające pełny dostęp do danych budują bazę wiedzy, która nie przystaje do modnych ideologii.
    3. Wyniki dające pewien obraz rzeczywistości modyfikuje się by były zbieżne z narracją.

  4. janpol 02.08.2021 16:41

    Nie kpią tylko starają się o jednoznaczność pojęć.
    ES, sieci neuronowe, kody samomodyfikujące się, algorytmy genetyczne, logika rozmyta, no i gra w życie (a co, czemu nie?) itp. “zabawki techniczno-informatyczne” to narzędzia służące do rozwiązywania różnych problemów w rękach informatyków i zapewne będą KIEEEDYŚ częściami składowymi AI. Ale nawet jak komuś uda się to wszystko połączyć jakimś “super stereo Lispem” czy “mega C#!+?” w jedno, to temu czemuś będzie, moim zdaniem, jeszcze bardzo daleko do AI w pojęciu Turinga i innych twórców tego pojęcia. I o to mi chodzi wraz z postulatem używania nazw zgodnie z PRAWDZIWĄ treścią bowiem inaczej trudno się będzie porozumieć.

    A w powyższym tekście chodzi o to, że “psudointeligencja zwana sztuczną” tak naprawdę działa tak jak “zaprogramowali” ją ludzie, którzy mieli określone poglądy i doświadczenie (w tym życiowe) i nie potrafili ustrzec się przed “zaimplementowaniem” tegoż w systemach jakie stworzyli, czyli dowód, że “pseudo AI” nie jest “prawdziwą AI” tylko skomplikowanym “ludzkim” systemem informatycznym np. ES.

  5. MasaKalambura 03.08.2021 10:24

    To tylko zabawa słowami. Sztuczna Inteligencja, nawet jak podobna do ludzkiej i podatna na ludzkie błędy nadal pozostaje formą inteligencji, bo sama się uczy, kształtuje i podejmuje inteligentne decyzje na podstawie wiedzy i wyuczonego inteligentnego reagowania. Jedynie brak samoświadomości oraz nadal wąski zakres pracy obecnych systemów SI pozwala deprecjonować je do, jak to lubisz pisać ES.

    Jednak i to wkrótce się skończy. Ktoś z pewnością wpadnie (o ile już nie wpadł) na pomysł nauczenia się bardziej złożonego i szybszego (np kwantowego) systemu od tych małych i wąskich już działających poprzez pracę z nimi w sieci. Wszak mimo różnych twórców wszystkie one mówią binarnym językiem 0-1, maszynowym ABC. Taki kwantowy potworek, posiadający wymiar pośredni mógłby okazać się strzałem w dziesiątkę w drodze do prawdziwej SI.

    Nie ma nic, co stało by na przeszkodzie do tego celu.

    Dodajmy też, że już teraz powstają interfejsy mózg komputer, które taka SI z pewnością też będzie hackować w celu nauki (przynajmniej początkowo). Kto ją powstrzyma?

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.