Obywatelu, wykryliśmy u ciebie brak radości…

Opublikowano: 29.01.2021 | Kategorie: Nauka i technika, Wiadomości ze świata

Liczba wyświetleń: 1826

Chiny są krajem przodującym w rozwoju technologii „rozpoznawania emocji”.

Co sekundę kamery monitorujące zainstalowane w każdej klasie w Niulanshan First Secondary School w Pekinie robią zdjęcie. Są one następnie wprowadzane do Classroom Care System, programu „rozpoznawania emocji” opracowanego przez Hanwang Technology. Program identyfikuje twarz każdego ucznia i analizuje jego zachowanie: uczeń wpatrzony biurko może zostać oznaczony jako „zdekoncentrowany”, podczas gdy inny patrzący na tablicę zostanie oznaczony jako „skupiony”.

Inne kategorie behawioralne obejmują odpowiadanie na pytania, interakcję z innymi uczniami, pisanie i senność. Nauczyciele i rodzice otrzymują cotygodniowe raporty za pośrednictwem aplikacji mobilnej.

Program ten opisany po raz pierwszy przez dziennikarza Yujie Xue w 2019 r., jest promowany przez dziesiątki chińskich korporacji i naukowców akademickich do szerokiego zakresu zastosowań, w tym kontroli granic i nadzoru więzień, a także oceny zachowania i wyników pracy uczniów.

Technologia rozpoznawania emocji opiera się na algorytmie, który analizuje mimikę twarzy i dokładnie określa stan wewnętrzny lub nastrój.

Firmy technologiczne, jak Amazon, Microsoft i Google, zaczęły oferować klientom oprogramowanie do rozpoznawania emocji (chociaż Amazon i Microsoft zauważają, że ich narzędzia nie są w stanie określić „wewnętrznego stanu emocjonalnego osoby”, a „sama mimika twarzy niekoniecznie musi odzwierciedlać wewnętrzne stany ludzi”).

Według szacunków globalny rynek rozpoznawania emocji będzie wart do 2023 r. ponad 33 miliardy dolarów.

Niektóre firmy traktują rozpoznawanie emocji jako ewolucję rozpoznawania twarzy, mimo że technologie mają odmienne funkcje. Na przykład jedna firma nazwała rozpoznawanie emocji „biometrią 3.0”.

Technologia ta może naruszać prywatność i prawa człowieka, zwłaszcza mniejszości i innych wrażliwych populacji. Shazeda Ahmed, współautorka raportu i doktorantka Uniwersytetu Kalifornijskiego w Berkeley uważa, że wiele metod stosowanych przez firmy technologiczne „odtwarza rasistowskie założenia dotyczące sposobu wyrażania emocji przez ludzi”.

Szereg chińskich firm oferuje rozpoznawanie emocji w edukacji, w tym giganci jak Lenovo. Jedna firma twierdziła, że ​​zbudowała interfejs dla nauczycieli, który wyświetla „ostrzeżenia o uczniach z problemami”, sygnalizując takie emocje, jak smutek lub strach. Program łączy rozpoznawanie emocji z wynikami w nauce, aby kategoryzować uczniów według różnych archetypów. Na przykład „fałszywie poważny typ” to ktoś, kto słucha wykładów, ale dostaje złe oceny.

Jednym z głównych problemów związanych z rozpoznawaniem emocji jest to, że często nie jest jasne, w jaki sposób nauczyciele powinni reagować na dane. Jeśli algorytm wskazuje, że uczniowie wyglądają na bardziej nieszczęśliwych niż zwykle, nie ma oczywistych wskazówek, jak nauczyciel powinien dostosować plan lekcji.

Na podstawie: Restofworld.org
Źródło: Goniec.net


TAGI: , , , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.