Obywatelu, wykryliśmy u ciebie brak radości…

Opublikowano: 29.01.2021 | Kategorie: Nauka i technika, Wiadomości ze świata

Liczba wyświetleń: 1189

Chiny są krajem przodującym w rozwoju technologii „rozpoznawania emocji”.

Co sekundę kamery monitorujące zainstalowane w każdej klasie w Niulanshan First Secondary School w Pekinie robią zdjęcie. Są one następnie wprowadzane do Classroom Care System, programu „rozpoznawania emocji” opracowanego przez Hanwang Technology. Program identyfikuje twarz każdego ucznia i analizuje jego zachowanie: uczeń wpatrzony biurko może zostać oznaczony jako „zdekoncentrowany”, podczas gdy inny patrzący na tablicę zostanie oznaczony jako „skupiony”.

Inne kategorie behawioralne obejmują odpowiadanie na pytania, interakcję z innymi uczniami, pisanie i senność. Nauczyciele i rodzice otrzymują cotygodniowe raporty za pośrednictwem aplikacji mobilnej.

Program ten opisany po raz pierwszy przez dziennikarza Yujie Xue w 2019 r., jest promowany przez dziesiątki chińskich korporacji i naukowców akademickich do szerokiego zakresu zastosowań, w tym kontroli granic i nadzoru więzień, a także oceny zachowania i wyników pracy uczniów.

Technologia rozpoznawania emocji opiera się na algorytmie, który analizuje mimikę twarzy i dokładnie określa stan wewnętrzny lub nastrój.

Firmy technologiczne, jak Amazon, Microsoft i Google, zaczęły oferować klientom oprogramowanie do rozpoznawania emocji (chociaż Amazon i Microsoft zauważają, że ich narzędzia nie są w stanie określić „wewnętrznego stanu emocjonalnego osoby”, a „sama mimika twarzy niekoniecznie musi odzwierciedlać wewnętrzne stany ludzi”).

Według szacunków globalny rynek rozpoznawania emocji będzie wart do 2023 r. ponad 33 miliardy dolarów.

Niektóre firmy traktują rozpoznawanie emocji jako ewolucję rozpoznawania twarzy, mimo że technologie mają odmienne funkcje. Na przykład jedna firma nazwała rozpoznawanie emocji „biometrią 3.0”.

Technologia ta może naruszać prywatność i prawa człowieka, zwłaszcza mniejszości i innych wrażliwych populacji. Shazeda Ahmed, współautorka raportu i doktorantka Uniwersytetu Kalifornijskiego w Berkeley uważa, że wiele metod stosowanych przez firmy technologiczne „odtwarza rasistowskie założenia dotyczące sposobu wyrażania emocji przez ludzi”.

Szereg chińskich firm oferuje rozpoznawanie emocji w edukacji, w tym giganci jak Lenovo. Jedna firma twierdziła, że ​​zbudowała interfejs dla nauczycieli, który wyświetla „ostrzeżenia o uczniach z problemami”, sygnalizując takie emocje, jak smutek lub strach. Program łączy rozpoznawanie emocji z wynikami w nauce, aby kategoryzować uczniów według różnych archetypów. Na przykład „fałszywie poważny typ” to ktoś, kto słucha wykładów, ale dostaje złe oceny.

Jednym z głównych problemów związanych z rozpoznawaniem emocji jest to, że często nie jest jasne, w jaki sposób nauczyciele powinni reagować na dane. Jeśli algorytm wskazuje, że uczniowie wyglądają na bardziej nieszczęśliwych niż zwykle, nie ma oczywistych wskazówek, jak nauczyciel powinien dostosować plan lekcji.

Na podstawie: Restofworld.org
Źródło: Goniec.net

1 Star2 Stars3 Stars4 Stars5 Stars Liczba głosów: 1, średnia ocena: 4,00 (max 5)
Loading...

TAGI: , , , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

1
Dodaj komentarz

Chcesz skomentować? Zaloguj się!
  Subskrybuj  
najnowszy najstarszy
Powiadom o
Irfy
Użytkownik
Irfy

Hmm… Nie mam pojęcia, ile będzie wart “globalny rynek rozpoznawania emocji” ale jestem pewien, że co najmniej tak samo, jeśli nie wyżej wyceniany będzie “globalny rynek nakładek na twarz”. Jakichś silikonowych maseczek ściśle przylegających do twarzy i zaprojektowanych tak, żeby nie wyrażały jakichkolwiek emocji. Względnie – olbrzymi entuzjazm.

Bo się zaraz okaże, że zamiast do inwigilacji, który z uczniów przysypia na lekcji system zostanie wykorzystany do ciekawszych rzeczy. Na przykład w Polsce. Wyobraźmy sobie takie miejsce… Sejm! Siedzą sobie szanowni panowie posłowie i panie posłanki, zaprzątnięci pracą dla dobra Narodu. Żadnym przeglądaniem pornosów albo torebek w netowych sklepikach. Żadnym wybieraniem miejscówki na wakacje albo flirtowaniem z asystentką kumpla. Usilną pracą dla naszego dobra!

Więc siedzą. Twarze skupione. I nagle wchodzi on, cały na… No może mnie trochę poniosło. Ale wchodzi. ON! Prezes wszystkich prezesów, słońce narodu itd. itp., świetlista podpora ludzkości. W tym momencie system rozpoznawania emocji powinien wychwycić ekstazę. Przynajmniej na wszystkich twarzach ludzi Wielkiego Wodza. A co, jeśli wykryje jakieś mniej przychylne emocje? Albo co gorsza strach i wrogość? Nieszczęście gotowe! Oj, nie sądzę, żeby to się “powszechnie” przyjęło. No chyba że się rozwinie rynek specjalnych “maseczek” :P