Sztuczna inteligencja masowo skanowała twarze pasażerów

Opublikowano: 28.06.2024 | Kategorie: Nauka i technika, Telekomunikacja i komputery, Wiadomości ze świata

Liczba wyświetleń: 1120

Kamery CCTV wspierane przez sztuczną inteligencję Amazona skanowały twarze tysięcy pasażerów w Wielkiej Brytanii. Z ujawnionych niedawno dokumentów wynika, że proceder trwał kilka lat, a AI analizowała wiek, płeć, emocje i inne cechy nieświadomych obserwacji ludzi.

Kamery CCTV w połączeniu ze sztuczną inteligencją Amazona miały – w założeniu – monitorować tłumy i wykrywać w nich kradzieże inne działania przestępcze. Niestety ich obserwacje wykraczały daleko poza nadzór nad bezpieczeństwem…

Nowe dokumenty ujawniają, że twarze tysięcy osób wsiadających do pociągów w Wielkiej Brytanii zostało przeskanowanych przez oprogramowanie Amazon w ramach szeroko zakrojonych testów sztucznej inteligencji. Wykorzystano system rozpoznawania obrazu do przewidywania wieku, płci i potencjalnych emocji podróżnych, co oznacza, że dane te mogą zostać wykorzystane w systemach reklamowych.

W ciągu ostatnich dwóch lat na ośmiu stacjach kolejowych, w tym Euston i Waterloo w Londynie, czy Manchester Piccadilly – przetestowano technologię nadzoru AI przy użyciu kamer CCTV w celach bezpieczeństwa. Narzędzia te miały być wykorzystane do potencjalnej walki z przestępczością. W szeroko zakrojonych badaniach nadzorowanych przez Network Rail wykorzystano rozpoznawanie obiektów, wykrywanie osób wkraczających na tory, monitorowanie i przewidywanie przepełnienia peronów, a także identyfikację zachowań aspołecznych.

Jak powiedział Jake Hurfurt, szef działu badań i dochodzeń w grupie zajmującej się wolnością obywatelską – Big Brother Watch, na wniosek której opublikowano dane: „Wdrożenie i normalizacja nadzoru sztucznej inteligencji w przestrzeni publicznej bez większych konsultacji i rozmów, to dość niepokojący krok”.

Jak wynika z ujawnionych dokumentów, które datowane są na kwiecień 2023 roku, na każdej stacji znajdowało się od pięciu do siedmiu kamer lub czujników.

Ponadto Hurfurt twierdzi, że najbardziej „niepokojący” element badań skupiał się na „demografii pasażerów”. Ta konfiguracja może wykorzystywać obrazy z kamer do tworzenia „statystycznej analizy przedziału wiekowego oraz danych demograficznych mężczyzn i kobiet”. Jest także w stanie „analizować emocje”, takie jak „radość, smutek i złość”. Zwraca on uwagę na fakt, że pozyskane przez kamery „dane można wykorzystać w celu uzyskania maksymalnych przychodów z reklam i sprzedaży detalicznej”, zwłaszcza jeśli w proceder zaangażowana jest gigantyczna korporacja.

Nie jest jasne, jak szeroko zastosowano analizę wykrywania emocji.

Autorstwo: Paulina Markowska
Źródło: PolishExpress.co.uk


TAGI: , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

11 komentarzy

  1. Romeo 28.06.2024 15:57

    Lata temu u kumpla oglądaliśmy jakieś zupełne dziwactwa na YT, które ktoś tam wywalił, bo mu się wydawało, że będzie wesoło.
    Jakiś Rumun podrygujący za niczym przez niego niedotykaną kierownicą – doskonale bezkontaktową, powinni takie prezerwatywy wymyślić, zwłaszcza na takich kierowców (dla ich starych) – w kabinie TIRa walącego jakąś dwupasmówką, jakieś towarzystwo w termowizji na lotnisku.
    I wywalane z tych osobistości jakieś lotne substancje, widoczne jedynie w tej termowizji.
    I pewnie organoleptycznie doświadczane w bezpośrednim (w promieniu nie mniej niż 5 metrów) otoczeniu/polu rażenia.
    Stali sobie dalej od innych, to dali upust swoim naukowo poszukiwawczym zamiłowaniom, a tu jakiś osioł z nadzoru lotniska ich sfilomował. I wrzucił do YT.
    Teraz w naszych kijaszkiem z pupci wydłubanych mediach jako problem przedstawia się kradzież wizerunku, celem przez AI dosztukowywania pozostałej części bez majtasów.
    Straszne. Jak żyć, kiedy ktoś upubliczni nasz wizerunek bez majtasów, za to z przerostem lub przykurczem wartości dodanej?!
    Proszę zwrócić uwagę na skalę problemu: każdy będzie mógł stać się wytworzonym przez AI golasem z “za małym/małymi” lub “takim/taką wielkim/wielką”.
    I nie daj Bóg, ktoś (parytetowo: ktosia) zapragnie sobie poimaginować z “takimi” nami – uniesie mu (jej?) się most albo napłynie… ślina.
    Pora umierać, prawda?

  2. Katarzyna TG 28.06.2024 16:00

    Czy pasażerowie zostali poinformowani w jakikolwiek sposób o procederze i wyrazili zgodę na rejestrację swojego wizerunku oraz bycie materiałem szkoleniowym dla AI? Bo jeśli nie to powinno się skończyć pozwem zbiorowym przeciwko każdemu kto wziął w tym procederze udział.

  3. Foxi 28.06.2024 18:21

    @Romeo ty jak zawsze eksplorujesz jakieś odległe chaszcze i ugory myślowe dalekie od rzeczywistości jak d. od mózgu. Tam jest prosta sprawa: Ktoś przytulił na krzywy ryj sporą kasę, a powinien się podzielić albo chociaż zaprosić użytkowników pro-bono do udziału w “badaniach.”

  4. Romeo 28.06.2024 20:44

    @Foxi – “Wykorzystano system rozpoznawania obrazu do przewidywania wieku, płci i potencjalnych emocji podróżnych, co oznacza, że dane te mogą zostać wykorzystane w systemach reklamowych.”
    jeszcze raz, skaracając dystans, żeby nie zasnąć w chaszczach oddzielających “d. od mózgu”:
    – “do przewidywania wieku, płci i potencjalnych emocji podróżnych”
    przecież to jest opis ewentualnej spekulatywno probabilistycznej mniemanologii, a nie żadnego usystematyzowanego (nakierowanego na towary czy reklamy) działania.
    Nawet nie zadano sobie trudu, żeby w informacji powiązać w jakikolwiek (nie tylko wiarygodny) sposób tak uzyskiwane dane z docelowym ich wykorzystaniem we wskazywany sposób (towary/reklamy).
    Już samo zdanie o “przewidywaniu wieku” i “płci” jest jakimś chorym i niepojętym żargonem, wskazującym, każącym przypuszczać, że prowadzący badania liczą się ze zmianą wieku (to akurat możliwe, bo podróż może trwać nawet kilka godzin) podróżnych, ale i … “płci”?
    Nie zatrzymujac się w tej przyjmowanej spekulatywnie przez podających informację losowości – przy takim jej stopniu czsoprzestrzenno-świadomościowo-seksualnych zmian, mogą się podróżni równie dobrze zmienić w inne gatunkowo istoty, prawda?
    I faktycznie wtedy – u kresu podróży – może się okazać, że dla psów, którymi się staliśmy (suk), potrzebne będą na dworcu docelowym kagańce i smycze, a dla kotów kontenerki.
    Ale, to, co napisałem w komentarzu do tej informacji, to jest tylko moja nasuwająca się w związku z tym refleksja.
    Jest moja, nie pisałem jej, żeby się przypodobać komuś (uzyskać klienta oferowanych przeze mnie towarów czy reklam), uzyskać jakąkolwiek korzyść.
    Pozdrawiam Foxi, dzięki za feedback i udanego, z całego serca, radosnego weekendu!

  5. RisaA 28.06.2024 23:02

    > Kamery CCTV wspierane przez sztuczną inteligencję Amazona skanowały twarze tysięcy pasażerów w Wielkiej Brytanii. Z ujawnionych niedawno dokumentów wynika, że proceder trwał kilka lat, a AI analizowała wiek, płeć, emocje i inne cechy nieświadomych obserwacji ludzi.

    Jak już kiedyś wspominałam większość kamer CCTV jest nielegalnych. Większość osób instalujących nie informuje o nich i ich nie oznacza. Pozostali uruchamiają je na oprogramowaniu Amazona, Google (Android) oraz Microsoft (Windows), które to dane są przesyłane do skanowania na serwerach Microsfotu, Google i inne (niby antywirusowo, ale prawda jest inna). Dane te nigdy nie są usuwane.

    Toteż podpowiem jak z tym walczyć, gdy kamery nie chcesz już widzieć, a raczej gdy nie chcesz by ona cię widziała:
    – kup paczkę rękawiczek lateksowych (bo nie zostawiać śladów i nie pokleić rąk)
    – kup długi pędzel lub pędzel krótki i kij do przedłużenia
    – kup klej cyjanoakrylowy ten gęsty (typu żel) – z tym klejem ciężko jest walczyć bo jest bezrozpuszczalnikowy – łapie wszystko prócz PE i PP (łapie też szkło),
    – zdobądź mały pojemnik szklany lub z PE/PP i przed użyciem wyciśnij tam klej by móc użyć go jak lakieru,
    – kup 2-4 metry tkaniny typu elastan+poliester czarnej, brązowej lub granatowej (coś co dobrze ukryje twoją sylwetkę. Ważne by przez materiał po jego powieszeniu było od środka coś widać. Tkaninę możesz też narzucić na siebie gdy masz jej dużo (więcej niż 3 metry).

    Instrukcji użycia pędzla z cyjanopanem nie będę tu zamieszczała – każdy wie, że doskonale zmatawia wszystko na co kapnie, a kamery przez matowy materiał nie widzą.

    Z materiału można uszyć worek z miejscem na ręce + prowizoryczne rękawy do ukrycia cech charakterystycznych rąk.

    Całość warto użyć tuż przed aktem niszczenia nielegalnej kamery i zdjąć tak szybko jak to możliwe. Rzeczy nie należy zostawiać – kwestia odcisków.

    Nie ma sensu używać farb – większość kamer jest na to odporna i daje się zmyć rozpuszczalnikiem.

    ILE JESZCZE K__A BĘDZIEMY ROBIĆ ZA KRÓLIKI DOŚWIADCZALNE (tym razem w dziezinie AI)?

    BTW. Skończcie rozmowy z pracodawcami i rekruterami przez Dziurki™, bo tam trwa to samo. Jest o tym w ich polityce prywatności – doskonalenie produktów Microsoftu, czyli też AI.

    Do całości dołączam art. 5 Kodeksu Cywilnego:
    «Art. 5. Nie można czynić ze swego prawa użytku, który by był sprzeczny ze społeczno-gospodarczym przeznaczeniem tego prawa lub z zasadami współżycia społecznego. Takie działanie lub zaniechanie uprawnionego nie jest uważane za wykonywanie prawa i nie korzysta z ochrony.»

    Oznacza to, że czyjeś prawo do mienia niezniszczonej kamery nie może być wykorzystywane do tego, by inwigilować ludzi i naruszać ich prawnie chronioną prywatność. Prawo do posiadania / własności w tym przypadku nie może być chronione, bo urządzenie jest używane do naruszania innych praw innych ludzi.

  6. RisaA 28.06.2024 23:30

    > Już samo zdanie o “przewidywaniu wieku” i “płci” jest jakimś chorym i niepojętym żargonem, wskazującym, każącym przypuszczać, że prowadzący badania liczą się ze zmianą wieku (to akurat możliwe, bo podróż może trwać nawet kilka godzin) podróżnych, ale i … “płci”?

    Przecież już kilka lat temu kamery żabki lub biedronki (nie pamiętam czyje – można poszukać) robiły to samo – określały wiek i płeć klienta by w sklepie puścić odpowiednie jego zdaniem reklamy porzy kasie.

    Google na smartfonach robi to samo swoją drogą – chodzi o rozpoznawanie emocji.

  7. Romeo 29.06.2024 00:43

    @RisaA – nic mi nie wiadomo o określaniu przez kamery czegokolwiek, ale w odpowiedzi zwrócę uwagę na słowo, do którego się odnoszę w ww. informacji, które nie jest słowem “określanie”, nie jest z nim ani bliskoznaczne, ani w żadnej gramatycznej formule języka polskiego mogące się z nim wiązać,
    – tym słowem jest “przewidywanie”.
    Jedynie poprawne używanie słów/ich powtarzanie i prawidłowe rozumienie znaczenia,
    nadaje jakikolwiek sens prowadzonej przez ludzi komunikacji.
    I nie piszę bez powodu o ludziach, bo AI w ramach eksperymentu dopuszczona do prowadzenia dialogu dwóch botów, wprowadziła w nim wartości zrozumiałe wyłącznie dla tych botów, rozwijając go do momentu, aż nadzorujący ten eksperyment naukowcy nie zdali sobie sprawy, że nic z niego nie rozumieją.
    Czyli po pięciu sekundach tego ożywionego dialogu – botów AI.
    https://antyweb.pl/facebook-sztuczna-inteligencja-eksperyment

  8. RisaA 29.06.2024 00:48

    > Bo jeśli nie to powinno się skończyć pozwem zbiorowym przeciwko każdemu kto wziął w tym procederze udział.

    Katarzyna TG, Ty naprawdę wierzysz sądom, że osądzą sprawiedliwie? W dobie gdy sąd wydaje wyrok, że obywatel nie ma prawa do gotówki, tak jak osądzono komuś, kto tu wrzucał swoje żale w tym temacie jako artykuł?

    Zbiorowo należy chwycić za klej cyjanoarkylowy w żelu i pędzie i zacząć unieszkodliwiać Dziurki™ przez które Rezylianie są obserwowani. Tylko najpierw niech zrozumieją, że pierwszą Dziurką™ do unieszkodliwienia jest ta w ich smartfonie. Potem niech się biorą za te, które są nielegalne. Warto w tym celu pytać administratorów danych, gdzie przechowują nagrania (w chmurze?) i na jakim systemie operacyjnym je przetwarzają (Google Android, Microsoft Windows?)

    Zgodnie z przepisami każda kamera musi być oznaczona czyja jest i kto odpowiada za nagrania. Jeżeli jest nieoznaczona i jest w przestrzeni publicznej – jest nielegalna – jest to nic innego jak podsłuch.

  9. RisaA 30.06.2024 12:35

    @Romeo, nie zamierzam się nadmiernie zagłębiać w każde słowo. pozostanę przy swoim, czyli przekazaniu informacji w taki sposób, by 99% innych ludzi mnie zrozumiało. Tyle i aż tyle mi wystarczy.

    Odnośnie zaś skanowania twarzy w sklepach i rozpoznawania płci i wieku osoby – miało to miejsce w żappce / żabce (nie wiem jaka jest obecnie poprawna pisownia). Nie łudźcie się, że przestali to robić. Czym to się różni od opisanego tu w artykule zastosowania? Przecież robili to samo kilka lat wcześniej. Też z użyciem AI.

    https://polki.pl/magazyn/o-tym-sie-mowi,w-sklepach-zabka-testowana-jest-aplikacja-do-rozpoznwania-twarzy-klientow-podobno-do-statystyki,10421063,artykul.html

  10. Romeo 30.06.2024 13:03

    @RisaA – “Tyle i aż tyle mi wystarczy.” – mi również, proszę więcej nie zadawać sobie trudu pod moim adresem. Pod jakimkolwiek pretekstem.
    Miłego końca świata czy co tam planujesz.

  11. Katarzyna TG 30.06.2024 17:36

    > Miłego końca świata czy co tam planujesz.

    Koniec kamerek ( a o to zdaje się chodzi RisaA) to nie koniec świata. Raczej początek, nowy początek ..

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.