200 000 rodzin niesłusznie podejrzewano o wyłudzanie zasiłków

Opublikowano: 24.06.2024 | Kategorie: Gospodarka, Prawo, Społeczeństwo, Wiadomości ze świata

Liczba wyświetleń: 973

Nawet 200 000 gospodarstw domowych w Wielkiej Brytanii zostało niesłusznie posądzonych o próbę wyłudzenia zasiłku mieszkaniowego. Wszystkiemu winny był błędny algorytm.
Błędy w algorytmie powodem niesłusznych podejrzeń względem brytyjskich rodzin

Departament ds. Pracy i Emerytur (ang. Department for Work and Pensions, DWP) rozpoczął kilkaset tysięcy postępowań przeciwko rodzinom w UK, podejrzewając je o próbę wyłudzenia zasiłku mieszkaniowego housing benefit. Okazuje się jednak, że w ciągu ostatnich trzech lat dwie trzecie takich postępowań, około 200 000, nie miało żadnych podstaw. Za błędy w typowaniu gospodarstw domowych do weryfikacji odpowiedzialny był błędnie działający algorytm.

„Nadmierne poleganie DWP na nowych technologiach wyrzuciło prawa osób, które często już są w niekorzystnej sytuacji finansowej, które są marginalizowane i bezbronne, na tylne siedzenie” – podsumowała całą sytuację organizacja Big Brother Watch, która przeanalizowała dane w ramach dostępu do informacji publicznej.

Przez błędy w algorytmie tysiące brytyjskich gospodarstw domowych poddanych zostało zupełnie niepotrzebnej weryfikacji. Ich wnioski o zasiłek mieszkaniowy system uznał za obarczone wysokim ryzykiem, a dokonanie ponownej ich oceny kosztowało Skarb Państwa 4,4 mln funtów.

Organizacja charytatywna Turn2us, która wspiera osoby korzystające ze świadczeń socjalnych, nie ma wątpliwości, że w świetle takich faktów nadszedł czas, aby rząd „ściślej współpracował z rzeczywistymi użytkownikami [świadczeń]”. I że „automatyzacja musi działać na korzyść ludzi, a nie przeciwko nim”.

Autorstwo: Marek Piotrowski
Źródło: PolishExpress.co.uk


TAGI: , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

6 komentarzy

  1. Baltazar Bombka 24.06.2024 10:20

    No i macie EjAj. A co jak oddacie sztucznej głupocie cały proces decyzyjny? Kto to będzie weryfikował? Komu się będzie odwoływał? Coś mi się widzi, że z tym całym EjAj to się skończy jak z samochodami elektrycznymi. Do kosza.

  2. emigrant001 24.06.2024 10:31

    AI zareagowało tak jak zostało zaprogramowane tylko człowiek powiedział – sprawdzam.

  3. MasaKalambura 24.06.2024 11:33

    Nie ma w artykule mowy o AI, tylko błędnym algorytmie. Źle ułożonym formularzu, błędnie zestawiającym dane i źle wyliczającym ryzyko.

    Głośniejszym był niedawny skandal w ich służbie zdrowia korzystającej z prymitywnego AI typującego urzędników ichniej służby zdrowia jako podejrzanych o malwersacje. Kilku osobom zrujnowało to kariery, kilka popełniło samobójstwo. Sprawa błędnego oprogramowania długo była ukrywana bo poszły grube miliony na stworzenie i zakup tego oprogramowania. Widać chodzenie na łatwiznę w urzędach GB wciąż trwa.

  4. Foxi 24.06.2024 12:11

    AI zrobiła to co ktoś wcześniej zaprogramował. Jakiś obrzydliwy urzędnik to wymyślił w ramach “taniego państwa” Jak się wydało, a to było oczywiste że się taka akcja posypie, to zwalili winę na na współczesną czarownice, że się krzywo popatrzyła w papiery no i mleko się od tego skwasiło. Stary numer praktykowany od setek lat tylko teraz mają nowe obiekty na które mogą zrzucić swoje winy.

  5. rici 24.06.2024 12:48

    AI, to podobno bog- przynajmniej dla niektorych tu.
    Wiec teraz bedzie wszystko wina boga.

  6. Romeo 24.06.2024 14:17

    @rici – nigdy nie było inaczej. Winni zawsze są inni.
    A gdzie znajdziesz lepszego kozła ofiarnego, od Boga?
    Poza tym – Jego zwyczajnie nie ma. Albo bawi się z nami w chowanego.
    Tak – z pewnością, jak nas pochowają, to sie objawi.
    Lepiej niech ma dobry powód dla wytłumaczenia swojej przez całe nasze życie nieobecności.
    Bo nie skończy się na jednym klapsie.
    Jeśli kogoś interesuje AI – obejrzyjcie na YT rozmowę z profesorem Andrzejem Draganem – w This is IT Kaweckiego, z Dukajem, albo gdzieś z Duchem, Petrosem Psyllosem.
    Uwaga, spoiler: AI nie potrzebuje człowieka do tworzenia algorytmów, wystarczy, że człowiek komunikatywnie – werbalnie, oralnie, pozajelitowo, drukiem – przedstawi, co jest zamierzanym celem, AI sama wali algorytmy, a panowie naukowcy nie mają w ogóle pojęcia jakie kryteria się na nie składają i jak AI doszła do tego, że ma być jak jest.
    Ale – póki jest dobrze, to: jest dobrze.
    Potrzebna jest dobra komunikacja w oparciu o prawidłowo używane w niej słowa.
    Na razie, jeszcze, jest potrzebna.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.