Liczba wyświetleń: 1553
Nawet 200 000 gospodarstw domowych w Wielkiej Brytanii zostało niesłusznie posądzonych o próbę wyłudzenia zasiłku mieszkaniowego. Wszystkiemu winny był błędny algorytm.
Błędy w algorytmie powodem niesłusznych podejrzeń względem brytyjskich rodzin
Departament ds. Pracy i Emerytur (ang. Department for Work and Pensions, DWP) rozpoczął kilkaset tysięcy postępowań przeciwko rodzinom w UK, podejrzewając je o próbę wyłudzenia zasiłku mieszkaniowego housing benefit. Okazuje się jednak, że w ciągu ostatnich trzech lat dwie trzecie takich postępowań, około 200 000, nie miało żadnych podstaw. Za błędy w typowaniu gospodarstw domowych do weryfikacji odpowiedzialny był błędnie działający algorytm.
„Nadmierne poleganie DWP na nowych technologiach wyrzuciło prawa osób, które często już są w niekorzystnej sytuacji finansowej, które są marginalizowane i bezbronne, na tylne siedzenie” – podsumowała całą sytuację organizacja Big Brother Watch, która przeanalizowała dane w ramach dostępu do informacji publicznej.
Przez błędy w algorytmie tysiące brytyjskich gospodarstw domowych poddanych zostało zupełnie niepotrzebnej weryfikacji. Ich wnioski o zasiłek mieszkaniowy system uznał za obarczone wysokim ryzykiem, a dokonanie ponownej ich oceny kosztowało Skarb Państwa 4,4 mln funtów.
Organizacja charytatywna Turn2us, która wspiera osoby korzystające ze świadczeń socjalnych, nie ma wątpliwości, że w świetle takich faktów nadszedł czas, aby rząd „ściślej współpracował z rzeczywistymi użytkownikami [świadczeń]”. I że „automatyzacja musi działać na korzyść ludzi, a nie przeciwko nim”.
Autorstwo: Marek Piotrowski
Źródło: PolishExpress.co.uk
No i macie EjAj. A co jak oddacie sztucznej głupocie cały proces decyzyjny? Kto to będzie weryfikował? Komu się będzie odwoływał? Coś mi się widzi, że z tym całym EjAj to się skończy jak z samochodami elektrycznymi. Do kosza.
AI zareagowało tak jak zostało zaprogramowane tylko człowiek powiedział – sprawdzam.
Nie ma w artykule mowy o AI, tylko błędnym algorytmie. Źle ułożonym formularzu, błędnie zestawiającym dane i źle wyliczającym ryzyko.
Głośniejszym był niedawny skandal w ich służbie zdrowia korzystającej z prymitywnego AI typującego urzędników ichniej służby zdrowia jako podejrzanych o malwersacje. Kilku osobom zrujnowało to kariery, kilka popełniło samobójstwo. Sprawa błędnego oprogramowania długo była ukrywana bo poszły grube miliony na stworzenie i zakup tego oprogramowania. Widać chodzenie na łatwiznę w urzędach GB wciąż trwa.
AI zrobiła to co ktoś wcześniej zaprogramował. Jakiś obrzydliwy urzędnik to wymyślił w ramach „taniego państwa” Jak się wydało, a to było oczywiste że się taka akcja posypie, to zwalili winę na na współczesną czarownice, że się krzywo popatrzyła w papiery no i mleko się od tego skwasiło. Stary numer praktykowany od setek lat tylko teraz mają nowe obiekty na które mogą zrzucić swoje winy.
AI, to podobno bog- przynajmniej dla niektorych tu.
Wiec teraz bedzie wszystko wina boga.
@rici – nigdy nie było inaczej. Winni zawsze są inni.
A gdzie znajdziesz lepszego kozła ofiarnego, od Boga?
Poza tym – Jego zwyczajnie nie ma. Albo bawi się z nami w chowanego.
Tak – z pewnością, jak nas pochowają, to sie objawi.
Lepiej niech ma dobry powód dla wytłumaczenia swojej przez całe nasze życie nieobecności.
Bo nie skończy się na jednym klapsie.
Jeśli kogoś interesuje AI – obejrzyjcie na YT rozmowę z profesorem Andrzejem Draganem – w This is IT Kaweckiego, z Dukajem, albo gdzieś z Duchem, Petrosem Psyllosem.
Uwaga, spoiler: AI nie potrzebuje człowieka do tworzenia algorytmów, wystarczy, że człowiek komunikatywnie – werbalnie, oralnie, pozajelitowo, drukiem – przedstawi, co jest zamierzanym celem, AI sama wali algorytmy, a panowie naukowcy nie mają w ogóle pojęcia jakie kryteria się na nie składają i jak AI doszła do tego, że ma być jak jest.
Ale – póki jest dobrze, to: jest dobrze.
Potrzebna jest dobra komunikacja w oparciu o prawidłowo używane w niej słowa.
Na razie, jeszcze, jest potrzebna.