Farma programistów zamiast AI

Opublikowano: 14.06.2025 | Kategorie: Gospodarka, Telekomunikacja i komputery, Wiadomości ze świata

Liczba wyświetleń: 489

Brytyjski start-up Builder.ai, którego wycena jeszcze niedawno przekraczała 1,5 miliarda dolarów, ogłosił upadłość. Okazało się, że rzekomo przełomowa technologia sztucznej inteligencji była w rzeczywistości fasadą, za którą kryli się nisko opłacani programiści z Indii. Szokujące praktyki i oszustwo brytyjskiej firmy kładzie duży cień na nowoczesne technologie.

Jeszcze rok temu Builder.ai uchodził za jedno z najbardziej obiecujących przedsięwzięć w branży AI. Firma miała umożliwiać tworzenie aplikacji mobilnych i webowych za pomocą tzw. asystenta AI. Ten analizował potrzeby klienta i niemal automatycznie dostarczał gotowy produkt. Z rozwiązania korzystały setki klientów. Natomiast start-up przyciągnął inwestycje od gigantów takich jak Microsoft, Amazon Web Services oraz katarski fundusz państwowy QIA.

W maju 2025 r. firma ogłosiła niewypłacalność. Natomiast informacje ujawnione przez dziennikarzy „The Information” i inne media branżowe ujawniły skalę nadużyć.

Filarem firmy była. Natasha. Inteligentny system, który w rozmowie z klientem rozpoznaje potrzeby, projektuje strukturę aplikacji, a następnie samodzielnie generuje kod. W rzeczywistości, jak się okazało, żadna przełomowa sztuczna inteligencja nie istniała.

Klienci kontaktowali się z interfejsem przypominającym chatbot. Jednak za każdą interakcją stał człowiek. Konkretnie pracownicy działu operacyjnego w Indiach. Tam również zatrudniano programistów, którzy ręcznie pisali kod aplikacji rzekomo generowanych przez AI. Według śledztwa, Builder.ai zatrudniał co najmniej 700 pracowników w Indiach. Pełnili oni funkcję „żywej inteligencji”. Mówiąc wprost, ich zadaniem było tworzenie iluzji pełnej automatyzacji. Szokujące oszustwo brytyjskiej firmy ma drugie dno. Ponieważ zatrudniani programiści byli bardzo źle opłacani i traktowani. Nagminnie łamane było prawo pracy. Stres i nadgodziny były na porządku dziennym. Pracownicy w Indiach otrzymywali niskie wynagrodzenia, często bez gwarancji zatrudnienia, a presja czasowa i brak przejrzystości zarządczej były normą.

Cały model działania był więc zaprzeczeniem tego, co firma deklarowała w materiałach promocyjnych i ofertach dla klientów.

Nieprawdziwe były nie tylko deklaracje technologiczne, ale również dane finansowe. Audyt wykazał zawyżanie przychodów (nawet czterokrotnie). Wykazał tworzenie fikcyjnych klientów oraz manipulowanie wewnętrznymi danymi, które miały przekonać inwestorów do kolejnych rund finansowania.

Builder.ai wielokrotnie powtarzał w komunikatach, że ma setki aktywnych, powracających klientów, a technologia zdobywa uznanie na całym świecie. W rzeczywistości duża część projektów była niedokończona. Wiele zamówień opierało się na prowizorycznych rozwiązaniach manualnych. Oszustwo brytyjskiej firmy z Londynu miało zatem wiele płaszczyzn.

Firma regularnie prezentowała zaniżone koszty operacyjne i zawyżone marże. Ukrywała fakt, że model działania opierał się na ogromnej liczbie ręcznych godzin pracy.

Builder.ai stał się dziś symbolem zjawiska określanego jako AI-washing – celowego przedstawiania tradycyjnych usług jako efektu działania sztucznej inteligencji. Takie praktyki nie tylko wprowadzają w błąd klientów i inwestorów, ale również szkodzą całej branży. Podważają zaufanie do rzeczywistych innowacji.

Zastanawiające jest również to, jak to możliwe, że renomowani inwestorzy – w tym Microsoft, Amazon i QIA – nie dostrzegli nieprawidłowości. Pytania o jakość audytów, przejrzystość procesów inwestycyjnych oraz ewentualne zaniedbania nadzorcze stawiane są coraz częściej przez analityków branżowych.

Do dziś nie wiadomo, czy inwestorzy podejmą kroki prawne przeciwko byłemu zarządowi firmy, w tym założycielowi i CEO Sachinowi Dev Duggalowi. To on był twarzą start-upu i regularnie występował w mediach jako promotor etycznego i inkluzywnego rozwoju technologii.

Wraz z ogłoszeniem upadłości pracę z dnia na dzień straciło ponad 1000 osób, w tym wielu pracowników londyńskiego biura. W Indiach dziesiątki programistów pozostawiono bez wynagrodzenia za ostatnie miesiące pracy.

Teraz czas na postępowanie wyjaśniające. Równocześnie pojawiają się głosy wzywające do wprowadzenia jasnych regulacji dotyczących oznaczania usług jako „opartych na sztucznej inteligencji”.

Sprawa Builder.ai może okazać się punktem zwrotnym w dyskusji o odpowiedzialności etycznej firm technologicznych. Konieczności weryfikacji faktycznego działania rozwiązań AI przed dopuszczeniem ich do obrotu rynkowego.

Oszustwo brytyjskiej firmy z Londynu pokazuje, jak łatwo dziś stworzyć iluzję technologicznego przełomu w oparciu o modny termin „AI”. W rzeczywistości za wielomilionowymi inwestycjami, prestiżowymi nagrodami i medialnym rozgłosem stał model przypominający klasyczne outsourcowanie usług IT. Z tym że ukryte za kurtyną rzekomej automatyzacji. I opłacony ciężkim losem setek ludzi.

Autorstwo: Joanna Baran
Źródło: PolishExpress.co.uk

image_pdfimage_print

TAGI: ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć „Wolne Media” finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji „Wolnych Mediów”. Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.