Sztuczna inteligencja działa tak dobrze, jak dobrze wytrenował i zaprogramował ją człowiek. System wytrenowany na niekompletnych zbiorach danych będzie „rozumiał” tylko fragment rzeczywistości. A jeśli damy mu, jako pożywkę, historyczne dane (np. z rekrutacji, która preferowała mężczyzn) powieli schematy, jakich się od nas – ludzi – nauczył. Dlatego systemy AI, jeśli w ogóle mają oceniać ludzi, powinny być nadzorowane i testowane. W tym roku Unia Europejska pracuje nad aktem o sztucznej inteligencji, który ma zwiększyć zaufanie do technologii, a jednocześnie wspierać rozwój innowacji. W najbliższych miesiącach Bruksela rozstrzygnie, co w świecie AI będzie prawnie uregulowane (być może nawet zakazane), a co „ureguluje” (bądź nie…) sam rynek. O nowym pomyśle UE rozmawiamy z dr. Michałem Nowakowskim – prawnikiem, ale też praktykiem (zarządza start-upem, w którym wdraża etyczne rozwiązania oparte na AI) i naukowcem (współpracuje min ze śląskim Centrum Inżynierii Prawa, Technologii i Kompetencji Cyfrowych).
Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!
Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.