AI „czyta w myślach” i przewiduje, co zrobią ludzie

Opublikowano: 10.07.2025 | Kategorie: Nauka i technika, Publikacje WM, Telekomunikacja i komputery, Wiadomości ze świata

Liczba wyświetleń: 393

„To nowy przełom, ale dopiero początek. Badacze opublikowali zmodyfikowaną AI (sztuczną inteligencją) oraz dane treningowe. Oznacza to, że może ona zostać szybko zintegrowana (i ulepszona) we wszystkich modelach predykcyjnych AI, takich jak Gotham od Palantira. Inne nieudane oprogramowania do przewidywania przestępstw przeżyją swój renesans. Firmy marketingowe, takie jak Google czy Amazon, odniosą wielkie sukcesy dzięki nowym predykcyjnym metrykom” – pisze Patrick Wood, redaktor „Technokracy News & Trends”.

System sztucznej inteligencji potrafi przewidzieć Twój kolejny krok, zanim go wykonasz. Nie chodzi tylko o to, czy klikniesz „Kup teraz” w koszyku Amazona, ale o to, jak podejmujesz złożone decyzje, uczysz się nowych umiejętności lub wkraczasz na nieznane terytorium.

Naukowcy opracowali AI o nazwie Centaur, która precyzyjnie przewiduje ludzkie zachowanie w niemal każdym eksperymencie psychologicznym. Przewyższa nawet wyspecjalizowane modele komputerowe, których naukowcy używali od dekad. Centaur został przeszkolony na danych od ponad 60 000 osób, które podjęły ponad 10 milionów decyzji. System ten wychwytuje podstawowe wzorce naszego myślenia, uczenia się i podejmowania decyzji. „Ludzki umysł jest niezwykle wszechstronny” – piszą badacze w swojej publikacji w „Nature”. „Nie tylko rutynowo podejmujemy codzienne decyzje, takie jak wybór płatków śniadaniowych czy stroju, ale także stawiamy czoła złożonym wyzwaniom, jak odkrycie leku na raka czy eksploracja kosmosu”. AI, która naprawdę rozumie ludzkie poznanie, może zrewolucjonizować marketing, edukację, leczenie zdrowia psychicznego i projektowanie produktów. Jednak rodzi też niepokojące pytania dotyczące prywatności i manipulacji – nasze cyfrowe ślady zdradzają o nas więcej niż kiedykolwiek wcześniej.

Zespół badawczy postawił sobie ambitny cel: opracowanie jednego modelu SI, który będzie w stanie przewidzieć ludzkie zachowanie w każdym eksperymencie psychologicznym. Ich podejście było zaskakująco proste, choć wymagało ogromnego wysiłku. Naukowcy stworzyli zbiór danych o nazwie Psych-101, obejmujący 160 eksperymentów dotyczących testów pamięci, gier edukacyjnych, scenariuszy ryzyka i dylematów moralnych. Każdy eksperyment został przetłumaczony na proste opisy w języku angielskim, zrozumiałe dla AI.

Zamiast budować zupełnie nowy model, badacze wykorzystali model językowy Llama 3.1 od Meta (ten sam, na którym opiera się ChatGPT) i przeszkolili go specjalnie w zakresie ludzkich zachowań. Wykorzystali technikę, która zmienia tylko niewielką część systemu AI, pozostawiając większość modelu bez zmian. Cały proces treningowy trwał zaledwie pięć dni na wysokiej klasy procesorze komputerowym.

W testach Centaur wyraźnie pokonał konkurencję. W bezpośrednim porównaniu z wyspecjalizowanymi modelami kognitywnymi, nad którymi naukowcy pracowali przez dekady, Centaur wypadł lepiej w niemal każdym eksperymencie. Prawdziwy przełom osiągnięto, gdy Centaur testowano w zupełnie nowych scenariuszach. AI skutecznie przewidywała ludzkie zachowanie, nawet gdy zmieniono przebieg eksperymentu (np. kosmiczna poszukiwanie skarbów zmieniono na przygodę na latającym dywanie), zmodyfikowano strukturę (np. wprowadzając trzecią opcję wyboru) lub wprowadzono zupełnie nowe dziedziny (np. myślenie logiczne, którego nie było w danych treningowych). Centaur potrafił również generować realistyczne, podobne do ludzkich zachowanie w symulacjach. W teście strategii eksploracyjnych AI osiągnęła wyniki zbliżone do prawdziwych ludzkich uczestników – wykazując ten sam rodzaj podejmowania decyzji kierowanego niepewnością, typowy dla ludzi.

Szczególnie zaskakującym odkryciem było to, że wewnętrzne procesy Centaura lepiej korespondują z aktywnością ludzkiego mózgu – mimo że nie był on na to explicite trenowany. Gdy badacze porównali wzorce aktywności AI ze skanami mózgu ludzi wykonujących te same zadania, zauważyli silniejsze korelacje, niż w przypadku oryginalnego, nieprzeszkolonego modelu. Nauka ludzkich zachowań decyzyjnych zmusiła Centaura do rozwinięcia wewnętrznych reprezentacji, które przypominają rzeczywiste przetwarzanie informacji w ludzkim mózgu. AI w zasadzie zrekonstruowała aspekty ludzkiego poznania, obserwując nasze decyzje.

Zespół badawczy pokazał również, jak Centaur może przyczynić się do odkryć naukowych. AI przeanalizowała wzorce ludzkich zachowań i odkryła nową strategię podejmowania decyzji, która przewyższyła dotychczasowe teorie psychologiczne. „Stworzyliśmy narzędzie, które pozwala przewidzieć ludzkie zachowanie w każdej sytuacji opisanej w języku naturalnym – jak w wirtualnym laboratorium” – wyjaśnił główny autor, Marcel Binz.

Te badania to ogromny krok naprzód, ale to dopiero początek. Obecna wersja koncentruje się głównie na uczeniu się i podejmowaniu decyzji, podczas gdy inne obszary – jak psychologia społeczna czy różnice międzykulturowe – są jak dotąd słabo reprezentowane. Ponadto zbiór danych opiera się głównie na zachodnich, wykształconych grupach populacji – co jest częstym problemem w badaniach psychologicznych.

Zespół planuje rozszerzyć zbiór danych o bardziej zróżnicowane grupy populacji i dziedziny kognitywne. Celem jest stworzenie kompleksowego modelu, który mógłby służyć jako jednolita teoria ludzkiego poznania. Zarówno zbiór danych, jak i model zostały udostępnione publicznie, aby inni badacze mogli na nich budować. „Łączymy badania nad AI z teorią psychologiczną – z wyraźnym zaangażowaniem etycznym” – podkreśla Binz. „W publicznym środowisku badawczym mamy swobodę zgłębiania fundamentalnych pytań kognitywnych, które często nie są priorytetem w przemyśle”.

Po raz pierwszy mamy sztuczny system, który przewiduje ludzkie zachowanie w całym spektrum badań psychologicznych z niespotykaną dotąd dokładnością. To, czy ta innowacja wzbudzi entuzjazm, czy niepokój, zależy prawdopodobnie od tego, jak skutecznie zapewnimy odpowiedzialne wykorzystanie tych narzędzi w przyszłości.

Autorstwo: Patrick Wood
Źródło zagraniczne: Technocracy.News
Źródło polskie: WolneMedia.net

image_pdfimage_print

TAGI: , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć „Wolne Media” finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy autorów i użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji „Wolnych Mediów”. Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne TUTAJ, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym e-mailem.

1 wypowiedź

  1. Antares 10.07.2025 20:02

    Zabawne są dla mnie artykuły propagandowe na temat AI, podczas gdy ta sama AI ma problemy z odróżnieniem drogi od trawy i człowieka od słonia, a także myli się w podstawowych operacjach matematycznych. W tv we wiadomościach chwalą się często osiągnięciami AI w łapaniu ludzi, rozpoznawaniu przestępców – może nawet tylko potencjalnych (np. przez analizę wzorców ich ruchów i zachowań nagranych przez monitoring miejski) itp. Te naciągane wiadomości mają głównie jeden cel: zastraszać społeczeństwo.
    Banki i inne instytucje używają do celów predykcyjnych różnych analitycznych systemów, automatycznie szacujących klientów od długiego czasu, i model chata gpt niewiele tu zmieni. Nie dajcie się nabrać na ten globalny marketing.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.