W matematyce AI osiągnie możliwości nadludzkie

Opublikowano: 12.11.2024 | Kategorie: Nauka i technika, Publicystyka

Liczba wyświetleń: 1278

Matematyka, informatyka teoretyczna, programowanie – to dziedziny nauki, w których AI jako pierwsza będzie skutecznie wspierać naukowców. Kwestią czasu jest, kiedy osiągnie tam możliwości nadludzkie – ocenia w rozmowie z PAP prof. Piotr Sankowski. Prof. Sankowski – laureat 4 grantów ERC – jest fizykiem i informatykiem z Uniwersytetu Warszawskiego, twórcą instytutu IDEAS NCBR, gdzie prowadzone są badania nad sztuczną inteligencją. Jest też zaangażowany także w spółki MIM.AI i MIM Fertility.

– Nauka po pojawieniu się AI już nigdy nie będzie wyglądała tak samo.

– Spodziewam się, że naukowcy używający sztucznej inteligencji zastąpią tych, którzy jej nie używają. W zależności od dziedziny badań będzie to następowało w różnym czasie. Prawdopodobnie jednak najszybciej dojdzie do tego w abstrakcyjnych dziedzinach badań, gdzie do wyników badań nie potrzebujemy wiedzy o tym, jak działa świat – np. w informatyce teoretycznej, programowaniu. Wydaje mi się jednak, że dziedziną badań, na którą sztuczna inteligencja będzie miała największy wpływ – jest matematyka. Ta dziedzina istnieje bez konieczności interakcji ze światem fizycznym. Niepotrzebna jest wiedza z badań eksperymentalnych. Już widać, że AlphaGeometry jest w stanie rozwiązać równania na poziomie srebrnego medalisty olimpiady międzynarodowej. Podobnie model o1 Open AI był testowany na danych z konkursów informatycznych i radzi sobie z zadaniami lepiej niż większość zawodników. To wiedza specjalistyczna, w której nawet zawodowy matematyk bez przygotowania będzie miał trudności, aby zdobyć medal. Pojawiają się już więc pierwsze dziedziny, gdzie modele osiągają poziom taki, jak specjaliści. Nie mówimy już o tym, że model AI konkuruje z przeciętnym człowiekiem, ale ma umiejętności, w których jest tak dobry, jak ekspert. Kolejnym krokiem jest osiągnięcie w którejś z dziedzin nauki umiejętności nadludzkich. W niektórych dziedzinach wiedzy staje się to już możliwe.

– A co z dziedzinami, w których prowadzi się tradycyjne eksperymenty?

– Tam korzystanie z AI jest o tyle trudniejsze, że wiedzę dopiero trzeba wprowadzić do systemu. I tak np. AI nie za dobrze radzi sobie z fizyką – bo tam, żeby odkryć coś nowego, trzeba mieć ogromną wiedzę o tym, jak działa świat. A my tej wiedzy jeszcze nie skodyfikowaliśmy, nie uczyniliśmy jej dostępnej dla modeli sztucznej inteligencji. Podobnie jest w chemii.

– Zespół prof. Bartosza Grzybowskiego opracował programy Allchemy czy Chematica do stymulowania reakcji chemicznych. I nieźle na tym wychodzi.

– Dlatego postęp w AI w takich dziedzinach jak chemia też będzie widoczny. Będzie jednak wolniejszy niż w badaniach abstrakcyjnych.

– Program AI Scientist wymyśla, opracowuje i pisze prace naukowe na średnim poziomie z zakresu Machine Learningu za 15 dol. Skoro tyle zajęć w pracy naukowca już teraz zastępuje sztuczna inteligencja – może trzeba się zastanowić, jak lepiej wykorzystać potencjał i czas naukowców?

– Był taki duży eksperyment, gdzie poproszono naukowców oraz AI o pomysły na nowe badania. Oceniano, że AI wymyśla je lepiej niż naukowcy. I rzeczywiście – AI będzie np. pomocą przy pisaniu wniosków grantowych. Na razie jednak nie można jej użyć przy ich ocenie. Trudno też przewidzieć, jak zmieni się komunikacja naukowa, ale procesy zmiany sposobu funkcjonowania nauki trwają.

– Czy naukowcom przystoi wyręczać pracę swojej naturalnej inteligencji – pracą tej sztucznej?

– Warto się wspierać AI w niektórych zadaniach, bo ona jest kreatywna. Naukowcy używający AI mogą pracować lepiej, szybciej, wydajniej. I nie należy się tego wstydzić – tak jak nie wstydzimy się tego, że jeździmy samochodem, a nie chodzimy pieszo. Nie wstydźmy się, że dzięki AI będziemy w stanie prowadzić bardziej innowacyjne badania. Pozostaną też naukowcy, którzy nie będą korzystać z AI – tak jak dziś są osoby, które nie używają telefonów albo piszą na maszynie do pisania. Ale to nie będzie mainstream nauki. To będzie element zanikający.

– W tym roku aż dwa Noble dotyczyły badań nad sztuczną inteligencją. Doceniono twórców AlphaFold (chemia) i pomysłodawców sztucznych sieci neuronowych (fizyka). Jakie kolejne programy AI mogą przynieść rewolucję w nauce i warto je zapamiętać? Wspomniał pan o AlphaGeometry. Na coś jeszcze zwrócić uwagę?

– Trudno to przewidzieć. AI będzie rozwijała się horyzontalnie i dotknie każdej innowacji, technologii i wszystkich dziedzin badań. A sztuczna inteligencja będzie coraz bardziej interdyscyplinarna. Coraz większe będzie też choćby znaczenie AI w dziedzinach takich, jak medycyna, etyka, prawo.

– AI tworzone jest przez inżynierów, przedstawicieli nauk ścisłych. Czy w rozterkach nad rozwojem technologii powinniśmy też dać głos przedstawicielom nauk humanistycznych i społecznych: etyki, filozofii, socjologii, psychologii?

– Tak. Prawa dotyczące sztucznej inteligencji powinniśmy stanowić nie w oderwaniu od etyki. A jeśli chodzi o nauki prawne, to trzeba np. spowodować, żeby ustawodawstwo było zrozumiałe dla informatyków.

– Na zmiany w której dziedzinie nauki najbardziej pan czeka?

– Staram się zajmować czymś na przecięciu teorii ciała stałego i AI. Używam modeli generatywnych, by badać właściwości fizyczne materiałów. I tak np. napisaliśmy ostatnio pracę na temat modelu generującego struktury krystaliczne stopów metali o wysokiej entropii. To badania na pograniczu wiedzy o sztucznej inteligencji i wiedzy o strukturach krystalicznych.

– A z jakiego projektu dotyczącego AI, który prowadził pan w swojej karierze, jest pan najbardziej dumny?

– Zawsze bardzo mi się podobały projekty na przecięciu tematów sprawiedliwości społecznej i sztucznej inteligencji. Napisałem kiedyś kilka prac, w których badałem, jak optymalizować system pod kątem braku zazdrości między uczestnikami transakcji. To jedna z możliwości definiowania sprawiedliwości społecznej. Rozdzielaliśmy pewne dobra między użytkowników i chodziło o to, żeby na koniec procesu nikt sobie nawzajem nie zazdrościł – a więc wolał to, co miał sam, od tego, co mieli inni. Da się napisać algorytm, który to wylicza, i go zoptymalizować. Żałuję, że nie zrobiłem więcej takich badań.

– Co pan bada w ramach swojego projektu ERC?

– Projekt EXALT dotyczy wyjaśnialności algorytmów. Taka wyjaśnialność klasycznej AI dotyczy algorytmów, których nie umiemy naukowo udowodnić. Tymczasem głównym zadaniem projektu jest opracowanie takich algorytmów optymalizacyjnych, które nie opierają się ściśle na działaniu AI, ale też działają dobrze, a w dodatku możemy wyjaśnić użytkownikom, że algorytm rzeczywiście podjął najlepszą możliwą decyzję.

– Ten grant realizował pan w IDEAS NCBR. Ale po kontrowersyjnym wyniku konkursu na dyrektora – odszedł pan stamtąd. Co się stanie z projektem?

– Prawdopodobnie przeniosę go do mojej firmy MIM.AI. Głównym wyzwaniem są jednak projekty, które składaliśmy do instytucji finansujących, a których miałem być kierownikiem. One są złożone, czekają na ocenę i nie wiadomo, co z nimi będzie.

– Pracuje pan jako naukowiec, ale i praktyk – wdraża pan rozwiązania związane z AI. Jak pan myśli o polskiej gospodarce, jeśli chodzi o inwestowanie w AI? Czy pociąg ze sztuczną inteligencją już nam w Polsce nie odjechał?

– Szansa nigdy nie zniknie. Jeszcze możemy inwestować w AI, starać się, walczyć. Pewnych rozwiązań, które już powstały, nie warto jednak powielać. Warto się za to zastanowić, co jeszcze możemy zrobić. Kluczowe są w tym wszystkim talenty ludzkie. A je mamy, jeśli chodzi o informatykę. A my jesteśmy w dobrej sytuacji, żeby temat potraktować poważnie i zacząć inwestować.

Z prof. Piotrem Sankowskim rozmawiała Ludwika Tomala z PAP
Źródło: NaukawPolsce.pl

image_pdfimage_print

TAGI: , ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

1 wypowiedź

  1. Rysa 12.11.2024 21:39

    Jak każdy użytkownik netu korzystam z podstawowych usług AI (Google) w nim świadczonych (tłumaczenia, definicje, dane statystyczne, bardziej złożone problemy techniczne, etc.) w charakterze pomocniczym.
    Czynności te wykonuję praktycznie intuicyjnie albowiem posiadając dosyć dużą wiedzę ogólną, nie odczuwam potrzeby wnikania w szczegóły i formę działania AI. I sądzę, że tak czyni większa część użytkowników netu.
    Ostatnio (10 bm) na blogu https://zygmuntbialas.wordpress.com spotkałem się z rewelacyjnym artykułem @Zapluty Karzeł Reakcji (dalej skrót ZKR) gdzie w najprostszy sposób wprowadza on czytelnika w elementy działania SI porządkując je i pokazując jakie są możliwości i ograniczenia na obecnym etapie jej rozwoju. Wyróżnionym drukiem podaję poniżej jego podstawową klasyfikację etapów rozwoju AI
    jak i wypowiedzi komentatorów, równocześnie jako uczestnik tej dyskusji pozwalam sobie wkleić po niewielkiej modyfikacji moje ustosunkowanie się do tego problemu.
    AI (Artificial Intelligence)
    Obecna, popularna AI. Przeznaczona do wykonywania konkretnych zadań, jak rozpoznawanie głosu, analiza obrazu, tworzenie tekstów itp. Obecna już niemal wszędzie. Począwszy od czatów, centrach udzielania informacji, pełnienia roli pomocnika w rozmaitych zadaniach, na flirtowaniu skończywszy. Łudząco symuluje ludzką inteligencję, ale niczego nie rozumie, nie potrafi wnioskować, ani uczyć się w czasie rzeczywistym.
    AGI (Artificial General Intelligence)
    Kolejny krok w rozwoju AI. Zakłada zdolności intelektualne równe ludzkim. Brzmi niegroźnie, ale to poważna sprawa. Sztuczna inteligencja, która w każdej dziedzinie jest ekspertem najwyższej klasy, z doskonałą pamięcią, zdolnością do wyciągania wniosków, nieustanną nauką. Warunkiem zasadniczym jest zdolność do rozpoznawania prawdy i fałszu oraz duża lub pełna autonomia.
    ASI (Artificial Superintelligence)
    Ma przewyższać ludzką inteligencję w każdym obszarze, co w praktyce, byłoby stworzeniem ‚sztucznego boga’. Nie będziemy w stanie nawet zrozumieć jej poczynań. W tej chwili, spekulacje na temat ASI, są czystą fikcją, dlatego nie będę poświęcał czasu temu zagadnieniu

    W dyskusji komentatorów wystąpiły wystąpiły różne stanowiska co do tego tematu.

    Jak pisze @Pertynaks A jeśli zechcę się dowiedzieć o czymś, co mnie zainteresuje, poszukam w necie lub książkach informacji konkretnych i obszernych albo krótkich lecz treściwych, zależnie od tego, co to będzie. Na pewno nie będę rozmawiał o tym ze sztucznym tworem. Tym bardziej, że jestem tzw. samoukiem i interesującą mnie wiedzę wolę zdobywać samodzielnie, wertując materiały na dany temat i stopniowo przyswajając sobie coraz trudniejsze zagadnienia. Mimo, ze w swojej wypowiedzi częściowo zaprzecza sam sobie, ponieważ szukając w necie wiedzy o danym temacie dostaje ją od AI, podzielam jego pogląd, iż wiedzę należy zdobywać samodzielnie począwszy od podstaw.
    Taki proces kształcenia daje możliwość rozwijania zasady „przyczyna-skutek” i po drodze szukania związków otrzymanych skutków z innymi podobnymi otrzymanymi na wskutek innych przyczyn.
    Pozwala to „inteligencji ludzkiej” na wszechstronny rozwój w sposób holistyczny w różnych kontekstach i umożliwia w przypadku wystąpienia nowego problemu (przyczyny) wnioskowanie w sposób inny, odmienny od dotąd spotykanych. AI tego nie potrafi, czyli jak pisze @ZKR: Łudząco symuluje ludzką inteligencję, ale niczego nie rozumie, nie potrafi wnioskować, ani uczyć się w czasie rzeczywistym.
    Przyczyną wg mnie jest zbyt specjalistyczne (wąskie) dostarczanie jej wiedzy o danym problemie (przyczynie) na dodatek jeszcze obarczonej błędem jej twórcy (programisty).
    Przykładem są fakty braku umiejętności rozwiązania niektórych problemów techniczno- inżynieryjnych czy organizacyjnych przez osoby kształcone obecną metodą, gdzie wiedza podawana jest w sposób skondensowany, bez szczegółów wynikających z drogi jej rozwoju.
    Postawieni w ich miejscu inżynierowie wykształceni starą metodą potrafili znaleźć (wywnioskować) inne sprawdzające się rozwiązanie.
    Konkluzją z powyższego dla mnie jest fakt, że obecna AI może służyć jako szybka i obszerna baza danych, wzorów rozwiązań (jak np. tablice matematyczne) czyli baza pomocnicza.
    Oparcie edukacji, a więc rozwoju ludzkiej inteligencji na niej może zaprowadzić nas w ślepy zaułek kiedy to będziemy mieli naprodukowane multum doktorów, magistrów i inżynierów potrafiących tylko funkcjonować jako bierni wykonawcy poleceń.

    Próbując pospekulować na temat kolejnego kroku na temat rozwoju AI faktycznie jest tak jak Pan @ZKR pisze: Zakłada zdolności intelektualne równe ludzkim. Brzmi niegroźnie, ale to poważna sprawa. Sztuczna inteligencja, która w każdej dziedzinie jest ekspertem najwyższej klasy, z doskonałą pamięcią, zdolnością do wyciągania wniosków, nieustanną nauką. Warunkiem zasadniczym jest zdolność do rozpoznawania prawdy i fałszu oraz duża lub pełna autonomia.
    Zajmijmy się warunkiem zasadniczym jakim jest rozpoznawanie prawdy i fałszu. Wchodzimy tutaj w pole rozważań filozoficznych czym jest „prawda”, a zwłaszcza „obiektywna prawda”.
    1) dla każdego człowieka prawda jest trochę inna, jest bowiem uwarunkowana jego cechami
    charakteru jak i mentalnymi, posiadanymi zdolnościami rozwoju, możliwościami twórczymi,
    zdolnościami koncyliacyjnymi (umiejętnością współdziałania), prerogatywami (motywami)
    którymi kieruje się w życiu, etc.
    2) dla każdej grupy etnicznej, społecznej, religijnej, narodowej czy polityczno-klasowej, biorąc pod
    uwagę aktualny stan cywilizacyjny ludzkości prawda jest praktycznie nie do określenia zależy
    bowiem od zbyt wielu czynników motywujących ich funkcjonalne działanie i rozwój.
    Pisze Pan ZKR Wbrew buńczucznym zapowiedziom, raczej prędko nie zaistnieje, a może i nigdy ale moim zdaniem człowiek jest zbyt zadufałym w sobie bytem aby odpuścić sobie dalsze prace nad jej rozwojem.
    Jeżeli jeszcze można by z biedą określić podstawowe warunki graniczne dla prawdy człowieka, a więc w miarę poprawne funkcjonowanie materialne, realizację przez niego zamierzonych celów umożliwiających jego rozwój w danej grupie społecznej to brakuje mi wyobraźni jak można by określić te warunki dla duchowej mentalności człowieka, zwłaszcza dla niektórych nadmiernych ego.
    Jak wynika z artykułu Pana ZKR funkcjonuje już kilka AI, a więc ich twórcy programują je w ścisłej tajemnicy z pozycji własnych celów politycznych, ekonomicznych, etc. A więc występuje wyścig w ich rozwoju albowiem kto pierwszy z nich osiągnie kolejny etap (AGI) ten zgarnie całą pulę.
    Nasuwają się tutaj uwagi, że:
    -po pierwsze kwestia możliwości obarczenia jej założeń błędem, który może wywołać skutki wobec jej
    twórców i ogólnie ludzkości nie możliwe do przewidzenia na tym etapie;.
    – po drugie jak zachowają się inteligencje po wzajemnym spotkaniu w przestrzeni ich działania
    Dlatego też osobiście uważam, żeby …. postulat, aby raczej przyspieszać rozwój AI, zamiast go hamować był dokładnie rozważony.
    Rysa

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.