Roboty odgadujące myśli ludzi?

Opublikowano: 09.12.2023 | Kategorie: Nauka i technika, Wiadomości ze świata

Liczba wyświetleń: 1751

Naukowcy z Laboratorium Informatyki i Sztucznej Inteligencji (CSAIL) MIT stworzyli system Feature Fields for Robotic Manipulation (F3RM), który pozwala robotom rozumieć i manipulować pobliskimi obiektami za pomocą dowolnych wskazówek językowych. Łącząc obrazy 2D z funkcjami modelu podstawowego w celu tworzenia scen 3D, F3RM umożliwia robotom identyfikowanie i chwytanie nieznanych obiektów, co czyni go szczególnie przydatnym w rzeczywistych środowiskach, takich jak magazyny i gospodarstwa domowe.

Jedną z kluczowych cech F3RM jest możliwość interpretowania podpowiedzi tekstowych w języku naturalnym, co pozwala robotom manipulować obiektami w oparciu o mniej konkretne żądania człowieka. Oznacza to, że nawet jeśli użytkownik poprosi robota, aby „podniósł wysoki kubek”, robot będzie w stanie znaleźć i podnieść przedmiot, który najlepiej pasuje do tego opisu. Ten poziom zdolności adaptacyjnych i generalizacji zadań jest niezbędny, aby roboty mogły skutecznie działać w rzeczywistych środowiskach.

Naukowcy z National Science Foundation-MIT CSAIL Institute for Artificial Intelligence and Fundamental Interactions, wyjaśniają, że budowanie robotów, które potrafią generalizować w prawdziwym świecie, jest niezwykle trudne.

Zastosowanie F3RM wykracza poza proste zrozumienie obiektów i manipulowanie nimi. Może być szczególnie przydatne w dużych centrach logistycznych, gdzie roboty muszą wybierać produkty z zagraconego i nieprzewidywalnego środowiska. W takich magazynach roboty często otrzymują opis przedmiotu, który muszą zidentyfikować i muszą dopasować opis tekstowy do żądanego towaru, niezależnie od różnic w opakowaniu.

Na przykład centra realizacji dużych sklepów internetowych mogą zawierać miliony produktów, z którymi roboty nigdy wcześniej się nie spotkały. Aby skutecznie działać na taką skalę, roboty muszą dogłębnie zrozumieć geometrię i semantykę różnych obiektów, nawet jeśli znajdują się one na ograniczonej przestrzeni. Zaawansowane możliwości percepcji przestrzennej i semantycznej F3RM mogą znacznie zwiększyć zdolność robota do wykrywania obiektu, umieszczania go w pojemniku i wysyłania do pakowania. Ostatecznie pomoże to pracownikom fabryki efektywniej wysyłać zamówienia klientów.

Rozwój F3RM jest znaczącym krokiem naprzód w dziedzinie robotyki. Łącząc percepcję wzrokową z przetwarzaniem języka naturalnego, roboty mogą teraz rozumieć obiekty i manipulować nimi w taki sam sposób, jak robią to ludzie. Ma to daleko idące konsekwencje dla różnych branż, w tym handlu elektronicznego, logistyki i produkcji.

Ta praca otwiera nowe możliwości współpracy i interakcji człowiek-robot. Umożliwiając robotom rozumienie zapytań w otwartym języku i odpowiadanie na nie, zbliżamy się do stworzenia naprawdę inteligentnych i elastycznych maszyn.

Źródło: ZmianyNaZiemi.pl


TAGI: ,

Poznaj plan rządu!

OD ADMINISTRATORA PORTALU

Hej! Cieszę się, że odwiedziłeś naszą stronę! Naprawdę! Jeśli zależy Ci na dalszym rozpowszechnianiu niezależnych informacji, ujawnianiu tego co przemilczane, niewygodne lub ukrywane, możesz dołożyć swoją cegiełkę i wesprzeć "Wolne Media" finansowo. Darowizna jest też pewną formą „pozytywnej energii” – podziękowaniem za wiedzę, którą tutaj zdobywasz. Media obywatelskie, jak nasz portal, nie mają dochodów z prenumerat ani nie są sponsorowane przez bogate korporacje by realizowały ich ukryte cele. Musimy radzić sobie sami. Jak możesz pomóc? Dowiesz się TUTAJ. Z góry dziękuję za wsparcie i nieobojętność!

Poglądy wyrażane przez autorów i komentujących użytkowników są ich prywatnymi poglądami i nie muszą odzwierciedlać poglądów administracji "Wolnych Mediów". Jeżeli materiał narusza Twoje prawa autorskie, przeczytaj informacje dostępne tutaj, a następnie (jeśli wciąż tak uważasz) skontaktuj się z nami! Jeśli artykuł lub komentarz łamie prawo lub regulamin, powiadom nas o tym formularzem kontaktowym.

Dodaj komentarz

Zaloguj się aby dodać komentarz.
Jeśli już się logowałeś - odśwież stronę.