Liczba wyświetleń: 2174
Nowe badanie opublikowane w czasopiśmie „Applied Nano Materials” przez australijskich badaczy współpracujących z Departamentem Obrony kraju, dokumentuje, jak testowana osoba była w stanie kierować naziemnym robotem, wysyłając go do punktów orientacyjnych, wizualizując je za pomocą okularów AR Microsoft HoloLens.
Opracowany przez naukowców czujnik na bazie grafenu może być umieszczany wewnątrz kasków. Naukowcy połączyli go do okularów Microsoft HoloLens. Gdy użytkownik rozglądał się za pomocą HoloLens, jego mózg wysyłał sygnał przez płat potyliczny. Sygnały te zostały zebrane przez czujnik i przesłane przez mały komputer Raspberry Pi 4B, który przetłumaczył je (poprzez wzrokowy potencjał i aktywność płata potylicznego na wyraźne sygnały komputerowe) na instrukcje dotyczące określonego punktu odpowiadającego danemu miejscu.
Instrukcje te trafiły do robota Q-UGV firmy Ghost Robotics, który był w stanie realizować te komendy.
Na „YouTube” opublikowano film armii australijskiej opisujący udany eksperyment. Podczas drugiej demonstracji dowódca wydał instrukcje zarówno robotom, jak i członkom drużyny strażackiej, aby przeszukali teren. Żołnierze mogli monitorować obraz wideo robota za pomocą zestawu słuchawkowego HoloLens.
Na podstawie: YouTube.com, Pubs.acs.org
Źródło: PrisonPlanet.pl
Ciekawe to, teraz dołączą karabiny do robo pieska i do dzieła!
Teraz wpuszczą robo pieska z rozkazem zabicia/wybicia wioski gdzieś np w afryce i będzie- to nie ja, pies sam wystrzelił