Segmentacja mapy głębi i obrazu wideo na potrzeby generacji semantycznej mapy otoczenia
Projekt dotyczy autonomicznej percepcji mobilnego systemu zrobotyzowanego. Celem jest analiza map głębi (skanów laserowych) i stowarzyszonych z nimi obrazów kolorowych, pozyskiwanych przez robota podczas ruchu w środowisku wewnętrznym.
Projekt dotyczy autonomicznej percepcji mobilnego systemu zrobotyzowanego. Celem jest analiza map głębi (skanów laserowych) i stowarzyszonych z nimi obrazów kolorowych, pozyskiwanych przez robota podczas ruchu w środowisku wewnętrznym. Zakłada się, że wyniki analizy takich danych przyjmą postać semantycznej mapy 3D otoczenia. Dane będą uzyskane na potrzeby dwóch scenariuszy działania robota:
- omijania przeszkód podczas dojazdu korytarzem do obiektu-celu w warunkach występowania obiektów-przeszkód,
- chwytania wybranego obiektu położonego na stole lub podłodze w warunkach współwystępowania innych obiektów.
W ramach projektu wyróżnia się następujące zagadnienia badawcze:
- wyznaczanie mapy 3D w oparciu o fuzję danych z mapy głębi i obrazu wideo,
- segmentacja mapy 3D i klasyfikacja wybranych obiektów.
Okres realizacji projektu: 01.07.2012–15.12.2012
Koordynator: Przemysłowy Instytut Automatyki i Pomiarów PIAP