[Jderobot] Ejes Kinect

Francisco Pérez f.perez475 en gmail.com
Lun Jun 16 13:13:04 CEST 2014


Hola Jose,

hasta hace poco he estado pegándome con el sensor simulado de kinect, y esto
es lo que más o menos he sacado de la experiencia. El sensor de kinect
trabaja con imágenes en color (RGB) y profundidad (DEPTH) y, utilizando la
información que nos ofrecen las imágenes en profundidad se puede construir
una nube de puntos en 3D que represente lo que el sensor está percibiendo.
Al tratarse ambas de imágenes en 2D, el sistema de coordenadas que se
utiliza es el mismo que utiliza tu monitor, es decir: 

     - Origen: esquina superior izquierda (origen del sensor).
     - Eje X: desde el origen apuntando hacia la derecha.
     - Eje Y: desde el origen apuntando hacia abajo.
     - Eje Z: desde el origen apuntando hacia dentro de la pantalla.

O si lo quieres más claro (como el sistema de coordenadas tradicional),
rotando 180º en el eje X y trasladando el origen a la esquina inferior
izquierda, tendrías:

     - Origen: esquina inferior izquierda (origen del sensor).
     - Eje X: mismo sitio.
     - Eje Y: apuntando hacia arriba.
     - Eje Z: apuntando hacia fuera de la pantalla.


Aquí [1] tienes una imagen con el kinect simulado en gazebo y los ejes
superpuestos según mis pruebas.

<http://jderobot-developer-list.2315034.n4.nabble.com/file/n4642294/ejes_kinect.png> 

En cuanto a que las coordenadas no toman valores negativos eso depende de
dónde estén los objetos que el kinect está percibiendo. Lo que sí es seguro
que el valor de profundidad Z nunca podrá tomar valores negativos, ya que
eso supondría que el objeto está detrás del kinect, por lo que éste no
podría "verlo". En cuanto a la X y la Y, si los objetos que el kinect está
percibiendo están en el un cuadrante distinto al cuarto (según el sistema de
referencia tradicional), sí podrán tomar valores negativos. En la imagen que
enlazo antes [1] tienes un esquema con todo eso indicado.
Repito, todo esto lo baso en mi experiencia con el sensor simulado y
habiendo hecho pruebas sobre el simulador, no he llegado a investigar si el
sensor real funciona exactamente igual, ya que JdeRobot utiliza su propio
algoritmo para definir la nube de puntos a partir de los datos de las
imágenes en profundidad, apoyándose en la librería pcl (Point Cloud
Library).

[1] http://jderobot.org/store/fperez/uploads/images/ejes_kinect.png



--
View this message in context: http://jderobot-developer-list.2315034.n4.nabble.com/Jderobot-Ejes-Kinect-tp4642293p4642294.html
Sent from the Jderobot Developer List mailing list archive at Nabble.com.


More information about the Jde-developers mailing list