Difference between revisions of "Aitana-TFM-kinect-ROS05"

From robotica.unileon.es
Jump to: navigation, search
(Conexión entre sistemas)
 
(44 intermediate revisions by the same user not shown)
Line 1: Line 1:
* '''Project Name:'''  Evolución de la Solución de Asistencia MYRA para su Despliegue en Platformas Android
+
* '''Project Name:'''  Human tracking and recognition OpenNI tracker
 
* '''Authors:''' Aitana Alonso Nogueira
 
* '''Authors:''' Aitana Alonso Nogueira
* '''Dates:''' September 2013 - September 2014
+
* '''Dates:''' September 2013
 
* '''Degree:''' Master
 
* '''Degree:''' Master
* '''Tags:'''  android, MYRA, ROS, ArUco, Realidad Aumentada
+
* '''Tags:'''  ROS, kinect, ROS, tracking
* '''Technologies:''' ROS, C++, Android, ArUco
+
* '''Technologies:''' ROS, opennni
 
* '''Status:''' Finished
 
* '''Status:''' Finished
  
 +
=Instalación=
  
 +
Lo primero que vamos a decir es como configurar el entorno para poder trabajar con la librería skeleton tracking, para ello vamos a trabajar con ROS, la versión fuerte, para instalarlo:
  
=Evolución de la Solución de Asistencia MYRA para su Despliegue en Platformas Android=
+
<syntaxhighlight>sudo apt-get install ros-fuerte-desktop-full</syntaxhighlight>
==Introducción==
 
  
Desde hace varios años este grupo está trabajando en plataformas de asistencia. El grupo ha diseñado un robot
+
Después de eso, para poder trabajar con la kinect, debemos instalar los drivers de openni, recordar que estamos trabajando con la versión fuerte de ros:
llamado MYRABot con la finalidad de ayudar a la gente mayor utilizando para ello Realidad Aumentada. Este robot es controlado con el software ROS
 
(Robot Operating System) y cuenta con su propio software: MYRA. Este último, es el objetivo de nuestro proyecto.
 
  
Este proyecto esta basado en la integración del software MYRA con ROS y una plataforma móvil con Android.
+
<syntaxhighlight>sudo apt-get install ros-fuerte-openni-camera ros-fuerte-openni-launch</syntaxhighlight>
  
¿Por qué realizar este proyecto? Es decir, ¿Es necesario adaptar la solución de escritorio MYRA para móvil?
+
La librería skeleton tracking, que es la que vamos a utilizar se encuentra en el paquete NITE, que puedes encontrar en el siguiente enlace: [http://www.openni.org/openni-sdk/openni-sdk-history-2/], debemos descargarnos la versión 1.5, ya que a partir de la versión 2.0 da problemas de compatibilidad y no conseguiremos hacer funcionar la librería skeleton tracking.
Sin lugar a dudas, las aplicaciones para dispositivos móviles tienen varias ventajas. La principal es que con ellos puedes llevar tu
 
aplicación de realidad aumentada a cualquier parte, o si surge que en la zona geográfica en que estás hay disponible alguna aplicación concreta de
 
esa zona podrías usarla, puesto que dispondrías del hardware necesario. Esto es muy útil cuando se trata, por ejemplo, de aplicaciones que son
 
fuentes de información acerca de algo que necesitamos saber o hacia lo que sentimos curiosidad.
 
  
Otra ventaja viene dada por la accesibilidad a los dispositivos móviles ya que actualmente la mayor parte del mundo ya dispone de ellos
+
Una vez descargado lo descomprimimos y ejecutamos el fichero ''install.sh''.
y son utilizados diariamente en multitud de tareas. Elegimos la plataforma Android
 
porque cuenta con mayor número de usuarios, según [http://www.gartner.com/newsroom/id/2482816 Gartner]  un 74.4% de los dispositivos móviles adquiridos durante el
 
año 2013 contaban con este sistema operativo.
 
  
Por lo tanto, este proyecto va a describir el trabajo realizado para añadir funcionalidades al software MYRA en su versión de escritorio, para
+
<syntaxhighlight>sudo ./install.sh</syntaxhighlight>
su despliegue en móviles. Para ello tendremos que replantear la arquitectura propuesta actualmente en la solución para montar todo lo necesario y poder lanzar en paralelo instancias de la aplicación MYRA.
 
  
Para conseguir la integración hemos analizado soluciones relacionadas en varios entornos: Android y PC de escritorio.
+
Debemos obtener lo siguiente:
  
Durante el desarrollo se han realizado mejoras en paralelo como un interface de configuración, un interface de debug y otro para visualizacion de mensajes de ROS en MYRA.
+
<syntaxhighlight>Installing NITE
 +
***************
  
A nivel de software hemos refactorizado código e integrado la librería de RA Aruco con ROS mediante un paquete proporcionado por PAL Robotics.
+
Copying shared libraries... OK
Reciprocamente la solución móvil integrará una versión ligera de control de la medicación de la misma forma que hace MYRA de escritorio.
+
Copying includes... OK
 +
Installing java bindings... OK
 +
Installing module 'Features_1_3_0'...
 +
Registering module 'libXnVFeatures_1_3_0.so'... OK
 +
Installing module 'Features_1_3_1'...
 +
Registering module 'libXnVFeatures_1_3_1.so'... OK
 +
Installing module 'Features_1_4_1'...
 +
Registering module 'libXnVFeatures_1_4_1.so'... OK
 +
Installing module 'Features_1_4_2'...
 +
Registering module 'libXnVFeatures_1_4_2.so'... OK
 +
Installing module 'Features_1_5_2'...
 +
Registering module 'libXnVFeatures_1_5_2.so'... OK
 +
Copying XnVSceneServer... OK
 +
Installing module 'Features_1_5_2'
 +
registering module 'libXnVHandGenerator_1_3_0.so'...OK
 +
Installing module 'Features_1_5_2'
 +
registering module 'libXnVHandGenerator_1_3_1.so'...OK
 +
Installing module 'Features_1_5_2'
 +
registering module 'libXnVHandGenerator_1_4_1.so'...OK
 +
Installing module 'Features_1_5_2'
 +
registering module 'libXnVHandGenerator_1_4_2.so'...OK
 +
Installing module 'Features_1_5_2'
 +
registering module 'libXnVHandGenerator_1_5_2.so'...OK
 +
Adding license.. OK
  
Como resultado hemos obtenido, por un lado nuevas funcionalidades en el software de escritorio MYRA y una aplicación Android que cuenta con
+
*** DONE ***
un sistema de teleoperación para el robot y con un sistema de realidad aumentada basado en el reconocimiento de marcadores y haciendo uso de
+
</syntaxhighlight>
la libreria de Aruco, todo ello integrado con el software de control ROS.
 
  
===Objetivos===
+
Por último, solo nos falta instalar el paquete en cuestión ''openni_tracker ''.
  
Los objetivos principales de este proyecto son los siguientes:
+
<syntaxhighlight>sudo apt-get install ros-fuerte-openni-tracker</syntaxhighlight>
  
* Actualizar el interface MYRA para integrarlo con ROS.
+
=Ejecutando Skeleton Tracking=
  
* Añadir a la solución MYRA una ventana de configuración y otra de debug.
+
Debemos abrir 3 terminales diferentes:
  
* Actualizar el entorno para que MYRA pueda ser lanzado desde la plataforma Android.
+
* En el primero, ejecutaremos ROS, para ello escribimos en linea de comandos:
 +
<syntaxhighlight>roscore</syntaxhighlight>
 +
y nos debe aparecer algo como esto:
 +
<syntaxhighlight>... logging to /home/aitana/.ros/log/f3ff128e-5c2a-11e3-8ee4-0c6076187d47/roslaunch-aitana-laptop-3492.log
 +
Checking log directory for disk usage. This may take awhile.
 +
Press Ctrl-C to interrupt
 +
Done checking log file disk usage. Usage is <1GB.
  
 +
started roslaunch server http://aitana-laptop:60613/
 +
ros_comm version 1.8.11
  
=== Planificacion inicial ===
 
  
Primero hemos identificamos las necesidades del proyecto, por un lado que que la RA de la que hace uso el software MYRA  funcionara en dispositivos Android, porque son más asequibles y fáciles de manejar por personas mayores que los tradicionales ordenadores y por otro lado, integrar el software con ROS para que haya un control sobre el robot.
+
SUMMARY
 +
========
  
Después de una etapa de estudio intensivo en la materia, incluyendo el estudio del trabajo anterior
+
PARAMETERS
realizado en el grupo de robótica, se paso a la búsqueda de posibles soluciones para realizar el proyecto y por último al desarrollo del mismo en las siguientes fases:
+
* /rosdistro
 +
* /rosversion
  
La primera se centra en la integración de ROS, ArUco y Android, mediante una aplicación Android.
+
NODES
  
En la segunda, se realizarán modificaciones sobre el software actual MYRA, para permitir nuevas funcionalidades, se realizarán los siguientes cambios:
+
auto-starting new master
 +
process[master]: started with pid [3508]
 +
ROS_MASTER_URI=http://aitana-laptop:11311/
  
* Añadir interface para una configuración rápida de MYRA con ROS.
+
setting /run_id to f3ff128e-5c2a-11e3-8ee4-0c6076187d47
 +
process[rosout-1]: started with pid [3521]
 +
started core service [/rosout]
 +
</syntaxhighlight>
  
* Crear interface para visualización de logs.
+
Lo dejamos corriendo en segundo plano.
 +
* En el segundo terminal, debemos lanzar los drivers openni para la kinect
  
Después de este ultimo, se decidió añadir al primer entregable teleoperación para que así fuera más uniforme la el software de escritorio y el de android.
+
<syntaxhighlight>roslaunch openni_launch openni.launch</syntaxhighlight>
  
== Arquitectura ==
+
Y una vez más, nos debe aparecer algo como lo que se muestra a continuación:
  
== Desarrollo ==
+
<syntaxhighlight>... logging to /home/aitana/.ros/log/f3ff128e-5c2a-11e3-8ee4-0c6076187d47/roslaunch-aitana-laptop-3614.log
 +
Checking log directory for disk usage. This may take awhile.
 +
Press Ctrl-C to interrupt
 +
Done checking log file disk usage. Usage is <1GB.
  
A lo largo de este apartado se detallan las fases en que se han desarrollado finalmente en el proyecto.
+
started roslaunch server http://aitana-laptop:58367/
  
=== Fase I ===
+
SUMMARY
 +
========
  
En la primera fase, se realizó la integración de ROS, ArUco y Android. El modelo que deseamos obtener es el que se aparece en la [http://robotica.unileon.es/mediawiki/index.php/File:Diagrama_faseI.png figura], en donde el anciano a través de la cámara de su dispositivo android envía imágenes al robot ( en este caso un PC), mediante la conexión wifi y a su vez recibe de manera inmediata mediante un marcador que medicina le toca tomar en ese momento. Veamos en los siguientes apartados los pasos necesarios para conseguir esta integración.
+
PARAMETERS
[[File:diagrama_faseI.png|Diagrama resumen de la primera fase.]]
+
* /camera/depth/rectify_depth/interpolation
 +
* /camera/depth_registered/rectify_depth/interpolation
 +
* /camera/disparity_depth/max_range
 +
* /camera/disparity_depth/min_range
 +
* /camera/disparity_depth_registered/max_range
 +
* /camera/disparity_depth_registered/min_range
 +
* /camera/driver/depth_camera_info_url
 +
* /camera/driver/depth_frame_id
 +
* /camera/driver/depth_registration
 +
* /camera/driver/device_id
 +
* /camera/driver/rgb_camera_info_url
 +
* /camera/driver/rgb_frame_id
 +
* /rosdistro
 +
* /rosversion
  
Los pasos necesarios para conseguir esta integración son:
+
NODES
 +
  /camera/depth/
 +
    metric (nodelet/nodelet)
 +
    metric_rect (nodelet/nodelet)
 +
    points (nodelet/nodelet)
 +
    rectify_depth (nodelet/nodelet)
 +
  /camera/rgb/
 +
    debayer (nodelet/nodelet)
 +
    rectify_color (nodelet/nodelet)
 +
    rectify_mono (nodelet/nodelet)
 +
  /
 +
    camera_base_link (tf/static_transform_publisher)
 +
    camera_base_link1 (tf/static_transform_publisher)
 +
    camera_base_link2 (tf/static_transform_publisher)
 +
    camera_base_link3 (tf/static_transform_publisher)
 +
    camera_nodelet_manager (nodelet/nodelet)
 +
  /camera/
 +
    disparity_depth (nodelet/nodelet)
 +
    disparity_depth_registered (nodelet/nodelet)
 +
    driver (nodelet/nodelet)
 +
    points_xyzrgb_depth_rgb (nodelet/nodelet)
 +
    register_depth_rgb (nodelet/nodelet)
 +
  /camera/ir/
 +
    rectify_ir (nodelet/nodelet)
 +
  /camera/depth_registered/
 +
    metric (nodelet/nodelet)
 +
    metric_rect (nodelet/nodelet)
 +
    rectify_depth (nodelet/nodelet)
  
* Despliegue del sistema base
+
ROS_MASTER_URI=http://localhost:11311
* Conexión entre sistemas
 
* Validación de comunicaciones entre sistemas
 
* Integrar solución de realidad aumentada
 
* Validación de funcionamiento en todos los sistemas
 
  
Los desarrollamos a continuación.
+
core service [/rosout] found
 
+
process[camera_nodelet_manager-1]: started with pid [3634]
====Despliegue del sistema base====
+
process[camera/driver-2]: started with pid [3635]
 
+
process[camera/rgb/debayer-3]: started with pid [3636]
En esta fase tendremos que lanzar los cimientos del sistema de control. '''Roscore''' es un conjunto de nodos y programas que son pre-requisitos de un sistema basado en ROS. Se debe ejecutar roscore para que los nodos ROS para comunicarse. Por tanto, esto es lo primero que debemos hacer en la máquina que tengamos instalado ROS ( en nuestro caso versión hydro). Para iniciarlo se hace con el comando roscore.
+
process[camera/rgb/rectify_mono-4]: started with pid [3637]
 
+
process[camera/rgb/rectify_color-5]: started with pid [3677]
En nuestro caso, podremos prescindir de ejecutar este comando porque si utilizamos '''roslaunch''', que más adelante explicaremos inicia automáticamente ''roscore'' si no se esta ejecutando ya.
+
process[camera/ir/rectify_ir-6]: started with pid [3700]
 
+
process[camera/depth/rectify_depth-7]: started with pid [3726]
Roscore inicia los siguientes recursos:  
+
process[camera/depth/metric_rect-8]: started with pid [3754]
 
+
process[camera/depth/metric-9]: started with pid [3793]
* Maestro o master
+
process[camera/depth/points-10]: started with pid [3830]
* Servidor de parámetros
+
process[camera/register_depth_rgb-11]: started with pid [3868]
* Un nodo de registro: ''\rosout''
+
process[camera/depth_registered/rectify_depth-12]: started with pid [3913]
 
+
process[camera/depth_registered/metric_rect-13]: started with pid [3953]
Debemos también modificar las siguientes variables del entorno ROS:
+
process[camera/depth_registered/metric-14]: started with pid [4002]
<syntaxhighlight>
+
process[camera/points_xyzrgb_depth_rgb-15]: started with pid [4055]
export ROS_MASTER_URI=http://localhost:11311
+
process[camera/disparity_depth-16]: started with pid [4106]
</syntaxhighlight>
+
process[camera/disparity_depth_registered-17]: started with pid [4151]
<syntaxhighlight>
+
process[camera_base_link-18]: started with pid [4281]
export ROS_HOSTNAME=localhost
+
process[camera_base_link1-19]: started with pid [4344]
 +
process[camera_base_link2-20]: started with pid [4396]
 +
process[camera_base_link3-21]: started with pid [4434]
 +
[ INFO] [1386082671.833888617]: Initializing nodelet with 2 worker threads.
 +
[ERROR] [1386082676.174882681]: Tried to advertise a service that is already advertised in this node [/camera/depth_registered/image_rect_raw/compressedDepth/set_parameters]
 +
[ERROR] [1386082676.193015430]: Tried to advertise a service that is already advertised in this node [/camera/depth_registered/image_rect_raw/compressed/set_parameters]
 +
[ERROR] [1386082676.216452698]: Tried to advertise a service that is already advertised in this node [/camera/depth_registered/image_rect_raw/theora/set_parameters]
 +
[ INFO] [1386082676.733259757]: No devices connected.... waiting for devices to be connected
 
</syntaxhighlight>
 
</syntaxhighlight>
  
En el lugar de ''localhost'' irá la IP del equipo donde se ejecuta el ''roscore''.
+
Y que no cunda en pánico, que el error es normal.
  
====Conexión entre sistemas====
+
* Por último, abrimos un nuevo terminal y en este ejecutamos por fin:
 +
<syntaxhighlight>rosrun openni_tracker openni_tracker</syntaxhighlight>
  
Para realizar la aplicación de Android que se conectará con el master de ROS, nos hemos ayudado de '''\android\core''', que esta basado en el cliente '''rosjava'''. En la figura \ref{fig:packages-dependencies} se ven las dependencias que existen entre los diferentes paquetes oficiales de ROS para java.
+
Una vez que se está ejecutando, nos pondremos enfrente de la kinect en pose PSI  [[File:PsiPose.gif|thumb|left|Pose PSI]], de esta forma nos aparecerán los siguientes mensajes:
[[File:packages-dependencies.png][Diagrama de dependencias rosjava-android]]
+
<syntaxhighlight>New User 1
 +
Pose Psi detected for user 1
 +
Calibration started for user 1
 +
Calibration complete, start tracking user 1
 +
Lost User 1</syntaxhighlight>
  
Para el desarrollo de la aplicación se ha utilizado Android Studio y se ha ejecutado sobre varios dispositivos android. Una vez instalada la aplicación en el dispositivo y ejecutado el roscore o roslaunch. Se ejecutará la aplicación android y nos aparecerá la siguiente pantalla (Figura \ref{fig:screenshot_conexion}) dónde debemos introducir la IP del equipo donde se ejecuta el roscore para que se realice la conexión y pueda así comunicarse el nodo del dispositivo android con los demás nodos del sistema.
+
Lo primero que hace es detectar que hay una persona, a continuación, detecta que tiene la posición PSI y entonces comienza la calibración, si nos apartamos de la cámara entonces mostrará el mensaje que indica que ha perdido al usuario.
  
[[File:screenshot_conexion.jpg][Captura de pantalla de la aplicación de Android]]
+
=Visualización=
  
====Validación de comunicaciones entre sistemas====
+
Lo primero para ver la imagen real que ve la kinect utilizamos:
====Integrar solución de realidad aumentada====
+
<syntaxhighlight>rosrun image_view image_view image:=/camera/rgb/image_color</syntaxhighlight>
====Validación de funcionamiento en todos los sistemas====
 
  
=== Fase II ===
 
  
Comprende las nuevas funcionalidades del software de escritorio y la teleoperación del robot.
+
Para visualizar la ejecución del openni_tracker utilizaremos Rviz. Rviz es una herramienta de visualización 3D para ROS. Ahora que hemos logrado detectar y calibrar personas, ¿Cómo podemos ver lo que está viendo la cámara kinect? para ello usaremos Rviz. Para ponerlo en marcha abriremos un cuarto terminal y teclearemos:
 +
<syntaxhighlight>rosrun rviz rviz</syntaxhighlight>
  
== Experimentación ==
+
y se abrirá la aplicación, tendremos que configurarlo: Añadir TF y desde la opción fixed frame podrás elegir que parte del cuerpo visionar. Las diferentes transformaciones \tf se pueden ver en el enlace [http://wiki.ros.org/openni_tracker] En las siguientes capturas se puede ver el resultado:
 +
[[File:CapRviz2.png| 520px|left|]]
 +
[[File:CapRviz1.png| 520px|right|]]

Latest revision as of 21:09, 10 October 2014

  • Project Name: Human tracking and recognition OpenNI tracker
  • Authors: Aitana Alonso Nogueira
  • Dates: September 2013
  • Degree: Master
  • Tags: ROS, kinect, ROS, tracking
  • Technologies: ROS, opennni
  • Status: Finished

Instalación

Lo primero que vamos a decir es como configurar el entorno para poder trabajar con la librería skeleton tracking, para ello vamos a trabajar con ROS, la versión fuerte, para instalarlo:

sudo apt-get install ros-fuerte-desktop-full

Después de eso, para poder trabajar con la kinect, debemos instalar los drivers de openni, recordar que estamos trabajando con la versión fuerte de ros:

sudo apt-get install ros-fuerte-openni-camera ros-fuerte-openni-launch

La librería skeleton tracking, que es la que vamos a utilizar se encuentra en el paquete NITE, que puedes encontrar en el siguiente enlace: [1], debemos descargarnos la versión 1.5, ya que a partir de la versión 2.0 da problemas de compatibilidad y no conseguiremos hacer funcionar la librería skeleton tracking.

Una vez descargado lo descomprimimos y ejecutamos el fichero install.sh.

sudo ./install.sh

Debemos obtener lo siguiente:

Installing NITE
***************

Copying shared libraries... OK
Copying includes... OK
Installing java bindings... OK
Installing module 'Features_1_3_0'...
Registering module 'libXnVFeatures_1_3_0.so'... OK
Installing module 'Features_1_3_1'...
Registering module 'libXnVFeatures_1_3_1.so'... OK
Installing module 'Features_1_4_1'...
Registering module 'libXnVFeatures_1_4_1.so'... OK
Installing module 'Features_1_4_2'...
Registering module 'libXnVFeatures_1_4_2.so'... OK
Installing module 'Features_1_5_2'...
Registering module 'libXnVFeatures_1_5_2.so'... OK
Copying XnVSceneServer... OK
Installing module 'Features_1_5_2'
registering module 'libXnVHandGenerator_1_3_0.so'...OK
Installing module 'Features_1_5_2'
registering module 'libXnVHandGenerator_1_3_1.so'...OK
Installing module 'Features_1_5_2'
registering module 'libXnVHandGenerator_1_4_1.so'...OK
Installing module 'Features_1_5_2'
registering module 'libXnVHandGenerator_1_4_2.so'...OK
Installing module 'Features_1_5_2'
registering module 'libXnVHandGenerator_1_5_2.so'...OK
Adding license.. OK

*** DONE ***

Por último, solo nos falta instalar el paquete en cuestión openni_tracker .

sudo apt-get install ros-fuerte-openni-tracker

Ejecutando Skeleton Tracking

Debemos abrir 3 terminales diferentes:

  • En el primero, ejecutaremos ROS, para ello escribimos en linea de comandos:
roscore

y nos debe aparecer algo como esto:

... logging to /home/aitana/.ros/log/f3ff128e-5c2a-11e3-8ee4-0c6076187d47/roslaunch-aitana-laptop-3492.log
Checking log directory for disk usage. This may take awhile.
Press Ctrl-C to interrupt
Done checking log file disk usage. Usage is <1GB.

started roslaunch server http://aitana-laptop:60613/
ros_comm version 1.8.11


SUMMARY
========

PARAMETERS
 * /rosdistro
 * /rosversion

NODES

auto-starting new master
process[master]: started with pid [3508]
ROS_MASTER_URI=http://aitana-laptop:11311/

setting /run_id to f3ff128e-5c2a-11e3-8ee4-0c6076187d47
process[rosout-1]: started with pid [3521]
started core service [/rosout]

Lo dejamos corriendo en segundo plano.

  • En el segundo terminal, debemos lanzar los drivers openni para la kinect
roslaunch openni_launch openni.launch

Y una vez más, nos debe aparecer algo como lo que se muestra a continuación:

... logging to /home/aitana/.ros/log/f3ff128e-5c2a-11e3-8ee4-0c6076187d47/roslaunch-aitana-laptop-3614.log
Checking log directory for disk usage. This may take awhile.
Press Ctrl-C to interrupt
Done checking log file disk usage. Usage is <1GB.

started roslaunch server http://aitana-laptop:58367/

SUMMARY
========

PARAMETERS
 * /camera/depth/rectify_depth/interpolation
 * /camera/depth_registered/rectify_depth/interpolation
 * /camera/disparity_depth/max_range
 * /camera/disparity_depth/min_range
 * /camera/disparity_depth_registered/max_range
 * /camera/disparity_depth_registered/min_range
 * /camera/driver/depth_camera_info_url
 * /camera/driver/depth_frame_id
 * /camera/driver/depth_registration
 * /camera/driver/device_id
 * /camera/driver/rgb_camera_info_url
 * /camera/driver/rgb_frame_id
 * /rosdistro
 * /rosversion

NODES
  /camera/depth/
    metric (nodelet/nodelet)
    metric_rect (nodelet/nodelet)
    points (nodelet/nodelet)
    rectify_depth (nodelet/nodelet)
  /camera/rgb/
    debayer (nodelet/nodelet)
    rectify_color (nodelet/nodelet)
    rectify_mono (nodelet/nodelet)
  /
    camera_base_link (tf/static_transform_publisher)
    camera_base_link1 (tf/static_transform_publisher)
    camera_base_link2 (tf/static_transform_publisher)
    camera_base_link3 (tf/static_transform_publisher)
    camera_nodelet_manager (nodelet/nodelet)
  /camera/
    disparity_depth (nodelet/nodelet)
    disparity_depth_registered (nodelet/nodelet)
    driver (nodelet/nodelet)
    points_xyzrgb_depth_rgb (nodelet/nodelet)
    register_depth_rgb (nodelet/nodelet)
  /camera/ir/
    rectify_ir (nodelet/nodelet)
  /camera/depth_registered/
    metric (nodelet/nodelet)
    metric_rect (nodelet/nodelet)
    rectify_depth (nodelet/nodelet)

ROS_MASTER_URI=http://localhost:11311

core service [/rosout] found
process[camera_nodelet_manager-1]: started with pid [3634]
process[camera/driver-2]: started with pid [3635]
process[camera/rgb/debayer-3]: started with pid [3636]
process[camera/rgb/rectify_mono-4]: started with pid [3637]
process[camera/rgb/rectify_color-5]: started with pid [3677]
process[camera/ir/rectify_ir-6]: started with pid [3700]
process[camera/depth/rectify_depth-7]: started with pid [3726]
process[camera/depth/metric_rect-8]: started with pid [3754]
process[camera/depth/metric-9]: started with pid [3793]
process[camera/depth/points-10]: started with pid [3830]
process[camera/register_depth_rgb-11]: started with pid [3868]
process[camera/depth_registered/rectify_depth-12]: started with pid [3913]
process[camera/depth_registered/metric_rect-13]: started with pid [3953]
process[camera/depth_registered/metric-14]: started with pid [4002]
process[camera/points_xyzrgb_depth_rgb-15]: started with pid [4055]
process[camera/disparity_depth-16]: started with pid [4106]
process[camera/disparity_depth_registered-17]: started with pid [4151]
process[camera_base_link-18]: started with pid [4281]
process[camera_base_link1-19]: started with pid [4344]
process[camera_base_link2-20]: started with pid [4396]
process[camera_base_link3-21]: started with pid [4434]
[ INFO] [1386082671.833888617]: Initializing nodelet with 2 worker threads.
[ERROR] [1386082676.174882681]: Tried to advertise a service that is already advertised in this node [/camera/depth_registered/image_rect_raw/compressedDepth/set_parameters]
[ERROR] [1386082676.193015430]: Tried to advertise a service that is already advertised in this node [/camera/depth_registered/image_rect_raw/compressed/set_parameters]
[ERROR] [1386082676.216452698]: Tried to advertise a service that is already advertised in this node [/camera/depth_registered/image_rect_raw/theora/set_parameters]
[ INFO] [1386082676.733259757]: No devices connected.... waiting for devices to be connected

Y que no cunda en pánico, que el error es normal.

  • Por último, abrimos un nuevo terminal y en este ejecutamos por fin:
rosrun openni_tracker openni_tracker
Una vez que se está ejecutando, nos pondremos enfrente de la kinect en pose PSI
Pose PSI
, de esta forma nos aparecerán los siguientes mensajes:
New User 1
Pose Psi detected for user 1
Calibration started for user 1
Calibration complete, start tracking user 1
Lost User 1

Lo primero que hace es detectar que hay una persona, a continuación, detecta que tiene la posición PSI y entonces comienza la calibración, si nos apartamos de la cámara entonces mostrará el mensaje que indica que ha perdido al usuario.

Visualización

Lo primero para ver la imagen real que ve la kinect utilizamos:

rosrun image_view image_view image:=/camera/rgb/image_color


Para visualizar la ejecución del openni_tracker utilizaremos Rviz. Rviz es una herramienta de visualización 3D para ROS. Ahora que hemos logrado detectar y calibrar personas, ¿Cómo podemos ver lo que está viendo la cámara kinect? para ello usaremos Rviz. Para ponerlo en marcha abriremos un cuarto terminal y teclearemos:

rosrun rviz rviz

y se abrirá la aplicación, tendremos que configurarlo: Añadir TF y desde la opción fixed frame podrás elegir que parte del cuerpo visionar. Las diferentes transformaciones \tf se pueden ver en el enlace [2] En las siguientes capturas se puede ver el resultado:

CapRviz2.png
CapRviz1.png