Sistema de interacción visual para un robot social

  1. Mario Domínguez López
  2. Eduardo Zalama Casanova
  3. Jaime Gómez García-Bermejo
  4. Samuel Marcos Pablos
Libro:
Actas de las XXXVIII Jornadas de Automática
  1. Hilario López García (coord.)

Editorial: Servicio de Publicaciones ; Universidad de Oviedo

ISBN: 978-84-16664-74-0

Año de publicación: 2017

Páginas: 709-716

Congreso: Jornadas de Automática (38. 2017. Gijón)

Tipo: Aportación congreso

Resumen

Una de las características de los robots sociales es que tengan expresividad y fluidez lo más cercana a la naturaleza humana. En este caso una de las mayores fuentes de expresividad son los rasgos faciales. Por otra parte, estamos acostumbrados a comunicarnos mirando a otras personas a la cara por lo que desarrollar robots con expresividad, capacidad gestual y de seguimiento facial es una de las características buscadas en el desarrollo de robots sociales. El presente artículo describe el desarrollo de un sistema de interacción hombre-máquina para un robot móvil social constituido por dos subsistemas o módulos. El primer subsistema se encarga de la detección del interlocutor y su seguimiento facial. Para ello realiza una detección inicial a partir de la información suministrada por el láser de navegación del robot, para posteriormente fijar la atención a partir de la información obtenida con una cámara de rango tipo Kinect. El segundo subsistema de encarga de la generación de gestos del robot. Para ello se ha adoptado el estándar FACS (Facial Action Coding System) lo cual permite su utilización en diferentes tipos de robots. La generación de expresiones se realiza mediante la combinación del movimiento controlado de cuello, párpados y ojos, con gestos mostrados en un display luminoso en la boca del robot.