Prototipo de robot de seguimiento a técnicos para asistencia en un centro sociosanitario (SHADOW)
Funding Entity: Ministry of Science and Innovation, 2022 call for PROOF OF CONCEPT PROJECTS (PDC), funded by the State Research Agency (AEI), Government of Spain.
SHADOW es un proyecto coordinado de prueba de concepto que tiene como objetivo desarrollar un robot móvil, autónomo y socialmente consciente, diseñado para asistir a profesionales de centros sociosanitarios durante sus turnos de trabajo. Este robot combina tecnologías de percepción avanzada, planificación automatizada e interacción multimodal para seguir a un técnico o cuidador, acompañarlo durante su jornada, y ejecutar pequeñas misiones bajo su supervisión.
El proyecto nace como continuación del trabajo previo en el proyecto FACILE y se basa en desarrollos robustos como la arquitectura cognitiva CORTEX y el framework de planificación MLARAS. En SHADOW se avanza hacia la validación real de estas tecnologías, diseñando un robot funcional, de bajo coste, fabricado mediante impresión 3D, e implantado en escenarios reales, como un centro sociosanitario en Cáceres (Aztide).
Coordinado por la Universidad de Extremadura, el consorcio cuenta con la participación de la Universidad de Málaga, la Universidad Carlos III de Madrid y la Universidad de Jaén, integrando conocimientos en robótica cognitiva, percepción, planificación e interacción humano-robot.




Subproyecto 1
Design under functional constraints of a socially AWare robot (DAW)
Reference: PDC2022-133141-C21
Este subproyecto lidera la concepción, diseño y construcción del robot físico, buscando la mayor funcionalidad al menor coste posible. La plataforma será completamente impresa en 3D, con componentes electrónicos asequibles y diseño ergonómico adaptado al entorno sociosanitario. El proceso de diseño es colaborativo, incluyendo a cuidadores profesionales en la toma de decisiones para asegurar una buena aceptación del robot. Además, este subproyecto se encarga de integrar y adaptar la arquitectura CORTEX, implementando capacidades clave como navegación socialmente consciente, seguimiento fiable del técnico, recuperación ante fallos y comunicación multimodal. DAW representa la base física e integradora del sistema robótico SHADOW.
Coordinador principal
Investigador principal
SubproYECTO 2
Perceptual system for a socially AWare robot (PAW)
Reference: PDC2022-133141-C22
PAW desarrolla los sistemas perceptivos del robot, esenciales para que éste pueda detectar, identificar y seguir de forma segura a una persona concreta, incluso en entornos dinámicos y concurridos. Se emplean tecnologías como redes neuronales profundas, mapas locales en tiempo real, odometría visual-inercial y planificación predictiva, todo ello ajustado a normas de navegación social. El reto principal es conseguir un sistema capaz de reconocer al líder entre varias personas, adaptarse a obstáculos móviles y mantener una distancia interpersonal adecuada. Además, el robot podrá realizar comportamientos inteligentes como buscar al líder si lo pierde, o retornar a su estación de carga. Este subproyecto es el “ojo” y el “instinto” del robot.
Investigadores Principales
Subproyecto 3
Automated Planning for a socially AWare robot (APAW)
Referencia: PDC2022-133141-C23
APAW aporta el componente deliberativo del robot, permitiéndole planificar y ejecutar acciones complejas a partir de peticiones verbales o contextuales del usuario. Utiliza el framework MLARAS, una arquitectura jerárquica para planificación automatizada, junto con una interfaz gráfica que facilita la creación de modelos de planificación sin necesidad de codificación avanzada. Esta capacidad permite al robot entender instrucciones como “espera aquí” o “acompaña a esta persona”, evaluar el entorno y adaptar su comportamiento a situaciones nuevas o inesperadas. APAW proporciona la inteligencia estratégica que dota al robot de autonomía real.
Investigadores Principales
Subproyecto 4
Support Services for a socially AWare robot (SAW)
Referencia: PDC2022-133141-C24
SAW se encarga de desarrollar los servicios de interacción y soporte del robot, centrándose en la accesibilidad, la usabilidad y la adecuación a usuarios con distintas capacidades cognitivas o sensoriales. Se implementan interfaces multimodales, como el reconocimiento de voz, pantallas táctiles y gestos, permitiendo una interacción fluida y natural. También se trabaja en la integración con servicios externos, como videollamadas, navegadores y sensores de entorno. Este subproyecto vela por que la experiencia de uso del robot sea cómoda, intuitiva y segura tanto para los profesionales como para los pacientes del entorno asistencial.
Investigadora Principal
