Visión artificial en clave humana Ainnova Revista de divulgación científica de Andalucía El grupo de investigación que dirige el profesor de la Universidad de Málaga Antonio Jesús Bandera Rubio desarrolla un proyecto de excelencia enmarcado en la robótica de servicio, que puede aportar una ayuda en la asistencia a personas con discapacidad. Arquitectura Visual Basada en Percepción Activa es el nombre de este estudio, incentivado con 206000,24 euros por la Consejería de Economía, Innovación y Ciencia de la Junta de Andalucía. Su objetivo es desarrollar un sistema perceptivo visual artificial, muy influenciado en alguna de sus fases por el que presentamos las personas, así como evaluarlo en dos aplicaciones: la interacción con humanos, y la navegación autónoma. Este sistema perceptivo se integraría, desde una perspectiva más general, en un robot social, es decir, “en un robot que comparte su entorno con personas y que exhibe un comportamiento socialmente correcto: te mira a los ojos cuando le hablas, te saluda si te lo cruzas, etc.”, indica el responsable del proyecto, que aclara: “En realidad, no estamos construyendo ningún robot, aunque sí estamos trabajando, en el marco de este proyecto, en desarrollar una cabeza robótica expresiva”. MUECAS es el nombre de esta cabeza robótica en la que el equipo trabaja en colaboración con la Universidad de Extremadura. El sistema perceptivo de visión artificial que los científicos están desarrollando podría emplearse en cualquier robot de servicio, “bien con aspecto más o menos humanoide, o bien tipo silla motorizada o plataforma robótica”, explica el responsable del proyecto. Para explicarlo de un modo más concreto, los investigadores de la UMA pretenden desarrollar una arquitectura perceptiva que dotaría al robot o cabeza robótica en que se instalara, de una gran autonomía y capacidad de interacción. Se usaría un único sistema sensorial, que consistiría en un par de cámaras estéreo paralelas previamente calibradas. Esta arquitectura se descompone en cuatro módulos perceptivos de bajo y medio nivel, que deben proporcionar la información necesaria para: permitir la autolocalización local del robot; evitar obstáculos; construir el mapa del entorno usando marcas naturales y proporcionar la capacidad de localización y global; detectar la presencia de un usuario y reconocerlo, interpretando posibles comandos que éste pueda darle por reconocimiento de gestos manuales. Los científicos están trabajando en la evitación de obstáculos, ya que los otros tres puntos están logrados. Por otra parte, “cuando hablamos de módulos de bajo o medio nivel nos referimos a su capacidad para procesar la información”, explica el profesor Bandera, que detalla: “Si la información que capturan las cámaras son dos imágenes, bajo nivel implica que hacemos un proceso sobre ellas directamente para conseguir algún fin, como detectar caras, extraer la silueta de la persona, detectar objetos que destacan del fondo –posibles marcas visuales- etc.” Y sobre esta información ya procesada se construirían los módulos de medio nivel: “Reconocer gestos o expresiones faciales, crear un mapa de la habitación con la posición de objetos significativos, como por ejemplo un póster o extintor en la pared, etc.”, indica el responsable del proyecto. Tratamiento informático de la información 1-1