Artículo: Visión artificial en clave humana

Anuncio
Visión artificial en clave humana
Ainnova
Revista de divulgación científica de Andalucía
El grupo de investigación que dirige el profesor de la Universidad de Málaga
Antonio Jesús Bandera Rubio desarrolla un proyecto de excelencia enmarcado en la
robótica de servicio, que puede aportar una ayuda en la asistencia a personas
con discapacidad. Arquitectura Visual Basada en Percepción Activa es el nombre
de este estudio, incentivado con 206000,24 euros por la Consejería de Economía,
Innovación y Ciencia de la Junta de Andalucía. Su objetivo es desarrollar un
sistema perceptivo visual artificial, muy influenciado en alguna de sus fases
por el que presentamos las personas, así como evaluarlo en dos aplicaciones: la
interacción con humanos, y la navegación autónoma.
Este sistema perceptivo se integraría, desde una perspectiva más general, en un
robot social, es decir, “en un robot que comparte su entorno con personas y que
exhibe un comportamiento socialmente correcto: te mira a los ojos cuando le
hablas, te saluda si te lo cruzas, etc.”, indica el responsable del proyecto,
que aclara: “En realidad, no estamos construyendo ningún robot, aunque sí
estamos trabajando, en el marco de este proyecto, en desarrollar una cabeza
robótica expresiva”. MUECAS es el nombre de esta cabeza robótica en la que el
equipo trabaja en colaboración con la Universidad de Extremadura.
El sistema perceptivo de visión artificial que los científicos están
desarrollando podría emplearse en cualquier robot de servicio, “bien con
aspecto más o menos humanoide, o bien tipo silla motorizada o plataforma
robótica”, explica el responsable del proyecto. Para explicarlo de un modo más
concreto, los investigadores de la UMA pretenden desarrollar una arquitectura
perceptiva que dotaría al robot o cabeza robótica en que se instalara, de una
gran autonomía y capacidad de interacción.
Se usaría un único sistema sensorial, que consistiría en un par de cámaras
estéreo paralelas previamente calibradas.
Esta arquitectura se descompone en cuatro módulos perceptivos de bajo y medio
nivel, que deben proporcionar la información necesaria para: permitir la
autolocalización local del robot; evitar obstáculos; construir el mapa del
entorno usando marcas naturales y proporcionar la capacidad de localización y
global; detectar la presencia de un usuario y reconocerlo, interpretando
posibles comandos que éste pueda darle por reconocimiento de gestos manuales.
Los científicos están trabajando en la evitación de obstáculos, ya que los otros
tres puntos están logrados. Por otra parte,
“cuando hablamos de módulos de bajo o medio nivel nos referimos a su capacidad
para procesar la información”, explica el profesor Bandera, que detalla: “Si la
información que capturan las cámaras son dos imágenes, bajo nivel implica que
hacemos un proceso sobre ellas directamente para conseguir algún fin, como
detectar caras, extraer la silueta de la persona, detectar objetos que destacan
del fondo –posibles marcas visuales- etc.” Y sobre esta información ya procesada
se construirían los módulos de medio nivel: “Reconocer gestos o expresiones
faciales, crear un mapa de la habitación con la posición de objetos
significativos, como por ejemplo un póster o extintor en la pared, etc.”, indica
el responsable del proyecto.
Tratamiento informático de la información
1-1
Descargar