Body Moverment Taller Sistemas Interactivos I, 2007 Body movement Javier Escolano Rodríguez, David Elfau López, Antonio Vela de Marco Taller Sistemas Interactivos (UPF) ABSTRACT En este paper planteamos la interacción mediante los movimientos del cuerpo. En primer lugar describimos los conceptos teóricos sobre la interacción con el uso del cuerpo, ya sea mediante el reconocimiento de los movimientos y acciones del cuerpo, o la percepción del espacio interactivo por parte del cuerpo. Más adelante profundizaremos más en estos conceptos. La segunda parte esta compuesta de dos modelos de interacción mediante los movimientos del cuerpo. El primer modelo está basado en la percepción corporal de los movimientos de las CabBoots como sistema de guía, y el segundo es un sistema interactivo para móviles basado en la interacción mediante golpes de baja intensidad y movimientos espaciales. ejemplo mirar, estirar un brazo, respirar... la propiocepción es la que nos hace saber que se están dando estos movimientos o acciones. Percepción Espacial Este ámbito dentro de la percepción, nos permite localizarnos en relación a un espacio. Principalmente gracias a los sentidos de la vista y del oído, podemos orientarnos en frente a lo que nos rodea. Así, utilizando todos nuestros sentidos físicos y desde nuestro punto de referencia, nos construimos la relación espacial que nos rodea y que nosotros percibimos. Tacto – Percepción Háptica A continuación introducimos unos conceptos sobre la teoría del movimiento. El objetivo no es definir como se deben implementar o diseñar los modelos interactivos basados en el movimiento, sino conocer cual es la sensación percibida por el usuario de dichos modelos y como debe sentirse. El tercer ámbito de la percepción es el tacto, conocido más técnicamente como percepción háptica. Hay dos tipos de percepción háptica, la activa y la pasiva. Tanto en la percepción activa como la pasiva, su motor sensorial está presente en la piel. La percepción háptica activa sucede cuando las personas movemos nuestras manos y nuestros dedos para explorar objetos y percibir sus características más tangibles. La percepción háptica pasiva no involucra el movimiento de manos y dedos, sino que viene dada por las sensaciones fruto de una acción no voluntaria, como puede ser rozarnos con una pared al girar una esquina. EL MOVIMIENTO, LA PERCEPCIÓN DEL CUERPO Uso de los objetos (Herramientas) Las personas nos movemos, utilizamos nuestras manos para tocar, movemos la cabeza para mirar, inclinamos el oído para escuchar, acercamos la nariz para oler... y frente a todo movimiento hay una información sensorial relacionada que describe esa acción o movimiento. Cuando realizamos todas estas acciones nuestros sentidos están en constante diálogo adquiriendo y mostrando información referente a la percepción de estos movimientos o acciones. De este modo nuestros movimientos vienen definidos por las diferentes maneras que tenemos de percibir estas sensaciones. Así pues, podemos dividir en cuatro ámbitos la percepción del movimiento: El último ámbito de la percepción del movimiento viene referida a la incorporación de objetos como herramientas, es decir, el hombre utiliza objetos adquiriendo así las propiedades de estos aumentando de este modo su capacidad de acción y percepción. La capacidad de incorporar habilidades gracias a la incorporación de objetos es la principal motivación del estudio que a continuación se explica. 1. LA DIMENSIÓN SENSORIAL DE LA INTERACCIÓN TECNOLÓGICA INTRODUCCION Propiocepción El primer ámbito de la percepción es la propiocepción, que nos da conciencia de nuestro propio movimiento, es decir, frente a nuestros movimientos y acciones, como por EL ESTUDIO La finalidad del estudio realizado no es suplantar los conocimientos acerca de los aspectos corporales de la interacción, sino complementarlos. El estudio busca la adquisición de conocimientos siguiendo actividades prácticas con y sin objetos. El estudio utilizó tres actividades, dos sin objetos y una con objetos. La actividad con objetos fue la gimnasia mediante el método Pilates, en la cual se utilizan las mesas de ejercicios 1 Body Moverment Reformer y Cadillac. Las otras dos actividades, sin objetos, fueron el Yoga, y la Capoeira. Fruto de este estudio, vatios expertos en el ámbito de la interacción, llegaron a una definición para la dimensión sensorial de la interacción tecnológica. Así pues, la dimensión sensorial de la interacción tecnológica es el proceso por el cual utilizando nuestros sentidos hápticos y kinestésicos incorporamos una herramienta a nuestro espacio corporal, llegando a ser esta una extensión de nuestro cuerpo, es decir, como mediante nuestros sentidos hápticos – percepción por contacto –, y nuestros sentidos kinestesicos – percepción de los propios movimientos, propiocepción –, incorporamos habilidades gracias al uso de herramientas. Una ves realizado el estudio, definieron cuatro ámbitos para el estudio de la dimensión sensorial: Diálogo persona-objeto, potencial para actuar, espacio de actuación y expresión del movimiento. Diálogo persona-objeto: Este ámbito hace referencia a aquellas situaciones en las cuales solo disponemos de los sentidos kinestésicos. Así pues, para percibir, tenemos que actuar. Un ejemplo de este ámbito se da cuando estamos delante de una puerta automática, sino conocemos su funcionamiento, para comprender el método de interactividad tenemos que movernos delante de la puerta. De este modo se crea un diálogo entre la persona y el objeto donde el movimiento es el canal de comunicación. Hay cuatro maneras de comprender la relación entre persona y objeto: · Orientada al objeto: Sin tener la necesidad de utilizar nuestros sentidos hápticos, hacemos un juicio del objeto (cuanto pesa, que utilidad tendría,...). · Prestando atención al objeto: La presencia del objeto requiere toda nuestra atención, debido a su utilidad o funcionamiento. Por ejemplo la posesión de una sierra eléctrica, hace que cuando la estamos utilizando seamos en todo momento conscientes de su presencia. · Actuando a través del objeto: El objeto pasa a ser una prolongación de nuestro cuerpo y adquirimos sus habilidades, llegando a olvidar su presencia. Este seria el caso por ejemplo de unos zapatos, que adquirimos la habilidad de no hacernos daño al pisar, pero llega un punto en el que no somos conscientes que los llevamos, o no les prestamos atención. · Observando y actuando a través del objeto: En este caso prestamos atención al objeto, pero no pasa a ser nuestro centro de atención. En este caso una raqueta de tenis explica perfectamente este concepto, ya que adquirimos sus habilidades, somos conscientes de su presencia, pero no centra nuestra atención. Potencial Para actuar: Nuestro potencial nos permite saber que queremos hacer y qué nos permite nuestro cuerpo hacer. Por esto hay que Taller Sistemas Interactivos I, 2007 ser consciente de que diferentes cuerpos tendrán potenciales diferentes, ya que no podrá realizar las mismas acciones, una persona anciana, que una persona joven y atlética. También la incorporación de objetos aumenta nuestro potencial para actuar. Espacio para actuar: El espacio de actuación delimita los márgenes donde podemos llevar a cabo nuestras habilidades o las adquiridas mediante los objetos. Existen tres tipos de espacios de actuación: El personal, que está limitado por nuestro cuerpo, y que engloba el concepto de la propiocepción. El extra-personal, que viene limitado por el alcance de nuestro cuerpo. Y el espacio lejano, que contiene el espacio donde interactuamos con otros objetos o personas. De este modo lo que limita el posible diálogo entre una persona y un objeto es el rango de nuestro alcance. Lo que esta dentro de nuestro alcance, no siempre tiene que ser posible gracias a nuestras habilidades, sino también puede ser posible gracias a la adquisición de habilidades mediante objetos. Lo que esta fuera de nuestro alcance conlleva una interactuación sin elementos tangibles, interactuado así mediante la posición y/o localización del usuario, percibida siempre por un elemento tecnológico colocado a nuestro alrededor. De este modo la diferencia entre las cosas que están dentro de nuestro alcance y las cosas que están fuera de nuestro alcance no reside en si estas se pueden tocar o no, sino mas bien en si podemos unir su potencial al nuestro o no, ya que si no se puede unir su potencial, no se puede establecer un dialogo entre el objeto y la persona, por lo que necesitamos información adicional para interactuar con el objeto. Expresión del movimiento: La expresión del movimiento define el modo en el cual se realiza la unión entre persona y objeto en una interacción, ya sea dentro o fuera de nuestro alcance. Para nosotros la manera como realizamos una acción siempre importa, ya que no es lo mismo coger una taza estirando el brazo, que cogerla dando dos vueltas sobre nosotros, saltando, y entonces coger la taza, mientras que para la tecnología solo importa algunas veces, teniendo en cuenta que solo importa si el fin se realiza o no. Es importante para la expresión del movimiento el concepto “Labannotación” ya que se trata de un modelo de descripción del movimiento basado en: el espacio, la intensidad, la duración, y la fluidez del movimiento. CONCLUSIONES Finalmente como conclusiones podemos decir que en la interacción tecnológica, nuestro potencial de actuación está condicionado a lo que la tecnología nos permite hacer. También es importante saber que todos los conocimientos y conceptos que se han explicado anteriormente, no son para definir los modelos de interacción, sino para comprender la sensibilidad a la hora 2 Body Moverment de interactuar. Por otro lado hay que ser conscientes que diferentes personas tendrán diferentes potenciales, por lo que esto siempre puede ser un aliciente a la hora de investigar en el campo de la interacción, para así intentar igualar los potenciales independientemente de la capacidad física. 2. MODELOS DE INTERACCION CABBOOTS El primer modelo es un prototipo llamado CabBoots, es un prototipo de botas con sistema de orientación integrado. Su principal característica es la forma usada para orientar. Mientras que otros sistemas de navegación usan señales visuales o acústicas para orientar, las CabBoots se basan en la interacción kinestesica para guiar. El dispositivo son unas botas normales en las que se ha ampliado la suela. En la suela se han introducido inputs para saber la posición exacta de cada pie individualmente. Para ello en cada bota incluye un sensor de distancia infrarrojo, un acelerómetro de 2 ejes y una bruja eléctrica. Como output usa la variación de la inclinación de cada pie, eso lo hace con unos servomotores instalados en las suelas. El concepto que usa para guiar es la simulación de andar por un camino hundido en el suelo. De esta forma si se va andando por el camino y se esta siguiendo correctamente, no se notará ninguna interacción en las botas, mientras que si se desvía y se vas a salir de la ruta se notará que en el pie del lado por el que te sales de la ruta la inclinación varía. De esta forma instintivamente se tenderá a corregir la ruta para no salirse. Para ello el software que usa recrea una topología 3D en la que crea una concavidad en la ruta a seguir, de esa forma sabiendo la posición exacta de cada pie se puede reaccionar en consecuencia. Puntos Fuertes Su forma intuitiva de guiar ya que simula una realidad que la mayoría de personas ha probado. La utilidad que puede tener para personas discapacitadas, ya que no necesita guiar con indicaciones visuales ni acústicas (como los GPSs) La simulación de la topografía 3D está muy lograda. Inconvenientes Software muy complicado, no puede ejecutarse en un dispositivo de poca potencia como podría ser un móvil o una PDA, tiene que ejecutarse en un ordenador, con los inconvenientes que ello conlleva. Prototipo alámbrico, las botas están conectadas al ordenador por cables. Útil solo para suelos lisos, ya que si es un terreno irregular las irregularidades del terreno se podrían interpretar como señales de las CabBoots. Taller Sistemas Interactivos I, 2007 TAP INPUT AS AN EMBEDDED INTERACTION METHOD FOR MOBILE DEVICES Este segundo modelo se basa en un proyecto de investigación de Nokia, que parte de la base de que los teléfonos móviles están diseñados para interactuar con ellos usando las manos. A partir de este punto se visualiza un problema, el usuario no suele estar con el teléfono móvil en la mano e interactuar con el teléfono se hace difícil sin mirar la pantalla. El objetivo de este proyecto es encontrar una solución posible a este problema, más concretamente, comprobar si es factible usar un sistema de detección de movimiento, como método de interacción del usuario, para reconocer gestos de las manos. Análisis de la situación Actualmente, los teléfonos tradicionales ofrecen interfaces con botones con los que el usuario opera, esta interfazpor tanto esta limitada a un cierto espacio del objeto en sí, dificultando la interacción con el objeto si no se observa. Sin embargo, la interacción por gestos convierte al objeto en su propia interfaces, facilitando así la interacción del usuario con él. Para poner esta idea en práctica deben estudiarse los diferentes movimientos para interactuar y su forma de reconocerlos, para que el objeto pueda entender sus nuevas entradas. De esta forma observamos que principalmente hay dos tipos de movimientos: largos (referenciados a movimientos por inercia, como por ejemplo, dibujar formas en el aire, etc.) y cortos (referenciados a movimientos por tapping, como por ejemplo, golpecitos, etc.). Los primeros pueden ser detectados mediante el uso de cámaras o sensores, sin embargo, los segundos necesitan ser detectados mediante sensores únicamente, como aceleradores 3D, ya que las cámaras no pueden garantizar el reconocimiento de movimientos tan breves y precisos. Estudio de aceptación Social Una vez terminado el análisis de la situación actual, era necesario saber que nivel de aceptación tendría este sistema en al sociedad. Por tanto se buscaba obtener respuesta a las siguientes 3 preguntas: ¿Qué gestos reconoce la gente de diferentes contextos sociales?, ¿Cual es la franja que separa los gestos aceptables/inaceptables? y ¿Realmente la gente se sentiría beneficiada con una interfaz de este estilo? Para obtener una respuesta representativa a estas preguntas, se organizó una encuesta a 41 personas (2/3 de ellas relacionadas con las Tecnologías de la Información). Esta se basaba en mostrar seis escenarios diferentes, de situaciones hipotéticas de la vida cuotidiana, donde el usuario tendría que interactuar con el móvil usando sistemas gestuales diferentes, para ver cuales serían las más aceptadas. 3 Body Moverment Los escenarios son los siguientes: 1) Café, manotazo para que deje de sonar el móvil. 2) Biblioteca, gesto “X” para modo silencioso. 3) Ciclismo, agitar para llamar. 4) Andando, oscilar el móvil para leer un sms. 5) Andando, hacer un círculo para ver el calendario. 6) Hablando, golpecitos para bajar/subir el volumen. Y los resultados fueron estos: La interpretación de este gráfico es que los “tap inputs” estaban bastante mejor vistos que los movimientos por inercia, y que, en todos los casos, los “tap inputs” se consideraban mejoras. Así que efectivamente se decidió llevar a cabo prototipos de teléfonos móviles incorporando los “tap inputs” como sistemas de entrada. Test de usabilidad Nokia puso en marcha la creación de dos prototipos: un Nokia 5500 mejorado y ELEN (Nokia 6630 con más mejoras que el anterior, y considerado como el prototipo real para estas entradas). El prototipo Nokia 5500 (Imagen de la izquierda) incorporaba un acelerador 3D para detectar “tap inputs”, mientras que ELEN (Imagen de la derecha) incorporaba un acelerador 3D, un microcontrolador, un chip lector NFC, LED's azules, timbre y vibrador (estos tres últimos para proporcionar un feedback instantáneo de los propios tap inputs). Taller Sistemas Interactivos I, 2007 - Alarm clock, snooze it. (double tap) (device on table) - Preview received message in idle (double tap) (device on table) - Scroll through images in gallery (single tap) (device held in hand) - Preview message in gallery (double tap) (device held in hand) - Browser, calendar alarm activates, snooze it (double tap) (device held in hand) - Lock keys in idle (double tap) (device held in hand) - Music player pause/play (double tap), next/prev (method: single tap) (device held in hand) - Music player pause/play (double tap), next/prev (method: single tap) (device in pocket) - User places phone in pocket and completes sorting task around the office (false double taps are counted) Los resultados de este primer test fueron buenos en general, se quería analizar tanto la intuición (Los participantes únicamente sabían estas descripciones de las tareas, pero no sabían donde debían usar los taps), como el comportamiento del usuario con el objeto. Pero como era de esperar también surgieron problemas, principalmente por la falta de feedback y el delay de los procesos (usuarios tendían a repetir la acción). Así, de esta forma también se observó que los usuarios no sabían cómo interactuar exactamente, y esto se producía golpes más fuertes y más aceleración en los movimientos. De la misma forma también se observó que tenían dificultad para recordar los diferentes movimientos para una determinada acción (ex: reproductor música, dificultad de mezclar “single tap” y “double tap”). Por estas razones se tomaron nuevas direcciones de diseño sobre los prototipos para paliar estos problemas, como por ejemplo: eliminar los single tap (dificultad de mezclar single con double), mejorar la fiabilidad variando los algoritmos de reconocimiento (restringir la dirección en los “double taps”), añadir un feedback inmediato de reconocimiento de tap inputs, y añadir un regulador de la fuerza de los taps (incorporar un juego mediante tapping para que el usuario aprenda a como ha de realizar el tapping). Con estas mejoras se procedió a realizar un segundo test con 10 participantes profesionales en TI, que interactuarían con los dos prototipos esta vez. Las instrucciones esta vez eran las siguientes: Nokia 5500 Prototype: Para realizar el primer test de usabilidad eligieron a 15 participantes, profesionales en TI, para que interactuaran con la primera versión del ELEN (no incorporaba los elementos de feedback instantáneo), y les mandaron las siguientes instrucciones para el uso correcto del teléfono móvil: - Phone rings, mute it (double tap)(device in hands) - Phone rings, mute it. (double tap) (device in pocket) - Music player pause/play (double tap) - Music player next/prev (double tap to sides) - Check received text message in the Gallery view (double tap) - Music player pause/play (double tap) (Phone attached to its belt) - Music player next/prev song (double tap to sides) (Phone attached to its belt) ELEN: - Music player pause/play (double tap) 4 Body Moverment - Preview message in Gallery view (double tap) Y los resultados fueron bastante mejores que los primeros, sobretodo con el prototipo ELEN, pero con la sensación de que aún no habían conseguido una fusión perfecta entre usuario y la nueva forma de interacción, y, por tanto, mucho camino por recorrer. Taller Sistemas Interactivos I, 2007 aunque las ventajas actualmente no muy relevantes. Por lo tanto deducimos que hay mucho camino por recorrer en este sector. REFERENCIAS 1. The Feel Dimension of Technology Interaction: Exploring Tangibles thorugh Movement and Touch. Astrid Twenebowa Larssen, Toni Robertson, Jenny Edwards. 2. CabBoots: shoes with integrated guidance system. Martin Frey 3. Tap input as an embedded interaction method for mobile devices. Sami Ronkainen, Jonna Häkkilä, Saana Kaleva, Ashley Colley, Jukka Linjama Conclusiones Esta nueva forma de interactuar es interesante, pero tiene problemas como su dificultad para adaptarse a cada usuario. Por otra parte, se tiene que admitir que como toda nueva tecnología que surge, la falta de experiencia del usuario siempre juega en contra de esta, y ya se comprobó en los test que el uso continuado de estos componentes facilitan la interacción posteriormente, 5