body movement

Anuncio
Body Moverment
Taller Sistemas Interactivos I, 2007
Body movement
Javier Escolano Rodríguez, David Elfau López, Antonio Vela de Marco
Taller Sistemas Interactivos (UPF)
ABSTRACT
En este paper planteamos la interacción mediante los
movimientos del cuerpo. En primer lugar describimos los
conceptos teóricos sobre la interacción con el uso del
cuerpo, ya sea mediante el reconocimiento de los
movimientos y acciones del cuerpo, o la percepción del
espacio interactivo por parte del cuerpo. Más adelante
profundizaremos más en estos conceptos. La segunda
parte esta compuesta de dos modelos de interacción
mediante los movimientos del cuerpo. El primer modelo
está basado en la percepción corporal de los movimientos
de las CabBoots como sistema de guía, y el segundo es un
sistema interactivo para móviles basado en la interacción
mediante golpes de baja intensidad y movimientos
espaciales.
ejemplo mirar, estirar un brazo, respirar... la
propiocepción es la que nos hace saber que se están dando
estos movimientos o acciones.
Percepción Espacial
Este ámbito dentro de la percepción, nos permite
localizarnos en relación a un espacio. Principalmente
gracias a los sentidos de la vista y del oído, podemos
orientarnos en frente a lo que nos rodea. Así, utilizando
todos nuestros sentidos físicos y desde nuestro punto de
referencia, nos construimos la relación espacial que nos
rodea y que nosotros percibimos.
Tacto – Percepción Háptica
A continuación introducimos unos conceptos sobre la
teoría del movimiento. El objetivo no es definir como se
deben implementar o diseñar los modelos interactivos
basados en el movimiento, sino conocer cual es la
sensación percibida por el usuario de dichos modelos y
como debe sentirse.
El tercer ámbito de la percepción es el tacto, conocido
más técnicamente como percepción háptica. Hay dos
tipos de percepción háptica, la activa y la pasiva. Tanto en
la percepción activa como la pasiva, su motor sensorial
está presente en la piel. La percepción háptica activa
sucede cuando las personas movemos nuestras manos y
nuestros dedos para explorar objetos y percibir sus
características más tangibles. La percepción háptica
pasiva no involucra el movimiento de manos y dedos,
sino que viene dada por las sensaciones fruto de una
acción no voluntaria, como puede ser rozarnos con una
pared al girar una esquina.
EL MOVIMIENTO, LA PERCEPCIÓN DEL CUERPO
Uso de los objetos (Herramientas)
Las personas nos movemos, utilizamos nuestras manos
para tocar, movemos la cabeza para mirar, inclinamos el
oído para escuchar, acercamos la nariz para oler... y frente
a todo movimiento hay una información sensorial
relacionada que describe esa acción o movimiento.
Cuando realizamos todas estas acciones nuestros sentidos
están en constante diálogo adquiriendo y mostrando
información referente a la percepción de estos
movimientos o acciones. De este modo nuestros
movimientos vienen definidos por las diferentes maneras
que tenemos de percibir estas sensaciones. Así pues,
podemos dividir en cuatro ámbitos la percepción del
movimiento:
El último ámbito de la percepción del movimiento viene
referida a la incorporación de objetos como herramientas,
es decir, el hombre utiliza objetos adquiriendo así las
propiedades de estos aumentando de este modo su
capacidad de acción y percepción. La capacidad de
incorporar habilidades gracias a la incorporación de
objetos es la principal motivación del estudio que a
continuación se explica.
1. LA DIMENSIÓN SENSORIAL DE LA INTERACCIÓN
TECNOLÓGICA
INTRODUCCION
Propiocepción
El primer ámbito de la percepción es la propiocepción,
que nos da conciencia de nuestro propio movimiento, es
decir, frente a nuestros movimientos y acciones, como por
EL ESTUDIO
La finalidad del estudio realizado no es suplantar los
conocimientos acerca de los aspectos corporales de la
interacción, sino complementarlos. El estudio busca la
adquisición de conocimientos siguiendo actividades
prácticas con y sin objetos. El estudio utilizó tres
actividades, dos sin objetos y una con objetos. La
actividad con objetos fue la gimnasia mediante el método
Pilates, en la cual se utilizan las mesas de ejercicios
1
Body Moverment
Reformer y Cadillac. Las otras dos actividades, sin
objetos, fueron el Yoga, y la Capoeira.
Fruto de este estudio, vatios expertos en el ámbito de la
interacción, llegaron a una definición para la dimensión
sensorial de la interacción tecnológica. Así pues, la
dimensión sensorial de la interacción tecnológica es el
proceso por el cual utilizando nuestros sentidos hápticos y
kinestésicos incorporamos una herramienta a nuestro
espacio corporal, llegando a ser esta una extensión de
nuestro cuerpo, es decir, como mediante nuestros sentidos
hápticos – percepción por contacto –, y nuestros sentidos
kinestesicos – percepción de los propios movimientos,
propiocepción –, incorporamos habilidades gracias al uso
de herramientas.
Una ves realizado el estudio, definieron cuatro ámbitos
para el estudio de la dimensión sensorial: Diálogo
persona-objeto, potencial para actuar, espacio de
actuación y expresión del movimiento.
Diálogo persona-objeto:
Este ámbito hace referencia a aquellas situaciones en las
cuales solo disponemos de los sentidos kinestésicos. Así
pues, para percibir, tenemos que actuar. Un ejemplo de
este ámbito se da cuando estamos delante de una puerta
automática, sino conocemos su funcionamiento, para
comprender el método de interactividad tenemos que
movernos delante de la puerta. De este modo se crea un
diálogo entre la persona y el objeto donde el movimiento
es el canal de comunicación. Hay cuatro maneras de
comprender la relación entre persona y objeto:
· Orientada al objeto: Sin tener la necesidad de utilizar
nuestros sentidos hápticos, hacemos un juicio del objeto
(cuanto pesa, que utilidad tendría,...).
· Prestando atención al objeto: La presencia del objeto
requiere toda nuestra atención, debido a su utilidad o
funcionamiento. Por ejemplo la posesión de una sierra
eléctrica, hace que cuando la estamos utilizando seamos
en todo momento conscientes de su presencia.
· Actuando a través del objeto: El objeto pasa a ser una
prolongación de nuestro cuerpo y adquirimos sus
habilidades, llegando a olvidar su presencia. Este seria el
caso por ejemplo de unos zapatos, que adquirimos la
habilidad de no hacernos daño al pisar, pero llega un
punto en el que no somos conscientes que los llevamos, o
no les prestamos atención.
· Observando y actuando a través del objeto: En este caso
prestamos atención al objeto, pero no pasa a ser nuestro
centro de atención. En este caso una raqueta de tenis
explica perfectamente este concepto, ya que adquirimos
sus habilidades, somos conscientes de su presencia, pero
no centra nuestra atención.
Potencial Para actuar:
Nuestro potencial nos permite saber que queremos hacer
y qué nos permite nuestro cuerpo hacer. Por esto hay que
Taller Sistemas Interactivos I, 2007
ser consciente de que diferentes cuerpos tendrán
potenciales diferentes, ya que no podrá realizar las
mismas acciones, una persona anciana, que una persona
joven y atlética. También la incorporación de objetos
aumenta nuestro potencial para actuar.
Espacio para actuar:
El espacio de actuación delimita los márgenes donde
podemos llevar a cabo nuestras habilidades o las
adquiridas mediante los objetos. Existen tres tipos de
espacios de actuación: El personal, que está limitado por
nuestro cuerpo, y que engloba el concepto de la
propiocepción. El extra-personal, que viene limitado por
el alcance de nuestro cuerpo. Y el espacio lejano, que
contiene el espacio donde interactuamos con otros objetos
o personas. De este modo lo que limita el posible diálogo
entre una persona y un objeto es el rango de nuestro
alcance. Lo que esta dentro de nuestro alcance, no
siempre tiene que ser posible gracias a nuestras
habilidades, sino también puede ser posible gracias a la
adquisición de habilidades mediante objetos. Lo que esta
fuera de nuestro alcance conlleva una interactuación sin
elementos tangibles, interactuado así mediante la posición
y/o localización del usuario, percibida siempre por un
elemento tecnológico colocado a nuestro alrededor. De
este modo la diferencia entre las cosas que están dentro de
nuestro alcance y las cosas que están fuera de nuestro
alcance no reside en si estas se pueden tocar o no, sino
mas bien en si podemos unir su potencial al nuestro o no,
ya que si no se puede unir su potencial, no se puede
establecer un dialogo entre el objeto y la persona, por lo
que necesitamos información adicional para interactuar
con el objeto.
Expresión del movimiento:
La expresión del movimiento define el modo en el cual se
realiza la unión entre persona y objeto en una interacción,
ya sea dentro o fuera de nuestro alcance. Para nosotros la
manera como realizamos una acción siempre importa, ya
que no es lo mismo coger una taza estirando el brazo, que
cogerla dando dos vueltas sobre nosotros, saltando, y
entonces coger la taza, mientras que para la tecnología
solo importa algunas veces, teniendo en cuenta que solo
importa si el fin se realiza o no. Es importante para la
expresión del movimiento el concepto “Labannotación”
ya que se trata de un modelo de descripción del
movimiento basado en: el espacio, la intensidad, la
duración, y la fluidez del movimiento.
CONCLUSIONES
Finalmente como conclusiones podemos decir que en la
interacción tecnológica, nuestro potencial de actuación
está condicionado a lo que la tecnología nos permite
hacer. También es importante saber que todos los
conocimientos y conceptos que se han explicado
anteriormente, no son para definir los modelos de
interacción, sino para comprender la sensibilidad a la hora
2
Body Moverment
de interactuar. Por otro lado hay que ser conscientes que
diferentes personas tendrán diferentes potenciales, por lo
que esto siempre puede ser un aliciente a la hora de
investigar en el campo de la interacción, para así intentar
igualar los potenciales independientemente de la
capacidad física.
2. MODELOS DE INTERACCION
CABBOOTS
El primer modelo es un prototipo llamado CabBoots, es
un prototipo de botas con sistema de orientación
integrado. Su principal característica es la forma usada
para orientar. Mientras que otros sistemas de navegación
usan señales visuales o acústicas para orientar, las
CabBoots se basan en la interacción kinestesica para guiar.
El dispositivo son unas botas normales en las que se ha
ampliado la suela. En la suela se han introducido inputs
para saber la posición exacta de cada pie individualmente.
Para ello en cada bota incluye un sensor de distancia
infrarrojo, un acelerómetro de 2 ejes y una bruja eléctrica.
Como output usa la variación de la inclinación de cada
pie, eso lo hace con unos servomotores instalados en las
suelas. El concepto que usa para guiar es la simulación de
andar por un camino hundido en el suelo. De esta forma si
se va andando por el camino y se esta siguiendo
correctamente, no se notará ninguna interacción en las
botas, mientras que si se desvía y se vas a salir de la ruta
se notará que en el pie del lado por el que te sales de la
ruta la inclinación varía. De esta forma instintivamente se
tenderá a corregir la ruta para no salirse. Para ello el
software que usa recrea una topología 3D en la que crea
una concavidad en la ruta a seguir, de esa forma sabiendo
la posición exacta de cada pie se puede reaccionar en
consecuencia.
Puntos Fuertes
Su forma intuitiva de guiar ya que simula una realidad
que la mayoría de personas ha probado. La utilidad que
puede tener para personas discapacitadas, ya que no
necesita guiar con indicaciones visuales ni acústicas
(como los GPSs) La simulación de la topografía 3D está
muy lograda.
Inconvenientes
Software muy complicado, no puede ejecutarse en un
dispositivo de poca potencia como podría ser un móvil o
una PDA, tiene que ejecutarse en un ordenador, con los
inconvenientes que ello conlleva. Prototipo alámbrico, las
botas están conectadas al ordenador por cables. Útil solo
para suelos lisos, ya que si es un terreno irregular las
irregularidades del terreno se podrían interpretar como
señales de las CabBoots.
Taller Sistemas Interactivos I, 2007
TAP INPUT AS AN EMBEDDED INTERACTION
METHOD FOR MOBILE DEVICES
Este segundo modelo se basa en un proyecto de
investigación de Nokia, que parte de la base de que los
teléfonos móviles están diseñados para interactuar con
ellos usando las manos. A partir de este punto se visualiza
un problema, el usuario no suele estar con el teléfono
móvil en la mano e interactuar con el teléfono se hace
difícil sin mirar la pantalla.
El objetivo de este proyecto es encontrar una solución
posible a este problema, más concretamente, comprobar
si es factible usar un sistema de detección de movimiento,
como método de interacción del usuario, para reconocer
gestos de las manos.
Análisis de la situación
Actualmente, los teléfonos tradicionales ofrecen
interfaces con botones con los que el usuario opera, esta
interfazpor tanto esta limitada a un cierto espacio del
objeto en sí, dificultando la interacción con el objeto si no
se observa. Sin embargo, la interacción por gestos
convierte al objeto en su propia interfaces, facilitando así
la interacción del usuario con él.
Para poner esta idea en práctica deben estudiarse los
diferentes movimientos para interactuar y su forma de
reconocerlos, para que el objeto pueda entender sus
nuevas entradas. De esta forma observamos que
principalmente hay dos tipos de movimientos: largos
(referenciados a movimientos por inercia, como por
ejemplo, dibujar formas en el aire, etc.) y cortos
(referenciados a movimientos por tapping, como por
ejemplo, golpecitos, etc.). Los primeros pueden ser
detectados mediante el uso de cámaras o sensores, sin
embargo, los segundos necesitan ser detectados mediante
sensores únicamente, como aceleradores 3D, ya que las
cámaras no pueden garantizar el reconocimiento de
movimientos tan breves y precisos.
Estudio de aceptación Social
Una vez terminado el análisis de la situación actual, era
necesario saber que nivel de aceptación tendría este
sistema en al sociedad. Por tanto se buscaba obtener
respuesta a las siguientes 3 preguntas: ¿Qué gestos
reconoce la gente de diferentes contextos sociales?, ¿Cual
es la franja que separa los gestos aceptables/inaceptables?
y ¿Realmente la gente se sentiría beneficiada con una
interfaz de este estilo?
Para obtener una respuesta representativa a estas
preguntas, se organizó una encuesta a 41 personas (2/3
de ellas relacionadas con las Tecnologías de la
Información). Esta se basaba en mostrar seis escenarios
diferentes, de situaciones hipotéticas de la vida
cuotidiana, donde el usuario tendría que interactuar con el
móvil usando sistemas gestuales diferentes, para ver
cuales serían las más aceptadas.
3
Body Moverment
Los escenarios son los siguientes:
1) Café, manotazo para que deje de sonar el móvil.
2) Biblioteca, gesto “X” para modo silencioso.
3) Ciclismo, agitar para llamar.
4) Andando, oscilar el móvil para leer un sms.
5) Andando, hacer un círculo para ver el calendario.
6) Hablando, golpecitos para bajar/subir el volumen.
Y los resultados fueron estos:
La interpretación de este gráfico es que los “tap inputs”
estaban bastante mejor vistos que los movimientos por
inercia, y que, en todos los casos, los “tap inputs” se
consideraban mejoras. Así que efectivamente se decidió
llevar a cabo prototipos de teléfonos móviles
incorporando los “tap inputs” como sistemas de entrada.
Test de usabilidad
Nokia puso en marcha la creación de dos prototipos: un
Nokia 5500 mejorado y ELEN (Nokia 6630 con más
mejoras que el anterior, y considerado como el prototipo
real para estas entradas). El prototipo Nokia 5500
(Imagen de la izquierda) incorporaba un acelerador 3D
para detectar “tap inputs”, mientras que ELEN (Imagen
de la derecha) incorporaba un acelerador 3D, un
microcontrolador, un chip lector NFC, LED's azules,
timbre y vibrador (estos tres últimos para proporcionar un
feedback instantáneo de los propios tap inputs).
Taller Sistemas Interactivos I, 2007
- Alarm clock, snooze it. (double tap) (device on table)
- Preview received message in idle (double tap) (device
on table)
- Scroll through images in gallery (single tap) (device
held in hand)
- Preview message in gallery (double tap) (device held in
hand)
- Browser, calendar alarm activates, snooze it (double tap)
(device held in hand)
- Lock keys in idle (double tap) (device held in hand)
- Music player pause/play (double tap), next/prev
(method: single tap) (device held in hand)
- Music player pause/play (double tap), next/prev
(method: single tap) (device in pocket)
- User places phone in pocket and completes sorting task
around the office (false double taps are counted)
Los resultados de este primer test fueron buenos en
general, se quería analizar tanto la intuición (Los
participantes únicamente sabían estas descripciones de las
tareas, pero no sabían donde debían usar los taps), como
el comportamiento del usuario con el objeto. Pero como
era de esperar también surgieron problemas,
principalmente por la falta de feedback y el delay de los
procesos (usuarios tendían a repetir la acción). Así, de
esta forma también se observó que los usuarios no sabían
cómo interactuar exactamente, y esto se producía golpes
más fuertes y más aceleración en los movimientos. De la
misma forma también se observó que tenían dificultad
para recordar los diferentes movimientos para una
determinada acción (ex: reproductor música, dificultad de
mezclar “single tap” y “double tap”).
Por estas razones se tomaron nuevas direcciones de
diseño sobre los prototipos para paliar estos problemas,
como por ejemplo: eliminar los single tap (dificultad de
mezclar single con double), mejorar la fiabilidad variando
los algoritmos de reconocimiento (restringir la dirección
en los “double taps”), añadir un feedback inmediato de
reconocimiento de tap inputs, y añadir un regulador de la
fuerza de los taps (incorporar un juego mediante tapping
para que el usuario aprenda a como ha de realizar el
tapping).
Con estas mejoras se procedió a realizar un segundo test
con 10 participantes profesionales en TI, que
interactuarían con los dos prototipos esta vez. Las
instrucciones esta vez eran las siguientes:
Nokia 5500 Prototype:
Para realizar el primer test de usabilidad eligieron a 15
participantes, profesionales en TI, para que interactuaran
con la primera versión del ELEN (no incorporaba los
elementos de feedback instantáneo), y les mandaron las
siguientes instrucciones para el uso correcto del teléfono
móvil:
- Phone rings, mute it (double tap)(device in hands)
- Phone rings, mute it. (double tap) (device in pocket)
- Music player pause/play (double tap)
- Music player next/prev (double tap to sides)
- Check received text message in the Gallery view
(double tap)
- Music player pause/play (double tap) (Phone attached to
its belt)
- Music player next/prev song (double tap to sides)
(Phone attached to its belt)
ELEN:
- Music player pause/play (double tap)
4
Body Moverment
- Preview message in Gallery view (double tap)
Y los resultados fueron bastante mejores que los
primeros, sobretodo con el prototipo ELEN, pero con la
sensación de que aún no habían conseguido una fusión
perfecta entre usuario y la nueva forma de interacción, y,
por tanto, mucho camino por recorrer.
Taller Sistemas Interactivos I, 2007
aunque las ventajas actualmente no muy relevantes. Por
lo tanto deducimos que hay mucho camino por recorrer
en este sector.
REFERENCIAS
1.
The Feel Dimension of Technology Interaction:
Exploring Tangibles thorugh Movement and Touch.
Astrid Twenebowa Larssen, Toni Robertson, Jenny
Edwards.
2.
CabBoots: shoes with integrated guidance system.
Martin Frey
3.
Tap input as an embedded interaction method for
mobile devices. Sami Ronkainen, Jonna Häkkilä,
Saana Kaleva, Ashley Colley, Jukka Linjama
Conclusiones
Esta nueva forma de interactuar es interesante, pero tiene
problemas como su dificultad para adaptarse a cada
usuario. Por otra parte, se tiene que admitir que como
toda nueva tecnología que surge, la falta de experiencia
del usuario siempre juega en contra de esta, y ya se
comprobó en los test que el uso continuado de estos
componentes facilitan la interacción posteriormente,
5
Descargar