sean ampliadas y enriquecidas. Para que eso pase

Anuncio
1
ESTÉTICA DE LAS CREACIONES ELECTRÓNICAS
Teleinmersión. Del ciberespacio hacia el espacio1
Por Rejane Cantoni
Desde el punto de vista físico, la creación del ciberespacio inició en el año
1969. En este año, técnicos de la empresa Bolt Beranek and Newman, al
servicio de Advanced Research Projects Agency (ARPA), conectaran vía líneas
telefónicas especiales, 2 computadores físicamente distantes: Uno situado en
la Universidad de California, en los Angeles, y el otro en el Stanford Research
Institute, en Stanford. Un año después, otros dos serán agregados a esa red:
Universidad de California, en Santa Bárbara y Universidad de Utah, en Salt
Lake City, componiendo así una red de cuatro sitios. En los siguientes años,
otros sitios fueron agregados a esa red y a ARPAnet, que comenzó como un
experimento, luego se extendió como una enorme red de computadores
públicos y privados interconectados. A finales de los años ochenta, esas redes
se fundieron y resultaron en Internet.
Internet también creció. Surgirán otras redes menores, backbones2, que se
ligarán a ella, cada una ejerciendo un papel fundamental para inspirar nuevas
aplicaciones en Internet (e.g., la World Wide Web), o diseñadas con una
finalidad específica de soportar investigaciones (e.g. NSFnet, a finales de los
años 80 y la VBNS, a mitad de los años 90). En 1998, un nuevo proyecto
Este capítulo se encuentra publicado en el libro: “Estética, ciencia y tecnología: creaciones
electrónicas y numéricas” Iliana Hernández García (coautora y compiladora) et al.
Departamento de Estética – Facultad de Arquitectura y Diseño – Centro Editorial Javeriano,
Linea de Estética Contemporánea, Bogotá, 2005.
2 Un backbone es una red que conecta otras redes. Ese artificio permite que una información
viaje más rápidamente, a través de conexiones de larga distancia.
1
2
backbone de investigación, llamado Abilene, comenzó a ser implementado.
Desarrollado por un consorcio, integrando más de 170 instituciones
académicas y 50 corporaciones, ese proyecto está al servicio de la creación de
Internet 2.
Uno de las principales objetivos del proyecto Abilene incluye mejoras
considerables de tecnologías de comunicación amigable, lo que se traduce en:
1. Un alto nivel de ancho de banda o bandwidth3; 2. La creación de protocolos
que soportan aplicaciones que requieren bajas latencias (valor de los retrasos
impuestos por las señales en ruta). Esas mejoras acabaran generando un
problema singular: ninguna de las aplicaciones existentes hasta entonces
exigía ese tipo de desempeño. La pregunta era: ¿Cómo probar la altísima
capacidad de transmisión informacional de Internet 2?
Uno de los líderes de la organización Advanced Network and Services
(involucrada en el proyecto de Internet 2) Allan H. Weis, tuvo una idea.
Propone desarrollar una teleinmersión (tele-immersion en inglés), una nueva
tecnología de comunicación que combine aspectos de realidad virtual -tener en
cuenta que ningún otro sistema consume más ciclos computacionales, ancho
de banda de comunicación y requiere menor latencia en el retraso de envío de
señales- con una tecnología de videoconferencia. Siguiendo lo descrito, esto
fue lo publicado en el sitio del National Tele-immersion Initiative:
“Tele-immersion enables users at geographically distributed sites to collaborate
in real time in a shared, simulated, hybrid environment as if they were in the
same physical room”4
Crear la ilusión de que el interactor compartirá “naturalmente” el mismo espacio
con otros interactores, cuando éstos están situados a millares de kilómetros, no
es una tarea fácil. Entre los desafíos, el primero implica trascender los límites
3
Bandwidth o ancho de banda es un valor (en Hertz) que describe la cantidad máxima de
información que puede circular por un canal de transmisión.
4 National Tele-immersion Initiative Web site: www.advanced.org/teleimmersion.html.
3
de la cámara de video y crear, para cada participante, un punto de vista
particular y un tiempo real de escena remota.
Dos elementos-clave en teleinmersión son: 1. Cada interactor debe tener un
punto de vista propio de las escenas remotas -ese punto de vista debe ser en
realidad doble,
para preservar la sensación de profundidad del efecto
estereoscópico, cada lente debe ver a partir de su propia perspectiva-. 2. Los
interactores deben estar libres, como una cámara subjetiva móvil que se altera
de acuerdo con el movimiento o el agenciamiento del interactor.
Una estrategia posible para trascender los límites del punto de vista de una
cámara que es independiente del interactor, es escanear la escena y transmitir,
a cada sitio remoto, un modelo escultórico animado de espacio, dos agentes y
dos objetos. Esto significa replicar visualmente, en tiempo real y en tres
dimensiones, pedazos del espacio que envuelve a los participantes del
encuentro ciberespacial. Para esto, los contornos 3D de los “habitantes”, del
espacio y de los objetos deben ser constantemente medidos, lo que puede ser
realizado en una cantidad diversa de formas.
El abordaje que está siendo investigado por la National Tele-immersion
Initiative es una técnica conocida por el nombre de sea of cameras (mar de
cámaras, en español). Desarrollada en 1993, por Henry Fuchs, en la
Universidad de North Caroline, esta técnica consiste en captar los diversos
ángulos de un objeto, por medio de un conjunto de cámaras de video, y
procesar esta información a través de un software que, por comparación,
combina un modelo en 3D de la escena. Esta técnica fue utilizada en proyectos
de instalación.5 Sin embargo, uno de los problemas con ese método es que no
fue concebido para operar en tiempo real, una característica que invalidaría su
uso en sistemas de teleinmersión.
5
Uno de los primeros experimentos en explorar esta técnica fue una instalación Virtualized
Reality (1995) de Takeo Kanabe, es una configuración que consistía en 51 cámaras,
dispuestas en un Domo Geodésico. En esta implementación, videastas grababan que eran
luego procesados.
4
En 1994, la investigadora jefe de GRASP (General Robotics, Automation,
Sensing and Perception Laboratory de Pennsylvania University), Ruzena
Bajcsy, intrigada con la cuestión de la teleinmersión, resuelve trabajar en una
nueva versión de técnica del mar de cámaras. En colaboración con los centros
de Chapel Hill y Carnegie Mellon, Bajcsy y otros colegas, desarrollaran un
sistema compuesto de tres cámaras de video, de un software gráfico capaz de
convertir, en tiempo real, los datos captados en esculturas animadas realistas y
de un dispositivo especial de proyección de luz, llamado ISL (Imperceptible
Structure Light, en la sigla en inglês).6
La primera demostración de teleinmersión ocurre en mayo de 2000, entre
investigadores de la Universidad de North Caroline, en Chapel Hill, de la
University of Pensylvania, en Philadelphia, y del Advanced Network and
Services, en Armonk, Nueva York.7 En un esquema bastante simplificado de
este experimento, un participante, usando unas gafas y un sensor de posición
de cabeza, podía ver, como si fuera a través de dos “ventanas” de su
laboratorio, una proyección 3D animada (creada con una técnica desarrollada
por Fuchs, Bajcsy y otros colegas) de los otros dos participantes, cada uno
estando localizado a cientos de kilómetros. Cuando el participante se movía,
podía ver una modificación de la escena, como si las personas y los objetos
remotos estuviesen allí. Un artículo publicado en la revista Scientific American,
Jaron Lanier narra la experiencia:
6
Uno de los problemas de esta técnica es el fenómeno de la pared blanca. Si las cámaras
estuvieran captando en una pared blanca, datos como la textura de la superficie seran
ignorados. Para resolver este desafío los investigadores de Chapel Hill desarrollaron un
dispositivo capaz de generar patrones rápidamente mutables, que sean captados solamente
por cámaras especiales. El ISL (Imperceptible Structure Light, sigla en inglês) está compuesto
por un conjunto de lámparas que pasan a una velocidad imperceptible al ojo humano, 50 a 60
veces por segundo. La función de esos patrones de luz es crear texturas donde no existe
información evidente, como en situaciones de paredes blancas, o que posibilitan a un algoritmo
el completar los datos entregados por el mar de cámaras.
7 Participarán en esta primera demostración de teleinmersión: Guy Almes, Ruzena Bajcsy,
Andy van Dam, Kostas Daniilidis, Joseph L. Dionne, Lisa Ernst, Mike Frame, Henry Fuchs,
Robert Harris, Loring Holden, Douglas E. Van Houweling, Jaron Lanier, Brian Menkes, Kristin
Mortensen, Andrea Papa, Terrence W. Rogers, Jay Rosen, Herman Towles, Allan H. Weis,
Greg Welch, Myra Williams, Joe B. Wyatt, Matt Zekauskas, Robert Zeleznik, Wei-Chao Chen,
Aditi Majumder, Gopi Meenakshisundaram, Andrew Nashel, Ramesh Raskar, Ruigang Yang,
Jane Mulligan e Amela Sadagic.
5
“Seen through a pair of polarizing glasses, two walls of the cubicle 8 dissolved
into windows, revealing other offices with other people who were looking back
at me. (The glasses helped to direct a slightly different view of the scenes to
each eye, creating the stereo vision effect.) Through one wall I greeted Amela
Sadagic, a researcher at my lab in Armonk, N.Y. Through the other wall was
Jane Mulligan, a postdoctoral fellow at the University of Pennsylvania. Unlike
the cartoonish virtual worlds I had worked with for many years, the remote
people and places I was seeing were clearly derived from reality. They were not
perfect by any means. There was "noise" in the system that looked something
like confetti being dropped in the other people's cubicles. The frame rate was
low (2 to 3 fps), there was as much as one second of delay, and only one side
of the conversation had access to a tele-immersive display. Nevertheless, here
was a virtual world that was not a simplistic artistic representation of the real
world but rather an authentic measurement-based rendition of it.”9
Además de estas técnicas de captura de la escena remota y de los servicios de
redes telemáticas, otros componentes críticos del sistema de teleinmersión son
los dispositivos de visualización y de interacción.
Con respecto a los dispositivos de visualización, una cuestión que promete
ocupar a los científicos de la teleinmersión es la idea de que el ambiente real y
el ambiente virtual no estén todavía totalmente integrados. En el experimento
realizado por la National Tele-Immersion Initiative, los bordes de los cubículos
virtuales no se encuentran; permanecen como ventanas y, en última instancia,
en teleinmersión, un cubicle promete ser una especie de interface 3D
inmersiva, con grandes telas o paredes que sirven de superficie de proyección.
Una vez conectadas a la red, estas paredes “desaparecen” como si fueran
pasajes transparentes para otros cubicles, de forma que ambientes físicos y
virtuales parecen estar unificados, no siendo posible que los interagentes
detecten fronteras en los bordes. Esta visión prevé, por ejemplo, la creación de
enormes telas de proyección autoestereoscópicas10, que podrían dar a los
8
Un tele-cubicle es un modelo de interface inmersiva, una especie de sala que posee telas y
paredes formadas por una superficie de proyección.
9 Jaron Lanier, “Virtually There”. Scientific American, April, pp. 52-61, (2001) p.57.
10 Dispositivos autoestereoscópicos prsentando una imagen 3D al observador, sin necesidad
de uso de óculos o cualquier otro equipamiento especial.
6
cibernautas la sensación (total o parcial) de inmersión en el ambiente del
encuentro.
El otro problema son las interfaces de interacción que posibilitan la
telecomunicación televirtual entre los participantes y el ambiente. En un
segundo experimento (realizado por la National Tele-Immersion Initiative, en
Octubre de 2000), científicos de Brown University introducirán objetos virtuales,
no
derivados
de
la
escena
física,
que
podrían
ser
manipulados
colaborativamente. Esto ya es un avance, pero las investigaciones prometen
mucho más.
Olor digital
Uno de los pioneros de los sistemas de realidad virtual, Myron Krueger es uno
de los investigadores que está haciendo experimentos con la simulación
olfativa. Con el patrocinio de la Defense Advanced Research Projects Agency,
Krueger busca desarrollar una tecnología capaz de ofrecer pistas olfativas a
cirujanos cibernéticos que operan a través de sistemas de telecirugía.
El prototipo que está siendo desarrollado por Krueger y su equipo es una
especie de micrófono fijado a la cabeza del interactor y que apunta a su nariz.
Ese artefacto está conectado a un conjunto de 10 esencias líquidas,
almacenadas en un recipiente que el intereactor carga a cuestas. Los olores
son generados a partir de un sistema selectivo de evaporación ultrasónica que
agita las moléculas de esas esencias, hasta que se evaporan También consta
de un dispositivo de visualización y detección de posición, del tipo HMD (Head
Mounted Display). Cuando el interactor se mueve, su posición es informada al
computador que acciona, en el momento apropiado, las imágenes y los olores
correspondientes.
La idea de utilizar olores con otros medios (en particular en el cine) comenzó a
ser explorada al final de los años cincuenta. Entre las tentativas, el documental
Behind the Great Wall, presentado en las salas Aroma-Rama, en los Estados
Unidos, incluía 72 perfumes que eran exhalados, durante la exhibición, a través
7
del sistema de ventilación del teatro. Otros ejemplos son el Sensorama (cf.
Cap.2)
de Morton Heilig, que utilizaba un dispositivo nasal mecánico y la
película Polyester (1981), de John Waters, cuyo experimento incluía distribuir a
la audicencia cartones perfumados numerados que debían ser olídos durante la
sesión.
Aunque la idea de incluir el olor en la expriencia cinematográfica fuese
atrayente, esas tentativas acabaron resultando en “dolores de cabeza”. Uno de
los problemas recurrentes era que el olor que llegaba al participante no era
siempre removido antes del próximo estímulo, lo que resultaba en una
experiencia desagradable.
El otro problema eran los límites tecnológicos para simular una vasta palette de
olores. En una entrevista dada por David Pescovitz, Krueger observa que,
inclusive hoy, uno de los problemas-clave enfrentados por los investigadores
de las interfaces olfativas es que la tecnología para la simulación de olores es
muy limitada: "The technology of odor simulation is very limited beyond flowers
and fruits. And it's nonexistent for things like diesel fuel, explosives, all those
things you might want for example for an action-adventure game"11
Una posible respuesta para esa cuestión parece estar siendo formulada por el
biólogo Joel Lloyd Bellenson y por el ingeniero industrial Dexster Smith (ambos
de DigiScents Inc.). La novedad del proyecto Bellenson y Smith es que ellos
parten de la ingeniería fisiológica humana. Para estos investigadores, la pista
para simular una vasta palette de olores está en el papel que los genes
desempeñan en nuestra habilidad para detectar olores (un descubrimiento de
la neurobióloga Linda Buck, de Harvard University). Conforme a lo que los
científicos describen en el artículo "You've got smell" de Charles Platt, la
fisiología del olor es la siguiente:
“When odor molecules drift into the nose, each of them binds with particular
protein on the surface of the neuron. There are about 1.000 odor-matching
11
Pescovitz (17) p.p. 50-51
8
proteins, each with a slightly different configuration, scattered across a human's
10 million odor-detecting neurons (…). When the shape of an odor molecule
matches the shape of a protein, the molecules lock together, triggering the
neuron, which sends a signal that the brain recognizes as a smell. DNA is
relevant because its instructions its genes tell the body how to build the
proteins that receive odor molecules and activate the neurons”.12
La implementación del proyecto utilizó cada etapa del proceso olfativo. Para
comenzar, el biólogo Bellenson seleccionó secuencias de genes, que le
posibilitaban determinar un tipo de proteínas que esas secuencias podrían
generar. Las proteínas, a su vez, determinaran el tipo de moléculas odoríferas
con las cuales se podrían conectar, o que posibilitaría a Bellenson crear una
tabla de olores posibles.
Para simular la conexión entre las moléculas
odoríferas y las proteínas, los investigadores desarrollaron un dispositivo y un
software.
El prototipo, que fue bautizado como ¡Smell, es una pequeña caja negra, de
plástico, que contiene 35 pequeños frascos con esencias, un calentador y un
mini-ventilador. El modelo de operación actual, el interactor, por medio de una
interface gráfica, selecciona una imagen que corresponde al olor deseado. Esa
instrucción es dada a un software que especifica cuales fragancias, contenidas
en el dispositivo, seran calentadas. Cuando las moléculas comienzan a
evaporarse, el mini-ventilador es accionado, lo que posibilita difundir el olor
resultante.
La idea que está detrás de ese mecanismo es bastante elegante. De la misma
manera que un monitor de video genera millones de colores a partir de 3
colores elementales, el ¡Smell, administrado por un computador, puede simular
un gran número de olores, combinando proporciones distintas a partir de un
número limitado de esencias. En segundo lugar, estima Bellenson y Smith, el
12
Charles Platt, "You've got smell". Wired, November, pp. 256-263, (1999) p.260.
9
producto final deberá contener al menos 128 olores primarios: "Not the entire
scent space, but a substancial part of it"13
Además de la vasta gama de colores, una de las ventajas de esta interface es
que las fragancias pueden ser interpretadas por los interactores, de acuerdo a
sus preferencias, y que tal vez sea una solución eficaz para el problema de las
mezclas de olores que, en experimentos anteriores, resultaron en experiencias
desagradables.
Resta entonces, integrar a Smell a los dispositivos de localización y orientación,
de forma a presentar al interactor una sensación de olor que varía de acuerdo
con su posición.
Interfaces hápticas. manos, dedos y otras partes.
Un número creciente de investigaciones busca incorporar el tacto en el
ciberespacio. Dichos enfoques se dirigen hacia la creación de interfaces
hápticas,14 es una tecnología que promete ofrecer al interactor informaciones
de los objetos virtuales (forma, dureza, peso, inercia, densidad y temperatura),
por medio de sensaciones cutáneas.
Originalmente, las primeras interfaces fueron diseñadas para permitir a un
agente humano, el manipular remotamente substancias radioactivas en
ambientes nucleares (un lugar donde el hombre no podría o no querría estar).
Desarrolladas en 1954, por Raymond Goertz, en el Argonne National
Laboratories, estas interfaces eran esencialmente sistemas de force feedback
mecánicos, que no poseían ningún control electrónico o computacional.
Típicamente a través de una espesa ventana de cuarzo, un agente humano
teleoperaba los movimientos de un mecanismo (de tipo robot “esclavo”) que
seguía, dentro de los límites de su capacidade física, los movimientos del
operador.
13
Platt 20 p.262.
14
Hápticos, en griego significa tocar.
10
En los años 70, estas interfaces y los sistemas de realidad virtual convergieron.
La primera iniciativa, el proyecto GROPE, integró el brazo electromagnético de
Goertz a un sistema que simulaba atrapar moléculas en estructuras protéicas
virtuales.15 Interfaces comerciales de ese tipo comenzaron a surgir en los años
90. Un ejemplo actual de esa tecnología es el CyberGrasp de Virtual
Technologies Inc.
CyberGrasp es un exoesqueleto de mano que posibilita al interactor, asir y
sentir la forma de los objetos en ambientes virtuales. Usado como un guante,
este aparato contiene: 1. Un sensor de posición que detecta la localización de
dos dedos del interactor en relación al objeto y 2. Un conjunto de 6 “tendones
artificiales” que impiden que el interactor cierre la mano más allá de los límites
de la forma del objeto virtual que él está asiendo. Este sistema es eficiente en
aplicaciones que implican agarrar un objeto remoto o virtual, sentir su peso e
inercia. Considerando, sin embargo, los objetivos propuestos por iniciativas
ciberespaciales, como la teleinmersión, poder asir la mano de alguien en un
encuentro virtual no parece ser suficiente.
Una alternativa para los sistemas de force feedback (que simulan dureza o
peso e inercia de los objetos virtuales) son las interfaces con feed back táctil,
que simulan sensaciones táctiles más complejas como textura, viscosidad y
temperatura. Derivadas de investigaciones desarrolladas en los años 80, en el
MIT Media Lab,16 las últimas generaciones de esa tecnología son variaciones
de joysticks17 y mouses18, que “reaccionan” y “vibran” para indicar la textura del
objeto tocado.
R. Goertz, R and R. Thompson, “Electronically controlled manipulator”. Nucleonics, (1954)
pp. 46–47.
15
16
En particular el proyecto de doctorado de Margaret Minsky (hija de Marvin Minsky). La
investigadora desarrolló un modelo de joystick, capaz de crear texturas táctiles que reproducían
la sensación de tocar substancias como la miel o el hielo, o de escribir con un lápiz sobre la
superficie de una lija.
17 Por ejemplo, el joystick como force feedback de Microsoft, y el dispositivo Phantom,
producido por la Sense/able Technologies, Inc.
18 Por ejemplo el FEELit Mouse, de Immersion Corporation: http://www.immerse.com.
11
Independiente del modelo, la idea de los tecnologistas de estas interfaces es
simular (de la manera más realista posible) las sensaciones que ocurren
cuando uno pasa sus dedos sobre una superficie. Ya se prevé que, en un
futuro próximo, un cirujano, mediante una “consola teleinmersiva”, podrá palpar
órganos internos de un paciente y observar si, por ejemplo, existe alguna
arteria obstruída. Esto es claro, a distancia y sin necesidad de hacer una
incisión del tamaño de una mano humana.
El problema es: en el mundo del tacto, un joystick, un mouse o un guante son
artefactos que equivalen a un monitor de video en el mundo de la visión. Esas
interfaces posibilitan “palpar” el ciberespacio, pero están lejos de poder
envolverlo a uno. Para alcanzar la inmersión táctil “total”, el resto de su cuerpo
precisa tomar parte en la experiencia, lo que remite necesariamente a una idea
de una vestimenta o ambiente hápticos, capaces de simular sensaciones
táctiles en el cuerpo entero.
Teledildonics
El visionario de la computación, Theodor Nelson, fue el primero en sugerir que
la tecnología de toque artificial nos llevará al sexo virtual o al sexo remoto. La
palabra “dildonics” fue por él acuñada, en 1974, para describir una máquina
creada por el hacker How Wachspress. El artefacto de Wachspress es una
especie de interface háptica capaz de convertir sonidos en sensaciones
táctiles. El efecto erótico, sugerido por Nelson, depende del interactor, i.e. él
debe escoger la parte de su anatomía que irá interfaceando con el estimulador
táctil.
La hipótesis de Nelson y de muchos otros autores es simple: junte un
dispositivo de cuerpo entero, como el de Wachspress, agregue potencia
computacional y una red telemática de alta velocidad, y el sexo a distancia será
posible. Lo difícil son los problemas técnicos.
Hasta ahora, las investigaciones en interfaces hápticas trataran algunas
subclases de sistema táctil: uno ya puede sentir la forma, el contorno y hasta la
12
felxibilidad del cuerpo de su compañero remoto19, pero eso incluso está muy
distante de lo que sentimos en encuentros sexuales. En el plano de las ideas,
sin embargo, las sugestiones son innumerables. Los modelos más curiosos
imaginados hasta el momento, son los siguientes:
Preservativo digital
El especialista en realidad virtual Howard Rheingold, le apuesta a un modelo
de interface wearable que acopla gafas 3D, una cabina acolchada y una
vestimenta forrada con un enorme conjunto de sensores y vibradores, capaces
de recibir y enviar sensaciones realistas de presencia táctil:
“Picture yourself a couple of decades hence, dressing for a hot night in the
virtual village. Before you climb into a suitable padded chamber and put on your
3D glasses, you slip into a lightweight (eventually, one would hope, diaphanous)
bodysuit, something like a body stocking, but with the kind of intimate snugness
of a condom. Embedded in the inner surface of this suit (…) is an array of
intelligent sensor-effectors a mesh of tiny tactile detectors coupled with
vibrators of varying degrees of hardness, hundreds of them per square inch,
that can receive and transmit a realistic sense of tactile presence…”20
Caverna electromagnética
Para James F. Kramer, presidente de Virtual Technologies, una posibilidad de
tecnología háptica sería transformar una caverna de realidad virtual en un
19
Un ejemplo es el proyecto INTER-SKIN (1994), creado por el artista e investigador noruego
Stahl Stenslie. En INTER-SKIN, los participantes visten una interface háptica que posibilita
transmitir y recibir estímulos sensoriales vía redes telemáticas. Cuando un participante toca su
cuerpo, esa acción es transmitida al participante remoto, quien se siente tocado. La presión del
toque depende de la duración. Cuanto más demore el tiempo de contacto, mayor será el
estímulo sentido por el otro. Otro ejemplo es el proyecto de investigación “Smart skin” que está
siendo implementado por el ingeniero Danilo de Rossi, en la Universidad de Pisa, italia. De
Rossi desarrolla una piel artificial capaz de recibir y transmitir presiones de intensidad variada y
sentir una textura tan sutil como la escritura en braile en una hoja de papel.
20 Howard Rheingold, Virtual reality (New York : Touchstone, 1991) p.346.
13
campo electromagnético. La justificación de este enfoque fue descrita por
David Pescowitz, en el artículo "Your new senses":
"A suit with an array of actuators doesn't give you ground references forces,"
Kramer says. "You could feel a wave rippling across your body, but it's not
going to knock you off your feet. We need a big breakthrough.
One possibility Kramer mentions is that of electromagnetics. He envisions a
virtual-reality-equipped room that, like a MRI machine, is actually a giant
magnet. Clad in a haptic suit with magnetic properties, the wearer would be
buffeted like a paper clip under a refrigerator magnet.”21
Plug neuronal
La propuesta de interface más radical fue sugerida por el inventor futurista Ray
Kurkzweil. Según sus previsiones, al final del siglo 21, varias interfaces seran
plantadas directamente en el “circuito” neuronal. Así, directamente “conectado”,
no se necesitará de interfaces externas para interactuar en los ambientes
virtuales.
“Your neural implants will provide the simulated sensory inputs of the virtual
environments and your virtual body directly in your brain. Conversely, your
movements would not move your "real" body, but rather your perceived virtual
body. These virtual environments would also include a suitable selection of
bodies for yourself. Ultimately, your experience would be highly realistic, just
like being in the real world. More than one person could enter a virtual
environment and interact with each other. In the virtual world, you will meet
other real people and simulated people eventually, there won't be much
difference.”22
21
David Pescovitz, "Getting real in cyberspace". Scientific American, edição especial: Your
bionic future, v. 10, n.3, Fall, pp. 48-51 , (1999) p.50.
22
Ray Kurzweil, The Age of Spiritual Machines: when computers exceed human intelligence
(New York: Viking Penguin, 1999) p.144.
14
Sexo remoto o virtual es probablemente la aplicación que más exigirá de las
tecnologías ciberespaciales. Reproducir realísticamente un encuentro sexual
requiere combinar en un único sistema, las interfaces táctiles, visuales,
auditivas y olfativas de alta resolución; lo que vuelve a esta propuesta un medio
rico para la especulación. Este vector, presume que el ciberespacio, será un
lugar donde los humanos interactuaran con humanos o con objetos simulados,
sin que esas acciones afecten la “realidad” física.
Telepresencia
Otro posible uso para los sitemas de realidad virtual fue propuesto por el
investigador jefe del Artificial Intelligence Laboratory del MIT, Marvin Minsky. Al
final de los años 1950, Marvin Minsky y John McCarthy fundaran, en el MIT, el
primer laboratorio dedicado a la investigación de inteligencia artificial. Entre los
principales objetivos, la inteligencia artificial preveía avanzar el estudio de la
inteligencia humana y construir robots, i.e. máquinas autónomas capaces de
desempeñar tareas que requieren inteligencia, desempeñadas por el hombre.
En un nivel elemental, un robot debe percibir el espacio físico, decidir qué
hacer (basado en percepción y objetivos) y actuar; tareas que presuponen una
tecnología bastante compleja que incluye, entre otras cosas, teorías sobre la
representación del conocimiento, poder computacional y algoritmos que hasta
hoy requieren más investigación y estudio para ser descubiertos.23
Frente a un cuadro de objetivos tan complejo y de límites tecnológicos que solo
podrían ser superados en un futuro distante, al final de los años 70, Minsky
escribió sobre una estrategia para hacer avanzar la investigación. En el artículo
“Telepresence” (1980), describe su propuesta:
Las dificultades para diseñar programas que “racionalizan” y que controlan un robot para
interactuar en un ambiente físico parecen ser enormes. Algunos investigadores conseguirán
programar computadores para comportarse “inteligentemente” en funciones específicas, pero
queda mucho por hacer. Un ejemplo es el computador “Deep Blue”, de IBM, que en Mayo de
1997, venció a Garry Kasparov, uno de los mayores jugadores de ajedrez de todos los tiempos.
Vale decir, que Deep Blue requiere la asistencia de un agente humano que ve y manipula las
obras.
23
15
“A person wears a comfortable jacket lined with sensors and muscle-like
motors. Each motion of arm, hand and finger is reproduced at another place by
mobile, mechanical hands. Light, dexterous and strong, those hands have their
own sensors, through which the operator sees and feels what is happening.
Using such an instrument, you can "work" in another room, another city, or
another country. Your remote "presence" can have the strength of a giant or the
delicacy of a surgeon. Heat or pain is "translated" into informative but tolerable
sensation. Dangerous jobs become safe and comfortable.”24
Aunque Minsky había llamado a ese esquema “Telepresence”25, no se otorgó el
crédito del concepto. Este es un mérito que él atribuye a Robert A. Heinlein,
autor de la ficción científica Waldo.26
Según la ficción, Waldo F. Jones es un científico del futuro que, por tener
limitaciones físicas, desarrolla dispositivos de telepresencia que dirigen los
movimientos de poderosos autómatas, llamados waldos. Los waldos tienen
manos robóticas de tamaños diversos que son controladas por el científico, a
través de un receptor estéreo. En las palabras de Heinlein:
“The most difficult and the most interesting aspect of the investigation had to do
with the neurological system in relation to Other Space. Neither electromagnetic
instruments nor neural surgery was refined enough to do accurate work on the
levels he wished to investigate.
But he had waldoes.
The smallest waldoes he had used up to this time were approximately half a
inch across their palms with micro-scanners to match, of course. They were
much too gross for this purpose. He wished to manipulate living nerve tissue,
examine its insulation and its performance in situ.
He used the tiny waldoes to create tinier ones. The last stage was tiny metal
blossoms hardly an eighth of an inch across. The helices in their stems, or
24
25
26
Marvin Minsky, "Telepresence". Omni, June, pp. 45-52, (1980).
Según Minsky, el término telepresencia "was suggested by my futurist friend Pat Gunkel".
Robert A. Heinlein, Waldo & Magic, Inc. (New York: Ballantine Books, 1990).
16
forearms, which served them as pseudo muscles, could hardly be seen by the
naked eye but, then, he used scanners.
His final team of waldoes used for nerve and brain surgery varied in succeeding
stages from mechanical hands nearly life-size down to these fairy digits which
could manipulate things much to small for the eye to see. They were mounted in
bank to work in the same locus. Waldo controlled them all from the same
primaries; he could switch from one size to another without removing his
gauntlets. The same change in circuits which brought another size of waldoes
under control automatically accomplished the change in sweep of scanning to
increase or decrease the magnification so that Waldo always saw before him in
his stereo receiver a "life-size" image of his other hands.”27
Conforme sugiere el pasaje de ficción de Heinlein, una cuestión central en
telepresencia es que esta tecnología crea un contexto en el cual los
interactores experimentan mundos remotos de perspectivas diferentes de las
humanas, una vez que esos mundos son percibidos a través de robots.
Imagínese inmerso en un ambiente de realidad virtual, donde el sistema mide
todas sus acciones y ofrece imágenes, sonidos y otros estímulos sensoriales.
Imagine también que sus acciones y percepciones (inputs y outputs) están
conectados al aparato que controla el sensorium de un robot. Las imágenes
que se observan, captadas por la cámara del robot, van de acuerdo con los
movimientos de su cabeza. Sus movimientos mueven al robot y, en perfecta
sincronicidad, los movimientos del robot son transmitidos al interactor. Cuando
éste agarra algo (teleoperado por Usted), esa acción es enviada a los músculos
y manos, que sienten el peso, la forma y la textura del objeto.
La ventaja más evidente de esta tecnología es que las limitaciones físicas o
espaciales de los agentes involucrados (e.g., las suyas y las del robot) podrán
ser compensadas o expandidas. Es decir que, “prestando” sus facultades
perceptivas y cognitivas a los robots, se pueden amplificar los ojos, las piernas,
los brazos, lo que posibilita reparar una estación espacial, excavar un océano
27
Heinlein 25 pp. 132-133.
17
profundo, bombardear una base militar o, simplemente, trascender limitaciones
físicas o sensoriales de su cuerpo.28
Esta cuestión también viene siendo abordada por la ciencia como un medio
pragmático y operacional, que busca alcanzar un punto en el cual el
desempeño de los robots equivalga a la gestualidad humana. La parte humana
debe ofrecer los aspectos cognitivos-perceptivos; la parte mecánica debe
ofrecer la sensación de presencia, que posibilita al interactor humano el
teleoperar robots en ambientes físicos remotos.
Entre las cuestiones-clave, abordadas por los teleroboticos se destacan: 1. La
investigación y el desarrollo de interfaces sensoriales, capaces de transferir al
agente humano el sentimiento de presencia. 2. La investigación y desarrollo de
métodos que posibilitan mantener el control (intuitivo) sobre los robots remotos.
Estos enfoques, en última instancia, buscan crear una tecnología capaz de
generar la sensación (es claro que el realismo de la ilusión depende de la
definición de las interfaces disponibles) de que uno habita el cuerpo del robot
en un espacio remoto, lo que puede llevar a la pregunta: ¿Fuera del cuerpo?
¿Pero dónde?
El término telepresencia recibió una vasta gama de significados. Según la
definición sugerida por la investigadora de interfaces hombre-computador,
Brenda Laurel, telepresencia es: "a medium that allows you to take your body
with you into some other environment….You get to take some subset of your
senses with you into another environment. And that environment may be a
computer-generated environment, it may be a camera-originated environment,
or it may be a combination of the two"29
28
Un ejemplo de aplicación del último tipo es el proyecto del Dr. Susumu Tachi, Guide Dog
Robot (también conocido como Meldog, o Mechanical Engineering Laboratory Dog, por la sigla
en inglés), el cual trata de ayudar a los interactores con deficiencias visuales.
29 Brenda Laurel, citada en Rebecca Coyle, "The genesis of virtual reality", Future visions: new
tecnologies of the screen, Philip Hayward and Tana Wollen (London: British Film Institute,
1993) p.162.
18
La definición de Laurel sugiere tres localidades distintas: 1. Usted podrá estar
telepresente en un ambiente virtual. 2. Usted podrá estar telepresente (vía
conexión telemática) en un ambiente físico remoto. 3. O Usted podrá estar
conectado en una “realidad híbrida”. Las tres sugieren que las tecnologías de
realidad virtual y de telepresencia integran un sistema mayor.30
En el otro extremo de las definiciones, las tecnologías de telepresencia son
vistas como un sistema independiente y más radical que la tecnología de
realidad virtual. En estos enfoques la cuestión clave no es dónde Usted está
telepresente, sino lo que Usted pueda hacer telepresente.
Los sistemas de realidad virtual posibilitan al interactor, el actuar en un mundo
simulado. Usted puede herirse o morirse en video games, sin que eso implique
su muerte real. En el fondo, por más realista que la simulación pueda ser, lo
que está siendo modificado son los datos almacenados en la memoria de un
computador.
Contrariamente, la telepresencia posibilita controlar, en tiempo real y a través
de una imagen, la “realidad física”. Esto significa que, por medio de las
tecnologías de telecomunicación electrónica, Usted puede transformar objetos
en signos y, a través de esos signos, reinvertir el proceso, i.e., teleactuar sobre
los objetos físicos. Según Rheingold: "One way to remember the distinction of
VR and teleoperator research: In VR, you can demolish the building you are in,
with no inconvenient side effects; if you are commanding a teleoperator, the
building might not be there when you take your goggles off”.31
30
Michael Heim e Scott S. Fisher compartiran esta visión en: Michael Heim, Virtual realism
(New York: Oxford University Press, 1998) pp. 12-13 e Scott S. Fisher, “Virtual Interface
Environments”. The Art of Human-Computer Interface Design (Massachusetts: Addison-Wesley,
1990) Brenda Laurel (ed.) pp. 423-438.
31
Rheingold 19 pp. 255.
19
Cuerpo - tecnología: una cuestión de interfase
Por Daniela Kutschat Hanns32
Como artista, he desarrollado propuestas y proyectos en los cuales la
tecnología y el hombre se funden componiendo un sistema operacional regido
por una relación de co-valencia, previamente descrita como “simbiótica”
(KUTSCHAT & CANTONI:IVEIAT, Brasilia ,2004).
En proyectos recientes de ambientes inmersivos, interactivos y adaptativos, se
demostró imprescindible: a) crear interfases humano-computador capaces de
explorar, fomentar y, en un caso ideal, ampliar la cognición humana de forma
multimodal; b) integrar y retroalimentar los sistemas: hombre-objeto autómata
(OS 1; Realidad 1.2); hombre-ambiente (Pas-de-Trois; AndaLuz33; OP_ERA34).
Este artículo busca presentar un resumen de referencias y reflexiones
desarrolladas en esta investigación; entre ellas, la importancia de la creación
de artefactos e interfases cognitivas; algunos de los modelos actuales y
perspectivas para nuevos modelos.
Cuerpos tecnológicos
Mi cuerpo, así como el suyo, es un cuerpo tecnológico. A través de él
interactúa con los otros, me adapto al ambiente y soy capaz de alterarlo.
Además de tecnológico el cuerpo es un interfase. A lo largo de la historia el
hombre elaboró formas de comunicación y lenguajes corporales sofisticados,
algunos de las cuales tan eficientes que perduran hasta hoy. A diferencia de
32
Doctora en Artes por la Escuela de Comunicaciones y Artes de la Universidad de Sao Paulo,
coordina el Enfasis en medios interactivos del Posgrado en Comunicación y Artes del SENAC.
Es artista e investigadora de medios electrónicos y digitales, sobre la relación entre el cuerpo y
el espacio, las interfaces hombre-computador y los sistemas de integración cuerpo-espacio de
datos, para instalaciones y ambientes interactivos y de Realidad Virtual. Actualmente también
desarrolla sistemas autónomos adaptativos (BCS). Entre sus exposiciones se encuentran: OPERA: Haptic Dimension II, Instalación de Realidad Virtual, SENAC, OP_ERA: Haptic Wall,
Sonorama, Instituto Tomie Othake, OP_ERA:HYPERVIEWS. Itaúcultural, Sao Paulo, 2004,
OP_ERA: HAPTIC DIMENSION, Centro Cultural Banco do Brasil, Hiper, Porto Alegre,
Máquinas de Ver I, Paço das Artes, Vôo Cego I e Vôo Cego II, Itaúcultural, Infobodies:
unfolding and potentialities, derivada III, Instalação Audio-visual, 2001, Info_grafia, Infografias.
In Zeitgenoessischer, Viena, 1998, Palimpsesto, 1994, Traces, Melbourne, 1994.
33
34
En coautoría con Pedro Perez Machado
En coautoría con Rejane Cantoni
20
otras especies, también inventó una serie de artificios y artefactos capaces de
ampliar y transformar la cognición humana y el ambiente: algunos de ellos
físicos, otros mentales. Incluyendo el advenimiento del computador, ninguno de
ellos existiría sin la capacidad de invención del hombre.
Hasta aquí fuimos capaces de construir máquinas precisas: su funcionamiento
deriva de cálculos matemáticos y métodos lógicos de la ciencia y de la
ingeniería. Actuando como sistemas que tienden al grado cero de error, su
proceso no corresponde a la forma humana y errática de pensar: en cuanto
nosotros estamos sujetos a distracciones, incertidumbres, lapsos lógicos y
errores gramaticales, el computador puede exceder nuestro potencial analítico,
como ya hemos visto en los desafíos entre el hombre y el computador, éste
puede ser más perfecto.
Disociar la actividad mental del cuerpo y del ambiente (cultura) sería tan
imposible como disociar el ambiente y el potencial inscrito en el software
(lenguaje, mental) sin considerar el hardware de la máquina y el ambiente
(contexto) donde se encuentra.
Con el computador tenemos un artificio
cognitivo capaz de ampliarnos.
Queda saber en cuánto el computador ampliará su propio potencial creativo de
forma autónoma, capaz de integrar y articular en um proyecto el hardware
físico (placas, sensores, dispositivos de almacenamiento, etc); y el software
(lenguaje y programación) en un diseño que prevea su adaptabilidad a otros
sistemas y al ambiente. Para eso, el diseño debe contemplar el reconocimiento
del ambiente (contexto) en que el sistema está y los interlocutores que tiene.
Esas investigaciones se encuentran en una zona límite, que se articula entre el
arte, la investigación tecnológica y la ciencia.
Máquinas y seres creativos
Ray Kurzweil, en su previsión de avances y desarrollos tecnológicos expone:
O una especie crea tecnología o no la crea. Puede ser difícil para un planeta
soportar más de una especie que cree tecnología. Si hay más de una, puede
21
ser que ellas no se den, como aparentemente es el caso de la Tierra (...). La
evolución de una tecnología es la continuación y otra forma de evolución de
aquello que la especie que crea tecnología hace emerger. El próximo paso es
la computación, donde la tecnología emerge, parece inevitable que la
computación emerja subsecuentemente (en la tecnología, no solo en los
sistemas nerviosos de las especies). La computación es claramente una forma
muy útil para controlar el ambiente, así como la propia tecnología, y facilita
inmensamente la continuación de la creación de esta. De la misma forma que
un organismo debe mantener estados internos y responder inteligentemente a
su ambiente, también la tecnología. Cuando la computación emerge, estamos
en un estadio avanzado de la evolución exponencial de la tecnología en aquel
planeta (...). El próximo paso inevitable es la fusión de la especie que inventa
tecnología con la tecnología computacional que ella empezó a crear. En ese
estadio de evaluación de la inteligencia en el planeta, los computadores, están
basados en el diseño de cerebros (esto es, órganos computacionales) de la
especie que originalmente los creó; los computadores, a su vez, son acoplados
e integrados a los cuerpos y cerebros de aquella especie. Punto a punto, el
cerebro y el sistema nervioso de la especie son llevados a la tecnología
computacional hasta que ella, finalmente, substituya esos órganos de
procesamiento de información. Todos los tipos de cuestiones prácticas y éticas
atrasan el proceso, pero no pueden detenerlo. La Ley de Retornos Acelerados
prevé una completa fusión de la especie con la tecnología que ella
creó.(Kurzweil, 1999, 254-256).
Artefactos cognitivos
Muchas de las habilidades humanas se derivan de nuestra capacidad de
construir artefactos, herramientas y tecnologías que se trasforman y que
evolucionan. Entre las formas de vida, nosotros fuimos capaces de superar
nuestras limitaciones: inventamos instrumentos que nos volvieran más fuertes y
que ampliaran nuestro conocimiento sobre el universo; nos volvimos mas
rápidos y transformamos nuestro ambiente; nuestras invenciones nos protegen
del clima, alimentan, educan y divierten; pero, hoy en día, más que suplir
22
necesidades físicas y fisiológicas, los artefactos nuevos se dirigen hacia
alimentarnos mentalmente, como afirma el neurocientífico Donald Norman:
Nosotros los humanos inventamos una serie de cosas para estimular nuestra
cognición: algunas de ellas son físicas, otras mentales. Herramientas como
papel, lápiz, calculadoras y computadores, son artefactos físicos que activan la
cognición. Lectura, aritmética, lógica y lenguaje son artefactos mentales, cuya
potencia reside más en las estructuras informacionales, en las reglas y
estructuras específicas propuestas, que en propiedades físicas.
Procedimientos y rutinas, así como memotecnias para recordar los métodos
para realizar tareas también son artefactos mentales. Ambos tipos de
artefactos, independientemente si son físicos o mentales, son igualmente
artificiales: ellos no existirían sin la invención humana. De hecho, cualquier
cosa inventada por el hombre con el propósito de mejorar el pensamiento o la
acción, vale como artefacto; poco importa si es físico, construido o
manufacturado, o si es mental o aprendido. (Norman, 1993, 4-5).
Interfases
La idea de interfase normalmente está relacionada con un dispositivo físico o
lógico capaz de hacer la adaptación entre dos o más sistemas que no podrían
comunicarse directamente, o sea, la interfase actúa como un traductor
(mediador) entre dos o más sistemas, volviéndolos sensibles entre sí. Esa
relación entre las partes (dos o más personas) o entre sistemas de naturalezas
distintas (humana-computador, por ejemplo) está caracterizada por significado
y expresión. En ella, el lenguaje, sea este gestual, verbal o de otro orden, actúa
como interfase. También en la relación entre hombre y sistema computacional,
es necesario que el computador tenga la capacidad de representarse en un
lenguaje compresible al otro, al hombre, y viceversa. Para eso, son
desarrolladas las interfases humano-computador (IHCs), el hardware y
software a través del cual el usuario o agente humano interactúa con un
sistema computacional.
Según Jef Raskin:
23
La cualidad de la interfase está determinada por la cualidad de interacción
entre un humano y un sistema - entre usted y él. Si una interacción uno-a-uno
con un usuario humano no es agradable y facil, la deficiencia resultante
contaminará el performance de todo el sistema, por más que el sistema sea
óptimo en otros aspectos. (Raskin, 2000, xix).
Según Laurel:
“La interfase es una superficie de contacto, ella refleja las propiedades físicas
de los interactores, las funciones a ser realizadas y el equilibrio entre fuerza y
control” (Laurel, 1988, XII).
Innumerables proyectos de interfases tratan de encontrar alternativas para la
integración, cada vez mayor, entre el hombre y el sistema computacional. Esas
iniciativas son remarcables en los campos de la medicina, de la automatización
industrial y de la robótica, siendo aplicadas en tele-operaciones, líneas de
montaje; sistema de distribución de cartas; ambientes (públicos y privados) y
objetos: de la ciudad a la aspiradora.
Según Lev Manovitch, la capacidad de auto-representación del computador,
hasta hoy, se ha dado, la mayoría de las veces, metafóricamente:
El término interfase humano-computador describe las formas en las cuales el
usuario interactúa con el computador. La IHC incluye dispositivos físicos de
entrada y salida, tales como el monitor, el teclado y el mouse. Ella también
consiste en metáforas utilizadas para conceptualizar la organización de datos
computacionales. Por ejemplo, la interfase Mackintosh introducida por Apple en
1984, usa la metáfora de archivos y carpetas organizadas en un escritorio.
Finalmente, la IHC incluye igualmente las formas de manipulación de datos,
esto es, una gramática de acciones significantes que el usuario puede estar
realizando. Ejemplos de esas acciones proveidas por las IHCs modernas son
copiar, renombrar, excluir un archivo; listar el contenido de un directorio; iniciar
y suspender un programa; actualizar la fecha y hora de un computador. (...). A
24
finales de la década de los 90 cuando el uso de Internet se volvió un lugar
común, la imagen pública del computador no era más la de una herramienta,
sino la de una máquina de medios universales, que podría no solo ser usada
por el autor, sino también para almacenar, distribuir y acceder a todos los
medios (Manovitch, 2001,69-70).
Indudablemente, las nuevas máquinas sustentan nuevas metáforas, sin
embargo lo que necesitamos crear son nuevos conceptos, una idea sustentada
en 1984 por Alan Kay:
El computador puede actuar como máquina o como lenguaje al ser configurado
y explorado. Es un medio que puede simular dinámicamente los detalles de
cualquier otro medio, incluyendo aquellos que no existen físicamente, inclusive
puede actuar como tal. Es el primer metamedio y, como tal, tiene grados de
libertad de expresión y representación nunca encontrados o investigados
anteriormente. (Kay, 1984, 52 – 59, traducción nuestra).
A pesar de contar con interfases que facilitan nuestro acceso a datos y su
manipulación, un desafío está aún presente para los diseñadores, ingenieros y
tecnólogos que las desarrollan y prueban, y las acercan a nosotros (algunas
utilizan adjetivos como amigables, intuitivas y naturales), ya que aún somos
nosotros lo que tenemos que adaptarnos a los formatos y lenguajes del otro
sistema.
Se dice de muchas interfases desarrolladas que el producto resultante es
intuitivo o natural. Sin embargo, no existe una facultad humana denominada
intuición, como normalmente la palabra es entendida, esto es, (no hay)
conocimiento adquirido sin exposición anterior al concepto, son términos
pasados por un proceso de aprendizaje y son términos utilizados por el
raciocinio. Cuando un especialista utiliza lo que llamamos su intuición para
juzgar con una velocidad y precisión lo que la mayor parte de las personas
consideraría más allá de sus posibilidades, descubrimos que él basó su juicio
en su experiencia y conocimiento. (...) Cuando los usuarios dicen que una
interfase es intuitiva, quieren decir que ella opera igual a otro software o
25
método que les es familiar (...). En otras palabras, lo que intento evitar al
discutir interfases es la palabra: natural. Al ser intuitiva, ella normalmente no
es precisa. En el uso del lenguaje común, una interfase es natural si ella opera
de tal forma que el hombre no precise de instrucciones. Eso significa que hay
alguna actividad humana común que es similar a la forma en que la interfase
opera. Sin embargo es muy difícil describir lo que se quiere decir con la palabra
similar. Semejanzas y analogías pueden ocurrir de varias formas. Ciertamente
que el cursor va para la derecha cuando es empujado hacia la derecha y para
la izquierda cuando es empujado hacia la izquierda, es natural. Aquí el término
natural se iguala a: fácilmente aprendido. Sin embargo puede ser imposible
cuantificar lo natural, pero no es muy difícil cuantificar el tiempo de aprendizaje
(Raskin, 2000, 150).
En una tendencia de digitalización, en la cual una parte cada vez mayor de la
cultura es codificada en 0 y 1 (cero y uno), siendo filtrada y traducida a lo
digital, surge
Una nueva forma cultural que se localiza en algún lugar entre el medio y el
mensaje, una metáfora que vive en el submundo entre el productor y el
consumidor de información. La interfase es una manera de mapear ese
territorio nuevo y extraño, un medio de orientarnos en un ambiente sin norte.
(Johnson, 2002, 33).
Mientras Steven Johnson llama la atención hacia una nueva cultura de la
interfase, Lev Manovitch lo hace hacia el fenómeno de la interfase cultural:
El lenguaje de interfases culturales es híbrido, es una extraña mezcla entre las
convenciones de formas culturales tradicionales y las convenciones de las
IHCs –entre un ambiente inmersivo y un conjunto de controles, entre
estandarización y originalidad. Las interfases culturales intentan balancear el
concepto de una superficie en la pintura, fotografía, cine y la página impresa
como algo para ser visto, pero siempre con alguna distancia, sin interferir,
como el concepto de superficie en una interfase computacional o panel de
26
control virtual, parecido al panel de control de un carro, avión o cualquier otra
máquina compleja.
Finalmente, en otro nivel, las tradiciones de la palabra impresa y del cine
compiten entre sí, unos quieren la pantalla del computador como superficie
informacional, densa y plana, mientras los otros insisten en que esta se
transforme en una ventana para un espacio virtual. (Manovitch, 2001,91-92)
Modelos
Para que nuevas ideas, así como una nueva cultura deriven de la interacción
entre hombres y computadores (robots, objetos, ambientes, etc.) es necesario
pensar en la interfase como un artificio capaz de generar una relación especial
con la realidad: capaz de crear uno o más mundos y universos en los cuales
nuestras capacidades cognitivas (pensar, sentir y actuar) sean ampliadas y
enriquecidas. Para que eso pase, deben ser consideradas tanto las habilidades
de los hombres (y de los seres vivos) como las de las máquinas; esto es; el
diseño de las habilidades multisensoriales y de retención de información del
ambiente de los cuerpos humano y computacional, lo cual es tan importante
como considerar las habilidades de lo humano y lo computacional. El conjunto
interacción-cultura-ambiente
refleja
las
posibilidades
de
comunicación,
entendimiento e intercambio entre las partes.
El diseño de lo humano es un preoceso milenario en curso. El refleja el
potencial, aparentemente limitado, de adaptabilidad y de significación del
ambiente. Los innumerables lenguajes desarrollados por el hombre a lo largo
de la historia, por ejemplo, tienen la ventaja de estar incorporados en el día a
día a través de los hábitos de cada uno. Utilizar el gesto como interfase de
entrada de datos para un sistema computacional, por ejemplo, puede ser más
confortable, rápido y preciso que, por ejemplo, seleccionar una entre
innumerables opciones de un menú o cliquear uno entre innumerables botones,
(interfases que normalmente encontramos en nuestro desktop, un cajero
electrónico, un celular y al llamar a un 0-800). Ejemplos de exito en la
utilización de gestos como interfase humano-computador son las aplicaciones
en la medicina. Portadores de deficiencias auditivas, visuales y motoras entre
27
otras, se valen de gestos, movimientos de los ojos; las señas con la mano,
apuntar con el dedo al canal de entrada de un sistema computacional, lo que
servirá para auxiliarlos a desempeñar funciones que no podrían realizar sin
ello, e inclusive las interfases permiten el “sustituir” miembros, facilitando su
interacción con el ambiente.
Ese éxito también se debe a las innovaciones de las interfases sensibles al
movimiento humano (tracking systems) de la década de los 70; la invención de
la pantalla interactiva en los 80, el desarrollo de guantes, vestimentas, mouse
3D y de dispositivos móviles inalámbricos de la década de los 90 hasta el día
de hoy; factores que volvieron la comunicación hombre-computador más fluida
y espacial. Es importante recordar que, siguiendo la historia (1956), las
interfases humano-computador (IHCs) han englobado desde interfases
hardware; interfases de procesamiento software; interfases gráficas (GUIs), así
como el mouse, pantallas, ventanas; hasta interfases hápticas y de inmersión
en Realidad Virtual; de yuxtaposición de Realidad Aumentada; Realidad Mixta y
de la transparencia de la Computación Ubicua; siendo éstas, representantes de
las tendencias actuales de interacción.
Existen muchas maneras o propuestas de como sumergirse e interactuar en el
ciberespacio: vía tecnología desktop, con teclado, mouse y pantalla; vía
tecnología inmersiva de los sistemas de realidad virtual, que preveen la
recreación de los sentidos humanos tanto como sea posible; vía tecnología
intrusa, como chips implantados; e inclusive combinaciones de todas ellas.
(Cantoni, 2001, 7).
Mientras la Realidad Virtual busca simular el mundo físico sumergiendo los
sentidos del usuario en un mundo digitalmente construído, en otra tendencia se
busca la yuxtaposición del espacio de datos al espacio físico. El ingeniero
Douglas Engelbart, creador del mouse y del paradigma espacial desktop, le
apuesta a esta tendencia desde los años 70, cuando la denominó Realidad
Aumentada. (Augmented Reality).
28
La Realidad Aumentada es un sistema que permite al usuario ver datos
como mapas e imágenes sobrepuestas a su visión del mundo real.
Aplicaciones de esos sistemas incluyen ingeniería, seguridad, navegación y
medicina. (Cotton & Olivier, 1995, 22).
Las interfases y dispositivos que representan esa tendencia son utilizados para
suplir informaciones adicionales sobre el ambiente u objeto que observamos en
el espacio físico. Un ejemplo actual (2003) son los visores NOMADth Personal
Display System. Con ellos, se ve el ambiente físico y simultaneamente, una
página de Internet o de un banco de datos que suple más información sobre el
mismo ambiente, visualizable en una micropantalla traslucida dispuesta frente
uno de los ojos. La visión “en paralelo” de constitución físico-química de
objetos, órganos y tejidos; la reconstitución de ambientes arquitectónicos y de
estructuras urbanísticas a través de este tipo de dispositivos y de
computadores, son algunas de las aplicaciones actuales en esta línea de
desarrollos de interfases.
Una serie de dispositivos de telecomunicación inalámbrica (celulares, pagers,
pads, paneles electrónicos); de objetos (cartones, etiquetas, vidrios y papeles
electrónicos) y de ambientes “inteligentes” es otra tendencia que busca
incorporar
lo
virtual
computacional/hipermediático
entrelazándolo
al
desplazamiento en el espacio físico que experimentamos en nuestro día a día.
(Ubiquous Computing).
La mayor parte de los computadores que conforman la ‘virtualidad
incorporada’ serán invisibles de hecho y metafóricamente. Computadores ya
existentes en interruptores de luz, termostatos, estéreos y hornos ayudan a
activar el mundo. Esas máquinas y otras estarán interconectadas en una red
ubicua. Como científicos de la computación, sin embargo, mis colegas y yo nos
hemos enfocado en dispositivos que transmiten y presentan información de una
forma más directa. Encontramos dos cuestiones de importancia crucial:
localización y escala. Nada es más fundamental para la percepción humana
que la yuxtaposición física, por eso, los computadores ubicuos tienen que
saber donde están. (Los computadores actuales, por el contrario, no tienen
29
idea de su posición y de su entorno). Si un computador sabe en que sala está,
podría adaptar su comportamiento de forma significativa sin requerir nada de
inteligencia artificial. Los computdores ubicuos vendrán en tamaños diferentes,
cada uno modelado para una tarea específica. (Weiser, 1991).
Si aprendemos a diseñar una tecnología calma (calm technology), no
solo enriqueceremos nuestro espacio de artefactos, sino también las
oportunidades de convivencia con los otros. Cuando nuestro mundo esté
repleto de computadores interconectados y ubicuos, la tecnología calma
desempeñará una papel central en el siglo XXI humanamente más fortalecido.
(Weiser&Brown, 1996).
Como vimos, algunos de los modelos propuestos, como a) dispositivos de
reconocimiento y de procesamiento de señales del cuerpo humano; b)
dispositivos portátiles e inalámbricos; c) sistemas de inmersión; d) ambientes y
objetos “inteligentes”; e) sistemas de red extendida computacional, traen
beneficios para usos diferenciados y hasta el momento, ninguno de ellos
aisladamente, o combinado con otros, propuso
un modelo único para ser
aplicado en el futuro.
Por otro lado, las nuevas tendencias de desarrollo de interfase humanocomputador han indicado que utilizar el cuerpo humano como interfase
integradora a sistemas computacionales ha abierto nuevas perspectivas de
interacción, de arquitectura y de comunicación con objetos y ambientes de
aprendizaje, estudio, trabajo y entretenimiento. La tendencia parece ser que el
futuro de las interfases obedecerá a la lógica de lo “hecho sobre medida”, esto
es, la pluralidad del humano será reflejada en la diversidad de modelos de sus
meta-máquinas.
Aparentemente, al menos en algunos aspectos, esas máquinas estarán
excediendo aún más las potencialidades humanas. Eventualmente ellas se
tornarán criaturas creadoras como nosotros y viviremos en una relación de
asociación inédita.
30
Bibliografía
CANTONI, Rejane. Realidade virtual: Uma historia de imersão interativa, Tesis
de Doctorado, Programa de comunicação e semiótica. PUC-SP, 2.001. No
publicada
COTTON, Bob y Richard, OLIVER, The Cyberspace Lexicon-An Ilustrated
dictionary of terms from multimidia to virtual reality, Phaidon, Londres, 1.995
JOHNSON, Steven, Cultura da interface, Jorge Zahar Editor, Rio de Janeiro,
2.001
KURZWEIL, Ray, The Age of Spiritual Machines, Penguin Books, Nueva York,
2.000
LAUREL, Brenda. The art of human-computer interface, Addison Wesley,
Nueva York, 1.990
LEÃO, Lucia (org.), Cibercultura 2.0, Nojosa edicoes, Sao Paulo, 2.003
MANOVICH, Lev, The Language of New Media, The MIT Press, England, 2.001
NORMAN A., Donald.
The Invisible Computer, The Mit Press, Londres, 1.999.
Things that make us smart. USA: Perseus Books, 1.993.
PACKER, Randal y Ken, JORDAN,. Multimidia-From Vagner to Virtual Reality.
Norton, USA, 2.002
QUEAU, Philippe. “Virtuelle Visionen”, en: Kunstforum, Bd.133 Febrero-April,
(p. 126-129), 1.996
RASKIN, Jef, The Humane Interface, Addison Wesley, Nueva York: 2.003
31
SCHOLDER, Amy y Jordan, CRANDAL, Interaction-Artistic practice in the
network, Distributed Art Publishers, Nueva York, 2.001.
WEISER, Mark, The Computer of the 21st Century, en: Scientific American, Vol.
233, 1.991.
WEISER y BROWN. Designing Calm Technology , PowerGrid Journal, v 1.01,
Octubre de 1.996
http://www.ubiq.com/hypertext/weiser/acmfuture2endnote.htm
Descargar