1 ESTÉTICA DE LAS CREACIONES ELECTRÓNICAS Teleinmersión. Del ciberespacio hacia el espacio1 Por Rejane Cantoni Desde el punto de vista físico, la creación del ciberespacio inició en el año 1969. En este año, técnicos de la empresa Bolt Beranek and Newman, al servicio de Advanced Research Projects Agency (ARPA), conectaran vía líneas telefónicas especiales, 2 computadores físicamente distantes: Uno situado en la Universidad de California, en los Angeles, y el otro en el Stanford Research Institute, en Stanford. Un año después, otros dos serán agregados a esa red: Universidad de California, en Santa Bárbara y Universidad de Utah, en Salt Lake City, componiendo así una red de cuatro sitios. En los siguientes años, otros sitios fueron agregados a esa red y a ARPAnet, que comenzó como un experimento, luego se extendió como una enorme red de computadores públicos y privados interconectados. A finales de los años ochenta, esas redes se fundieron y resultaron en Internet. Internet también creció. Surgirán otras redes menores, backbones2, que se ligarán a ella, cada una ejerciendo un papel fundamental para inspirar nuevas aplicaciones en Internet (e.g., la World Wide Web), o diseñadas con una finalidad específica de soportar investigaciones (e.g. NSFnet, a finales de los años 80 y la VBNS, a mitad de los años 90). En 1998, un nuevo proyecto Este capítulo se encuentra publicado en el libro: “Estética, ciencia y tecnología: creaciones electrónicas y numéricas” Iliana Hernández García (coautora y compiladora) et al. Departamento de Estética – Facultad de Arquitectura y Diseño – Centro Editorial Javeriano, Linea de Estética Contemporánea, Bogotá, 2005. 2 Un backbone es una red que conecta otras redes. Ese artificio permite que una información viaje más rápidamente, a través de conexiones de larga distancia. 1 2 backbone de investigación, llamado Abilene, comenzó a ser implementado. Desarrollado por un consorcio, integrando más de 170 instituciones académicas y 50 corporaciones, ese proyecto está al servicio de la creación de Internet 2. Uno de las principales objetivos del proyecto Abilene incluye mejoras considerables de tecnologías de comunicación amigable, lo que se traduce en: 1. Un alto nivel de ancho de banda o bandwidth3; 2. La creación de protocolos que soportan aplicaciones que requieren bajas latencias (valor de los retrasos impuestos por las señales en ruta). Esas mejoras acabaran generando un problema singular: ninguna de las aplicaciones existentes hasta entonces exigía ese tipo de desempeño. La pregunta era: ¿Cómo probar la altísima capacidad de transmisión informacional de Internet 2? Uno de los líderes de la organización Advanced Network and Services (involucrada en el proyecto de Internet 2) Allan H. Weis, tuvo una idea. Propone desarrollar una teleinmersión (tele-immersion en inglés), una nueva tecnología de comunicación que combine aspectos de realidad virtual -tener en cuenta que ningún otro sistema consume más ciclos computacionales, ancho de banda de comunicación y requiere menor latencia en el retraso de envío de señales- con una tecnología de videoconferencia. Siguiendo lo descrito, esto fue lo publicado en el sitio del National Tele-immersion Initiative: “Tele-immersion enables users at geographically distributed sites to collaborate in real time in a shared, simulated, hybrid environment as if they were in the same physical room”4 Crear la ilusión de que el interactor compartirá “naturalmente” el mismo espacio con otros interactores, cuando éstos están situados a millares de kilómetros, no es una tarea fácil. Entre los desafíos, el primero implica trascender los límites 3 Bandwidth o ancho de banda es un valor (en Hertz) que describe la cantidad máxima de información que puede circular por un canal de transmisión. 4 National Tele-immersion Initiative Web site: www.advanced.org/teleimmersion.html. 3 de la cámara de video y crear, para cada participante, un punto de vista particular y un tiempo real de escena remota. Dos elementos-clave en teleinmersión son: 1. Cada interactor debe tener un punto de vista propio de las escenas remotas -ese punto de vista debe ser en realidad doble, para preservar la sensación de profundidad del efecto estereoscópico, cada lente debe ver a partir de su propia perspectiva-. 2. Los interactores deben estar libres, como una cámara subjetiva móvil que se altera de acuerdo con el movimiento o el agenciamiento del interactor. Una estrategia posible para trascender los límites del punto de vista de una cámara que es independiente del interactor, es escanear la escena y transmitir, a cada sitio remoto, un modelo escultórico animado de espacio, dos agentes y dos objetos. Esto significa replicar visualmente, en tiempo real y en tres dimensiones, pedazos del espacio que envuelve a los participantes del encuentro ciberespacial. Para esto, los contornos 3D de los “habitantes”, del espacio y de los objetos deben ser constantemente medidos, lo que puede ser realizado en una cantidad diversa de formas. El abordaje que está siendo investigado por la National Tele-immersion Initiative es una técnica conocida por el nombre de sea of cameras (mar de cámaras, en español). Desarrollada en 1993, por Henry Fuchs, en la Universidad de North Caroline, esta técnica consiste en captar los diversos ángulos de un objeto, por medio de un conjunto de cámaras de video, y procesar esta información a través de un software que, por comparación, combina un modelo en 3D de la escena. Esta técnica fue utilizada en proyectos de instalación.5 Sin embargo, uno de los problemas con ese método es que no fue concebido para operar en tiempo real, una característica que invalidaría su uso en sistemas de teleinmersión. 5 Uno de los primeros experimentos en explorar esta técnica fue una instalación Virtualized Reality (1995) de Takeo Kanabe, es una configuración que consistía en 51 cámaras, dispuestas en un Domo Geodésico. En esta implementación, videastas grababan que eran luego procesados. 4 En 1994, la investigadora jefe de GRASP (General Robotics, Automation, Sensing and Perception Laboratory de Pennsylvania University), Ruzena Bajcsy, intrigada con la cuestión de la teleinmersión, resuelve trabajar en una nueva versión de técnica del mar de cámaras. En colaboración con los centros de Chapel Hill y Carnegie Mellon, Bajcsy y otros colegas, desarrollaran un sistema compuesto de tres cámaras de video, de un software gráfico capaz de convertir, en tiempo real, los datos captados en esculturas animadas realistas y de un dispositivo especial de proyección de luz, llamado ISL (Imperceptible Structure Light, en la sigla en inglês).6 La primera demostración de teleinmersión ocurre en mayo de 2000, entre investigadores de la Universidad de North Caroline, en Chapel Hill, de la University of Pensylvania, en Philadelphia, y del Advanced Network and Services, en Armonk, Nueva York.7 En un esquema bastante simplificado de este experimento, un participante, usando unas gafas y un sensor de posición de cabeza, podía ver, como si fuera a través de dos “ventanas” de su laboratorio, una proyección 3D animada (creada con una técnica desarrollada por Fuchs, Bajcsy y otros colegas) de los otros dos participantes, cada uno estando localizado a cientos de kilómetros. Cuando el participante se movía, podía ver una modificación de la escena, como si las personas y los objetos remotos estuviesen allí. Un artículo publicado en la revista Scientific American, Jaron Lanier narra la experiencia: 6 Uno de los problemas de esta técnica es el fenómeno de la pared blanca. Si las cámaras estuvieran captando en una pared blanca, datos como la textura de la superficie seran ignorados. Para resolver este desafío los investigadores de Chapel Hill desarrollaron un dispositivo capaz de generar patrones rápidamente mutables, que sean captados solamente por cámaras especiales. El ISL (Imperceptible Structure Light, sigla en inglês) está compuesto por un conjunto de lámparas que pasan a una velocidad imperceptible al ojo humano, 50 a 60 veces por segundo. La función de esos patrones de luz es crear texturas donde no existe información evidente, como en situaciones de paredes blancas, o que posibilitan a un algoritmo el completar los datos entregados por el mar de cámaras. 7 Participarán en esta primera demostración de teleinmersión: Guy Almes, Ruzena Bajcsy, Andy van Dam, Kostas Daniilidis, Joseph L. Dionne, Lisa Ernst, Mike Frame, Henry Fuchs, Robert Harris, Loring Holden, Douglas E. Van Houweling, Jaron Lanier, Brian Menkes, Kristin Mortensen, Andrea Papa, Terrence W. Rogers, Jay Rosen, Herman Towles, Allan H. Weis, Greg Welch, Myra Williams, Joe B. Wyatt, Matt Zekauskas, Robert Zeleznik, Wei-Chao Chen, Aditi Majumder, Gopi Meenakshisundaram, Andrew Nashel, Ramesh Raskar, Ruigang Yang, Jane Mulligan e Amela Sadagic. 5 “Seen through a pair of polarizing glasses, two walls of the cubicle 8 dissolved into windows, revealing other offices with other people who were looking back at me. (The glasses helped to direct a slightly different view of the scenes to each eye, creating the stereo vision effect.) Through one wall I greeted Amela Sadagic, a researcher at my lab in Armonk, N.Y. Through the other wall was Jane Mulligan, a postdoctoral fellow at the University of Pennsylvania. Unlike the cartoonish virtual worlds I had worked with for many years, the remote people and places I was seeing were clearly derived from reality. They were not perfect by any means. There was "noise" in the system that looked something like confetti being dropped in the other people's cubicles. The frame rate was low (2 to 3 fps), there was as much as one second of delay, and only one side of the conversation had access to a tele-immersive display. Nevertheless, here was a virtual world that was not a simplistic artistic representation of the real world but rather an authentic measurement-based rendition of it.”9 Además de estas técnicas de captura de la escena remota y de los servicios de redes telemáticas, otros componentes críticos del sistema de teleinmersión son los dispositivos de visualización y de interacción. Con respecto a los dispositivos de visualización, una cuestión que promete ocupar a los científicos de la teleinmersión es la idea de que el ambiente real y el ambiente virtual no estén todavía totalmente integrados. En el experimento realizado por la National Tele-Immersion Initiative, los bordes de los cubículos virtuales no se encuentran; permanecen como ventanas y, en última instancia, en teleinmersión, un cubicle promete ser una especie de interface 3D inmersiva, con grandes telas o paredes que sirven de superficie de proyección. Una vez conectadas a la red, estas paredes “desaparecen” como si fueran pasajes transparentes para otros cubicles, de forma que ambientes físicos y virtuales parecen estar unificados, no siendo posible que los interagentes detecten fronteras en los bordes. Esta visión prevé, por ejemplo, la creación de enormes telas de proyección autoestereoscópicas10, que podrían dar a los 8 Un tele-cubicle es un modelo de interface inmersiva, una especie de sala que posee telas y paredes formadas por una superficie de proyección. 9 Jaron Lanier, “Virtually There”. Scientific American, April, pp. 52-61, (2001) p.57. 10 Dispositivos autoestereoscópicos prsentando una imagen 3D al observador, sin necesidad de uso de óculos o cualquier otro equipamiento especial. 6 cibernautas la sensación (total o parcial) de inmersión en el ambiente del encuentro. El otro problema son las interfaces de interacción que posibilitan la telecomunicación televirtual entre los participantes y el ambiente. En un segundo experimento (realizado por la National Tele-Immersion Initiative, en Octubre de 2000), científicos de Brown University introducirán objetos virtuales, no derivados de la escena física, que podrían ser manipulados colaborativamente. Esto ya es un avance, pero las investigaciones prometen mucho más. Olor digital Uno de los pioneros de los sistemas de realidad virtual, Myron Krueger es uno de los investigadores que está haciendo experimentos con la simulación olfativa. Con el patrocinio de la Defense Advanced Research Projects Agency, Krueger busca desarrollar una tecnología capaz de ofrecer pistas olfativas a cirujanos cibernéticos que operan a través de sistemas de telecirugía. El prototipo que está siendo desarrollado por Krueger y su equipo es una especie de micrófono fijado a la cabeza del interactor y que apunta a su nariz. Ese artefacto está conectado a un conjunto de 10 esencias líquidas, almacenadas en un recipiente que el intereactor carga a cuestas. Los olores son generados a partir de un sistema selectivo de evaporación ultrasónica que agita las moléculas de esas esencias, hasta que se evaporan También consta de un dispositivo de visualización y detección de posición, del tipo HMD (Head Mounted Display). Cuando el interactor se mueve, su posición es informada al computador que acciona, en el momento apropiado, las imágenes y los olores correspondientes. La idea de utilizar olores con otros medios (en particular en el cine) comenzó a ser explorada al final de los años cincuenta. Entre las tentativas, el documental Behind the Great Wall, presentado en las salas Aroma-Rama, en los Estados Unidos, incluía 72 perfumes que eran exhalados, durante la exhibición, a través 7 del sistema de ventilación del teatro. Otros ejemplos son el Sensorama (cf. Cap.2) de Morton Heilig, que utilizaba un dispositivo nasal mecánico y la película Polyester (1981), de John Waters, cuyo experimento incluía distribuir a la audicencia cartones perfumados numerados que debían ser olídos durante la sesión. Aunque la idea de incluir el olor en la expriencia cinematográfica fuese atrayente, esas tentativas acabaron resultando en “dolores de cabeza”. Uno de los problemas recurrentes era que el olor que llegaba al participante no era siempre removido antes del próximo estímulo, lo que resultaba en una experiencia desagradable. El otro problema eran los límites tecnológicos para simular una vasta palette de olores. En una entrevista dada por David Pescovitz, Krueger observa que, inclusive hoy, uno de los problemas-clave enfrentados por los investigadores de las interfaces olfativas es que la tecnología para la simulación de olores es muy limitada: "The technology of odor simulation is very limited beyond flowers and fruits. And it's nonexistent for things like diesel fuel, explosives, all those things you might want for example for an action-adventure game"11 Una posible respuesta para esa cuestión parece estar siendo formulada por el biólogo Joel Lloyd Bellenson y por el ingeniero industrial Dexster Smith (ambos de DigiScents Inc.). La novedad del proyecto Bellenson y Smith es que ellos parten de la ingeniería fisiológica humana. Para estos investigadores, la pista para simular una vasta palette de olores está en el papel que los genes desempeñan en nuestra habilidad para detectar olores (un descubrimiento de la neurobióloga Linda Buck, de Harvard University). Conforme a lo que los científicos describen en el artículo "You've got smell" de Charles Platt, la fisiología del olor es la siguiente: “When odor molecules drift into the nose, each of them binds with particular protein on the surface of the neuron. There are about 1.000 odor-matching 11 Pescovitz (17) p.p. 50-51 8 proteins, each with a slightly different configuration, scattered across a human's 10 million odor-detecting neurons (…). When the shape of an odor molecule matches the shape of a protein, the molecules lock together, triggering the neuron, which sends a signal that the brain recognizes as a smell. DNA is relevant because its instructions its genes tell the body how to build the proteins that receive odor molecules and activate the neurons”.12 La implementación del proyecto utilizó cada etapa del proceso olfativo. Para comenzar, el biólogo Bellenson seleccionó secuencias de genes, que le posibilitaban determinar un tipo de proteínas que esas secuencias podrían generar. Las proteínas, a su vez, determinaran el tipo de moléculas odoríferas con las cuales se podrían conectar, o que posibilitaría a Bellenson crear una tabla de olores posibles. Para simular la conexión entre las moléculas odoríferas y las proteínas, los investigadores desarrollaron un dispositivo y un software. El prototipo, que fue bautizado como ¡Smell, es una pequeña caja negra, de plástico, que contiene 35 pequeños frascos con esencias, un calentador y un mini-ventilador. El modelo de operación actual, el interactor, por medio de una interface gráfica, selecciona una imagen que corresponde al olor deseado. Esa instrucción es dada a un software que especifica cuales fragancias, contenidas en el dispositivo, seran calentadas. Cuando las moléculas comienzan a evaporarse, el mini-ventilador es accionado, lo que posibilita difundir el olor resultante. La idea que está detrás de ese mecanismo es bastante elegante. De la misma manera que un monitor de video genera millones de colores a partir de 3 colores elementales, el ¡Smell, administrado por un computador, puede simular un gran número de olores, combinando proporciones distintas a partir de un número limitado de esencias. En segundo lugar, estima Bellenson y Smith, el 12 Charles Platt, "You've got smell". Wired, November, pp. 256-263, (1999) p.260. 9 producto final deberá contener al menos 128 olores primarios: "Not the entire scent space, but a substancial part of it"13 Además de la vasta gama de colores, una de las ventajas de esta interface es que las fragancias pueden ser interpretadas por los interactores, de acuerdo a sus preferencias, y que tal vez sea una solución eficaz para el problema de las mezclas de olores que, en experimentos anteriores, resultaron en experiencias desagradables. Resta entonces, integrar a Smell a los dispositivos de localización y orientación, de forma a presentar al interactor una sensación de olor que varía de acuerdo con su posición. Interfaces hápticas. manos, dedos y otras partes. Un número creciente de investigaciones busca incorporar el tacto en el ciberespacio. Dichos enfoques se dirigen hacia la creación de interfaces hápticas,14 es una tecnología que promete ofrecer al interactor informaciones de los objetos virtuales (forma, dureza, peso, inercia, densidad y temperatura), por medio de sensaciones cutáneas. Originalmente, las primeras interfaces fueron diseñadas para permitir a un agente humano, el manipular remotamente substancias radioactivas en ambientes nucleares (un lugar donde el hombre no podría o no querría estar). Desarrolladas en 1954, por Raymond Goertz, en el Argonne National Laboratories, estas interfaces eran esencialmente sistemas de force feedback mecánicos, que no poseían ningún control electrónico o computacional. Típicamente a través de una espesa ventana de cuarzo, un agente humano teleoperaba los movimientos de un mecanismo (de tipo robot “esclavo”) que seguía, dentro de los límites de su capacidade física, los movimientos del operador. 13 Platt 20 p.262. 14 Hápticos, en griego significa tocar. 10 En los años 70, estas interfaces y los sistemas de realidad virtual convergieron. La primera iniciativa, el proyecto GROPE, integró el brazo electromagnético de Goertz a un sistema que simulaba atrapar moléculas en estructuras protéicas virtuales.15 Interfaces comerciales de ese tipo comenzaron a surgir en los años 90. Un ejemplo actual de esa tecnología es el CyberGrasp de Virtual Technologies Inc. CyberGrasp es un exoesqueleto de mano que posibilita al interactor, asir y sentir la forma de los objetos en ambientes virtuales. Usado como un guante, este aparato contiene: 1. Un sensor de posición que detecta la localización de dos dedos del interactor en relación al objeto y 2. Un conjunto de 6 “tendones artificiales” que impiden que el interactor cierre la mano más allá de los límites de la forma del objeto virtual que él está asiendo. Este sistema es eficiente en aplicaciones que implican agarrar un objeto remoto o virtual, sentir su peso e inercia. Considerando, sin embargo, los objetivos propuestos por iniciativas ciberespaciales, como la teleinmersión, poder asir la mano de alguien en un encuentro virtual no parece ser suficiente. Una alternativa para los sistemas de force feedback (que simulan dureza o peso e inercia de los objetos virtuales) son las interfaces con feed back táctil, que simulan sensaciones táctiles más complejas como textura, viscosidad y temperatura. Derivadas de investigaciones desarrolladas en los años 80, en el MIT Media Lab,16 las últimas generaciones de esa tecnología son variaciones de joysticks17 y mouses18, que “reaccionan” y “vibran” para indicar la textura del objeto tocado. R. Goertz, R and R. Thompson, “Electronically controlled manipulator”. Nucleonics, (1954) pp. 46–47. 15 16 En particular el proyecto de doctorado de Margaret Minsky (hija de Marvin Minsky). La investigadora desarrolló un modelo de joystick, capaz de crear texturas táctiles que reproducían la sensación de tocar substancias como la miel o el hielo, o de escribir con un lápiz sobre la superficie de una lija. 17 Por ejemplo, el joystick como force feedback de Microsoft, y el dispositivo Phantom, producido por la Sense/able Technologies, Inc. 18 Por ejemplo el FEELit Mouse, de Immersion Corporation: http://www.immerse.com. 11 Independiente del modelo, la idea de los tecnologistas de estas interfaces es simular (de la manera más realista posible) las sensaciones que ocurren cuando uno pasa sus dedos sobre una superficie. Ya se prevé que, en un futuro próximo, un cirujano, mediante una “consola teleinmersiva”, podrá palpar órganos internos de un paciente y observar si, por ejemplo, existe alguna arteria obstruída. Esto es claro, a distancia y sin necesidad de hacer una incisión del tamaño de una mano humana. El problema es: en el mundo del tacto, un joystick, un mouse o un guante son artefactos que equivalen a un monitor de video en el mundo de la visión. Esas interfaces posibilitan “palpar” el ciberespacio, pero están lejos de poder envolverlo a uno. Para alcanzar la inmersión táctil “total”, el resto de su cuerpo precisa tomar parte en la experiencia, lo que remite necesariamente a una idea de una vestimenta o ambiente hápticos, capaces de simular sensaciones táctiles en el cuerpo entero. Teledildonics El visionario de la computación, Theodor Nelson, fue el primero en sugerir que la tecnología de toque artificial nos llevará al sexo virtual o al sexo remoto. La palabra “dildonics” fue por él acuñada, en 1974, para describir una máquina creada por el hacker How Wachspress. El artefacto de Wachspress es una especie de interface háptica capaz de convertir sonidos en sensaciones táctiles. El efecto erótico, sugerido por Nelson, depende del interactor, i.e. él debe escoger la parte de su anatomía que irá interfaceando con el estimulador táctil. La hipótesis de Nelson y de muchos otros autores es simple: junte un dispositivo de cuerpo entero, como el de Wachspress, agregue potencia computacional y una red telemática de alta velocidad, y el sexo a distancia será posible. Lo difícil son los problemas técnicos. Hasta ahora, las investigaciones en interfaces hápticas trataran algunas subclases de sistema táctil: uno ya puede sentir la forma, el contorno y hasta la 12 felxibilidad del cuerpo de su compañero remoto19, pero eso incluso está muy distante de lo que sentimos en encuentros sexuales. En el plano de las ideas, sin embargo, las sugestiones son innumerables. Los modelos más curiosos imaginados hasta el momento, son los siguientes: Preservativo digital El especialista en realidad virtual Howard Rheingold, le apuesta a un modelo de interface wearable que acopla gafas 3D, una cabina acolchada y una vestimenta forrada con un enorme conjunto de sensores y vibradores, capaces de recibir y enviar sensaciones realistas de presencia táctil: “Picture yourself a couple of decades hence, dressing for a hot night in the virtual village. Before you climb into a suitable padded chamber and put on your 3D glasses, you slip into a lightweight (eventually, one would hope, diaphanous) bodysuit, something like a body stocking, but with the kind of intimate snugness of a condom. Embedded in the inner surface of this suit (…) is an array of intelligent sensor-effectors a mesh of tiny tactile detectors coupled with vibrators of varying degrees of hardness, hundreds of them per square inch, that can receive and transmit a realistic sense of tactile presence…”20 Caverna electromagnética Para James F. Kramer, presidente de Virtual Technologies, una posibilidad de tecnología háptica sería transformar una caverna de realidad virtual en un 19 Un ejemplo es el proyecto INTER-SKIN (1994), creado por el artista e investigador noruego Stahl Stenslie. En INTER-SKIN, los participantes visten una interface háptica que posibilita transmitir y recibir estímulos sensoriales vía redes telemáticas. Cuando un participante toca su cuerpo, esa acción es transmitida al participante remoto, quien se siente tocado. La presión del toque depende de la duración. Cuanto más demore el tiempo de contacto, mayor será el estímulo sentido por el otro. Otro ejemplo es el proyecto de investigación “Smart skin” que está siendo implementado por el ingeniero Danilo de Rossi, en la Universidad de Pisa, italia. De Rossi desarrolla una piel artificial capaz de recibir y transmitir presiones de intensidad variada y sentir una textura tan sutil como la escritura en braile en una hoja de papel. 20 Howard Rheingold, Virtual reality (New York : Touchstone, 1991) p.346. 13 campo electromagnético. La justificación de este enfoque fue descrita por David Pescowitz, en el artículo "Your new senses": "A suit with an array of actuators doesn't give you ground references forces," Kramer says. "You could feel a wave rippling across your body, but it's not going to knock you off your feet. We need a big breakthrough. One possibility Kramer mentions is that of electromagnetics. He envisions a virtual-reality-equipped room that, like a MRI machine, is actually a giant magnet. Clad in a haptic suit with magnetic properties, the wearer would be buffeted like a paper clip under a refrigerator magnet.”21 Plug neuronal La propuesta de interface más radical fue sugerida por el inventor futurista Ray Kurkzweil. Según sus previsiones, al final del siglo 21, varias interfaces seran plantadas directamente en el “circuito” neuronal. Así, directamente “conectado”, no se necesitará de interfaces externas para interactuar en los ambientes virtuales. “Your neural implants will provide the simulated sensory inputs of the virtual environments and your virtual body directly in your brain. Conversely, your movements would not move your "real" body, but rather your perceived virtual body. These virtual environments would also include a suitable selection of bodies for yourself. Ultimately, your experience would be highly realistic, just like being in the real world. More than one person could enter a virtual environment and interact with each other. In the virtual world, you will meet other real people and simulated people eventually, there won't be much difference.”22 21 David Pescovitz, "Getting real in cyberspace". Scientific American, edição especial: Your bionic future, v. 10, n.3, Fall, pp. 48-51 , (1999) p.50. 22 Ray Kurzweil, The Age of Spiritual Machines: when computers exceed human intelligence (New York: Viking Penguin, 1999) p.144. 14 Sexo remoto o virtual es probablemente la aplicación que más exigirá de las tecnologías ciberespaciales. Reproducir realísticamente un encuentro sexual requiere combinar en un único sistema, las interfaces táctiles, visuales, auditivas y olfativas de alta resolución; lo que vuelve a esta propuesta un medio rico para la especulación. Este vector, presume que el ciberespacio, será un lugar donde los humanos interactuaran con humanos o con objetos simulados, sin que esas acciones afecten la “realidad” física. Telepresencia Otro posible uso para los sitemas de realidad virtual fue propuesto por el investigador jefe del Artificial Intelligence Laboratory del MIT, Marvin Minsky. Al final de los años 1950, Marvin Minsky y John McCarthy fundaran, en el MIT, el primer laboratorio dedicado a la investigación de inteligencia artificial. Entre los principales objetivos, la inteligencia artificial preveía avanzar el estudio de la inteligencia humana y construir robots, i.e. máquinas autónomas capaces de desempeñar tareas que requieren inteligencia, desempeñadas por el hombre. En un nivel elemental, un robot debe percibir el espacio físico, decidir qué hacer (basado en percepción y objetivos) y actuar; tareas que presuponen una tecnología bastante compleja que incluye, entre otras cosas, teorías sobre la representación del conocimiento, poder computacional y algoritmos que hasta hoy requieren más investigación y estudio para ser descubiertos.23 Frente a un cuadro de objetivos tan complejo y de límites tecnológicos que solo podrían ser superados en un futuro distante, al final de los años 70, Minsky escribió sobre una estrategia para hacer avanzar la investigación. En el artículo “Telepresence” (1980), describe su propuesta: Las dificultades para diseñar programas que “racionalizan” y que controlan un robot para interactuar en un ambiente físico parecen ser enormes. Algunos investigadores conseguirán programar computadores para comportarse “inteligentemente” en funciones específicas, pero queda mucho por hacer. Un ejemplo es el computador “Deep Blue”, de IBM, que en Mayo de 1997, venció a Garry Kasparov, uno de los mayores jugadores de ajedrez de todos los tiempos. Vale decir, que Deep Blue requiere la asistencia de un agente humano que ve y manipula las obras. 23 15 “A person wears a comfortable jacket lined with sensors and muscle-like motors. Each motion of arm, hand and finger is reproduced at another place by mobile, mechanical hands. Light, dexterous and strong, those hands have their own sensors, through which the operator sees and feels what is happening. Using such an instrument, you can "work" in another room, another city, or another country. Your remote "presence" can have the strength of a giant or the delicacy of a surgeon. Heat or pain is "translated" into informative but tolerable sensation. Dangerous jobs become safe and comfortable.”24 Aunque Minsky había llamado a ese esquema “Telepresence”25, no se otorgó el crédito del concepto. Este es un mérito que él atribuye a Robert A. Heinlein, autor de la ficción científica Waldo.26 Según la ficción, Waldo F. Jones es un científico del futuro que, por tener limitaciones físicas, desarrolla dispositivos de telepresencia que dirigen los movimientos de poderosos autómatas, llamados waldos. Los waldos tienen manos robóticas de tamaños diversos que son controladas por el científico, a través de un receptor estéreo. En las palabras de Heinlein: “The most difficult and the most interesting aspect of the investigation had to do with the neurological system in relation to Other Space. Neither electromagnetic instruments nor neural surgery was refined enough to do accurate work on the levels he wished to investigate. But he had waldoes. The smallest waldoes he had used up to this time were approximately half a inch across their palms with micro-scanners to match, of course. They were much too gross for this purpose. He wished to manipulate living nerve tissue, examine its insulation and its performance in situ. He used the tiny waldoes to create tinier ones. The last stage was tiny metal blossoms hardly an eighth of an inch across. The helices in their stems, or 24 25 26 Marvin Minsky, "Telepresence". Omni, June, pp. 45-52, (1980). Según Minsky, el término telepresencia "was suggested by my futurist friend Pat Gunkel". Robert A. Heinlein, Waldo & Magic, Inc. (New York: Ballantine Books, 1990). 16 forearms, which served them as pseudo muscles, could hardly be seen by the naked eye but, then, he used scanners. His final team of waldoes used for nerve and brain surgery varied in succeeding stages from mechanical hands nearly life-size down to these fairy digits which could manipulate things much to small for the eye to see. They were mounted in bank to work in the same locus. Waldo controlled them all from the same primaries; he could switch from one size to another without removing his gauntlets. The same change in circuits which brought another size of waldoes under control automatically accomplished the change in sweep of scanning to increase or decrease the magnification so that Waldo always saw before him in his stereo receiver a "life-size" image of his other hands.”27 Conforme sugiere el pasaje de ficción de Heinlein, una cuestión central en telepresencia es que esta tecnología crea un contexto en el cual los interactores experimentan mundos remotos de perspectivas diferentes de las humanas, una vez que esos mundos son percibidos a través de robots. Imagínese inmerso en un ambiente de realidad virtual, donde el sistema mide todas sus acciones y ofrece imágenes, sonidos y otros estímulos sensoriales. Imagine también que sus acciones y percepciones (inputs y outputs) están conectados al aparato que controla el sensorium de un robot. Las imágenes que se observan, captadas por la cámara del robot, van de acuerdo con los movimientos de su cabeza. Sus movimientos mueven al robot y, en perfecta sincronicidad, los movimientos del robot son transmitidos al interactor. Cuando éste agarra algo (teleoperado por Usted), esa acción es enviada a los músculos y manos, que sienten el peso, la forma y la textura del objeto. La ventaja más evidente de esta tecnología es que las limitaciones físicas o espaciales de los agentes involucrados (e.g., las suyas y las del robot) podrán ser compensadas o expandidas. Es decir que, “prestando” sus facultades perceptivas y cognitivas a los robots, se pueden amplificar los ojos, las piernas, los brazos, lo que posibilita reparar una estación espacial, excavar un océano 27 Heinlein 25 pp. 132-133. 17 profundo, bombardear una base militar o, simplemente, trascender limitaciones físicas o sensoriales de su cuerpo.28 Esta cuestión también viene siendo abordada por la ciencia como un medio pragmático y operacional, que busca alcanzar un punto en el cual el desempeño de los robots equivalga a la gestualidad humana. La parte humana debe ofrecer los aspectos cognitivos-perceptivos; la parte mecánica debe ofrecer la sensación de presencia, que posibilita al interactor humano el teleoperar robots en ambientes físicos remotos. Entre las cuestiones-clave, abordadas por los teleroboticos se destacan: 1. La investigación y el desarrollo de interfaces sensoriales, capaces de transferir al agente humano el sentimiento de presencia. 2. La investigación y desarrollo de métodos que posibilitan mantener el control (intuitivo) sobre los robots remotos. Estos enfoques, en última instancia, buscan crear una tecnología capaz de generar la sensación (es claro que el realismo de la ilusión depende de la definición de las interfaces disponibles) de que uno habita el cuerpo del robot en un espacio remoto, lo que puede llevar a la pregunta: ¿Fuera del cuerpo? ¿Pero dónde? El término telepresencia recibió una vasta gama de significados. Según la definición sugerida por la investigadora de interfaces hombre-computador, Brenda Laurel, telepresencia es: "a medium that allows you to take your body with you into some other environment….You get to take some subset of your senses with you into another environment. And that environment may be a computer-generated environment, it may be a camera-originated environment, or it may be a combination of the two"29 28 Un ejemplo de aplicación del último tipo es el proyecto del Dr. Susumu Tachi, Guide Dog Robot (también conocido como Meldog, o Mechanical Engineering Laboratory Dog, por la sigla en inglés), el cual trata de ayudar a los interactores con deficiencias visuales. 29 Brenda Laurel, citada en Rebecca Coyle, "The genesis of virtual reality", Future visions: new tecnologies of the screen, Philip Hayward and Tana Wollen (London: British Film Institute, 1993) p.162. 18 La definición de Laurel sugiere tres localidades distintas: 1. Usted podrá estar telepresente en un ambiente virtual. 2. Usted podrá estar telepresente (vía conexión telemática) en un ambiente físico remoto. 3. O Usted podrá estar conectado en una “realidad híbrida”. Las tres sugieren que las tecnologías de realidad virtual y de telepresencia integran un sistema mayor.30 En el otro extremo de las definiciones, las tecnologías de telepresencia son vistas como un sistema independiente y más radical que la tecnología de realidad virtual. En estos enfoques la cuestión clave no es dónde Usted está telepresente, sino lo que Usted pueda hacer telepresente. Los sistemas de realidad virtual posibilitan al interactor, el actuar en un mundo simulado. Usted puede herirse o morirse en video games, sin que eso implique su muerte real. En el fondo, por más realista que la simulación pueda ser, lo que está siendo modificado son los datos almacenados en la memoria de un computador. Contrariamente, la telepresencia posibilita controlar, en tiempo real y a través de una imagen, la “realidad física”. Esto significa que, por medio de las tecnologías de telecomunicación electrónica, Usted puede transformar objetos en signos y, a través de esos signos, reinvertir el proceso, i.e., teleactuar sobre los objetos físicos. Según Rheingold: "One way to remember the distinction of VR and teleoperator research: In VR, you can demolish the building you are in, with no inconvenient side effects; if you are commanding a teleoperator, the building might not be there when you take your goggles off”.31 30 Michael Heim e Scott S. Fisher compartiran esta visión en: Michael Heim, Virtual realism (New York: Oxford University Press, 1998) pp. 12-13 e Scott S. Fisher, “Virtual Interface Environments”. The Art of Human-Computer Interface Design (Massachusetts: Addison-Wesley, 1990) Brenda Laurel (ed.) pp. 423-438. 31 Rheingold 19 pp. 255. 19 Cuerpo - tecnología: una cuestión de interfase Por Daniela Kutschat Hanns32 Como artista, he desarrollado propuestas y proyectos en los cuales la tecnología y el hombre se funden componiendo un sistema operacional regido por una relación de co-valencia, previamente descrita como “simbiótica” (KUTSCHAT & CANTONI:IVEIAT, Brasilia ,2004). En proyectos recientes de ambientes inmersivos, interactivos y adaptativos, se demostró imprescindible: a) crear interfases humano-computador capaces de explorar, fomentar y, en un caso ideal, ampliar la cognición humana de forma multimodal; b) integrar y retroalimentar los sistemas: hombre-objeto autómata (OS 1; Realidad 1.2); hombre-ambiente (Pas-de-Trois; AndaLuz33; OP_ERA34). Este artículo busca presentar un resumen de referencias y reflexiones desarrolladas en esta investigación; entre ellas, la importancia de la creación de artefactos e interfases cognitivas; algunos de los modelos actuales y perspectivas para nuevos modelos. Cuerpos tecnológicos Mi cuerpo, así como el suyo, es un cuerpo tecnológico. A través de él interactúa con los otros, me adapto al ambiente y soy capaz de alterarlo. Además de tecnológico el cuerpo es un interfase. A lo largo de la historia el hombre elaboró formas de comunicación y lenguajes corporales sofisticados, algunos de las cuales tan eficientes que perduran hasta hoy. A diferencia de 32 Doctora en Artes por la Escuela de Comunicaciones y Artes de la Universidad de Sao Paulo, coordina el Enfasis en medios interactivos del Posgrado en Comunicación y Artes del SENAC. Es artista e investigadora de medios electrónicos y digitales, sobre la relación entre el cuerpo y el espacio, las interfaces hombre-computador y los sistemas de integración cuerpo-espacio de datos, para instalaciones y ambientes interactivos y de Realidad Virtual. Actualmente también desarrolla sistemas autónomos adaptativos (BCS). Entre sus exposiciones se encuentran: OPERA: Haptic Dimension II, Instalación de Realidad Virtual, SENAC, OP_ERA: Haptic Wall, Sonorama, Instituto Tomie Othake, OP_ERA:HYPERVIEWS. Itaúcultural, Sao Paulo, 2004, OP_ERA: HAPTIC DIMENSION, Centro Cultural Banco do Brasil, Hiper, Porto Alegre, Máquinas de Ver I, Paço das Artes, Vôo Cego I e Vôo Cego II, Itaúcultural, Infobodies: unfolding and potentialities, derivada III, Instalação Audio-visual, 2001, Info_grafia, Infografias. In Zeitgenoessischer, Viena, 1998, Palimpsesto, 1994, Traces, Melbourne, 1994. 33 34 En coautoría con Pedro Perez Machado En coautoría con Rejane Cantoni 20 otras especies, también inventó una serie de artificios y artefactos capaces de ampliar y transformar la cognición humana y el ambiente: algunos de ellos físicos, otros mentales. Incluyendo el advenimiento del computador, ninguno de ellos existiría sin la capacidad de invención del hombre. Hasta aquí fuimos capaces de construir máquinas precisas: su funcionamiento deriva de cálculos matemáticos y métodos lógicos de la ciencia y de la ingeniería. Actuando como sistemas que tienden al grado cero de error, su proceso no corresponde a la forma humana y errática de pensar: en cuanto nosotros estamos sujetos a distracciones, incertidumbres, lapsos lógicos y errores gramaticales, el computador puede exceder nuestro potencial analítico, como ya hemos visto en los desafíos entre el hombre y el computador, éste puede ser más perfecto. Disociar la actividad mental del cuerpo y del ambiente (cultura) sería tan imposible como disociar el ambiente y el potencial inscrito en el software (lenguaje, mental) sin considerar el hardware de la máquina y el ambiente (contexto) donde se encuentra. Con el computador tenemos un artificio cognitivo capaz de ampliarnos. Queda saber en cuánto el computador ampliará su propio potencial creativo de forma autónoma, capaz de integrar y articular en um proyecto el hardware físico (placas, sensores, dispositivos de almacenamiento, etc); y el software (lenguaje y programación) en un diseño que prevea su adaptabilidad a otros sistemas y al ambiente. Para eso, el diseño debe contemplar el reconocimiento del ambiente (contexto) en que el sistema está y los interlocutores que tiene. Esas investigaciones se encuentran en una zona límite, que se articula entre el arte, la investigación tecnológica y la ciencia. Máquinas y seres creativos Ray Kurzweil, en su previsión de avances y desarrollos tecnológicos expone: O una especie crea tecnología o no la crea. Puede ser difícil para un planeta soportar más de una especie que cree tecnología. Si hay más de una, puede 21 ser que ellas no se den, como aparentemente es el caso de la Tierra (...). La evolución de una tecnología es la continuación y otra forma de evolución de aquello que la especie que crea tecnología hace emerger. El próximo paso es la computación, donde la tecnología emerge, parece inevitable que la computación emerja subsecuentemente (en la tecnología, no solo en los sistemas nerviosos de las especies). La computación es claramente una forma muy útil para controlar el ambiente, así como la propia tecnología, y facilita inmensamente la continuación de la creación de esta. De la misma forma que un organismo debe mantener estados internos y responder inteligentemente a su ambiente, también la tecnología. Cuando la computación emerge, estamos en un estadio avanzado de la evolución exponencial de la tecnología en aquel planeta (...). El próximo paso inevitable es la fusión de la especie que inventa tecnología con la tecnología computacional que ella empezó a crear. En ese estadio de evaluación de la inteligencia en el planeta, los computadores, están basados en el diseño de cerebros (esto es, órganos computacionales) de la especie que originalmente los creó; los computadores, a su vez, son acoplados e integrados a los cuerpos y cerebros de aquella especie. Punto a punto, el cerebro y el sistema nervioso de la especie son llevados a la tecnología computacional hasta que ella, finalmente, substituya esos órganos de procesamiento de información. Todos los tipos de cuestiones prácticas y éticas atrasan el proceso, pero no pueden detenerlo. La Ley de Retornos Acelerados prevé una completa fusión de la especie con la tecnología que ella creó.(Kurzweil, 1999, 254-256). Artefactos cognitivos Muchas de las habilidades humanas se derivan de nuestra capacidad de construir artefactos, herramientas y tecnologías que se trasforman y que evolucionan. Entre las formas de vida, nosotros fuimos capaces de superar nuestras limitaciones: inventamos instrumentos que nos volvieran más fuertes y que ampliaran nuestro conocimiento sobre el universo; nos volvimos mas rápidos y transformamos nuestro ambiente; nuestras invenciones nos protegen del clima, alimentan, educan y divierten; pero, hoy en día, más que suplir 22 necesidades físicas y fisiológicas, los artefactos nuevos se dirigen hacia alimentarnos mentalmente, como afirma el neurocientífico Donald Norman: Nosotros los humanos inventamos una serie de cosas para estimular nuestra cognición: algunas de ellas son físicas, otras mentales. Herramientas como papel, lápiz, calculadoras y computadores, son artefactos físicos que activan la cognición. Lectura, aritmética, lógica y lenguaje son artefactos mentales, cuya potencia reside más en las estructuras informacionales, en las reglas y estructuras específicas propuestas, que en propiedades físicas. Procedimientos y rutinas, así como memotecnias para recordar los métodos para realizar tareas también son artefactos mentales. Ambos tipos de artefactos, independientemente si son físicos o mentales, son igualmente artificiales: ellos no existirían sin la invención humana. De hecho, cualquier cosa inventada por el hombre con el propósito de mejorar el pensamiento o la acción, vale como artefacto; poco importa si es físico, construido o manufacturado, o si es mental o aprendido. (Norman, 1993, 4-5). Interfases La idea de interfase normalmente está relacionada con un dispositivo físico o lógico capaz de hacer la adaptación entre dos o más sistemas que no podrían comunicarse directamente, o sea, la interfase actúa como un traductor (mediador) entre dos o más sistemas, volviéndolos sensibles entre sí. Esa relación entre las partes (dos o más personas) o entre sistemas de naturalezas distintas (humana-computador, por ejemplo) está caracterizada por significado y expresión. En ella, el lenguaje, sea este gestual, verbal o de otro orden, actúa como interfase. También en la relación entre hombre y sistema computacional, es necesario que el computador tenga la capacidad de representarse en un lenguaje compresible al otro, al hombre, y viceversa. Para eso, son desarrolladas las interfases humano-computador (IHCs), el hardware y software a través del cual el usuario o agente humano interactúa con un sistema computacional. Según Jef Raskin: 23 La cualidad de la interfase está determinada por la cualidad de interacción entre un humano y un sistema - entre usted y él. Si una interacción uno-a-uno con un usuario humano no es agradable y facil, la deficiencia resultante contaminará el performance de todo el sistema, por más que el sistema sea óptimo en otros aspectos. (Raskin, 2000, xix). Según Laurel: “La interfase es una superficie de contacto, ella refleja las propiedades físicas de los interactores, las funciones a ser realizadas y el equilibrio entre fuerza y control” (Laurel, 1988, XII). Innumerables proyectos de interfases tratan de encontrar alternativas para la integración, cada vez mayor, entre el hombre y el sistema computacional. Esas iniciativas son remarcables en los campos de la medicina, de la automatización industrial y de la robótica, siendo aplicadas en tele-operaciones, líneas de montaje; sistema de distribución de cartas; ambientes (públicos y privados) y objetos: de la ciudad a la aspiradora. Según Lev Manovitch, la capacidad de auto-representación del computador, hasta hoy, se ha dado, la mayoría de las veces, metafóricamente: El término interfase humano-computador describe las formas en las cuales el usuario interactúa con el computador. La IHC incluye dispositivos físicos de entrada y salida, tales como el monitor, el teclado y el mouse. Ella también consiste en metáforas utilizadas para conceptualizar la organización de datos computacionales. Por ejemplo, la interfase Mackintosh introducida por Apple en 1984, usa la metáfora de archivos y carpetas organizadas en un escritorio. Finalmente, la IHC incluye igualmente las formas de manipulación de datos, esto es, una gramática de acciones significantes que el usuario puede estar realizando. Ejemplos de esas acciones proveidas por las IHCs modernas son copiar, renombrar, excluir un archivo; listar el contenido de un directorio; iniciar y suspender un programa; actualizar la fecha y hora de un computador. (...). A 24 finales de la década de los 90 cuando el uso de Internet se volvió un lugar común, la imagen pública del computador no era más la de una herramienta, sino la de una máquina de medios universales, que podría no solo ser usada por el autor, sino también para almacenar, distribuir y acceder a todos los medios (Manovitch, 2001,69-70). Indudablemente, las nuevas máquinas sustentan nuevas metáforas, sin embargo lo que necesitamos crear son nuevos conceptos, una idea sustentada en 1984 por Alan Kay: El computador puede actuar como máquina o como lenguaje al ser configurado y explorado. Es un medio que puede simular dinámicamente los detalles de cualquier otro medio, incluyendo aquellos que no existen físicamente, inclusive puede actuar como tal. Es el primer metamedio y, como tal, tiene grados de libertad de expresión y representación nunca encontrados o investigados anteriormente. (Kay, 1984, 52 – 59, traducción nuestra). A pesar de contar con interfases que facilitan nuestro acceso a datos y su manipulación, un desafío está aún presente para los diseñadores, ingenieros y tecnólogos que las desarrollan y prueban, y las acercan a nosotros (algunas utilizan adjetivos como amigables, intuitivas y naturales), ya que aún somos nosotros lo que tenemos que adaptarnos a los formatos y lenguajes del otro sistema. Se dice de muchas interfases desarrolladas que el producto resultante es intuitivo o natural. Sin embargo, no existe una facultad humana denominada intuición, como normalmente la palabra es entendida, esto es, (no hay) conocimiento adquirido sin exposición anterior al concepto, son términos pasados por un proceso de aprendizaje y son términos utilizados por el raciocinio. Cuando un especialista utiliza lo que llamamos su intuición para juzgar con una velocidad y precisión lo que la mayor parte de las personas consideraría más allá de sus posibilidades, descubrimos que él basó su juicio en su experiencia y conocimiento. (...) Cuando los usuarios dicen que una interfase es intuitiva, quieren decir que ella opera igual a otro software o 25 método que les es familiar (...). En otras palabras, lo que intento evitar al discutir interfases es la palabra: natural. Al ser intuitiva, ella normalmente no es precisa. En el uso del lenguaje común, una interfase es natural si ella opera de tal forma que el hombre no precise de instrucciones. Eso significa que hay alguna actividad humana común que es similar a la forma en que la interfase opera. Sin embargo es muy difícil describir lo que se quiere decir con la palabra similar. Semejanzas y analogías pueden ocurrir de varias formas. Ciertamente que el cursor va para la derecha cuando es empujado hacia la derecha y para la izquierda cuando es empujado hacia la izquierda, es natural. Aquí el término natural se iguala a: fácilmente aprendido. Sin embargo puede ser imposible cuantificar lo natural, pero no es muy difícil cuantificar el tiempo de aprendizaje (Raskin, 2000, 150). En una tendencia de digitalización, en la cual una parte cada vez mayor de la cultura es codificada en 0 y 1 (cero y uno), siendo filtrada y traducida a lo digital, surge Una nueva forma cultural que se localiza en algún lugar entre el medio y el mensaje, una metáfora que vive en el submundo entre el productor y el consumidor de información. La interfase es una manera de mapear ese territorio nuevo y extraño, un medio de orientarnos en un ambiente sin norte. (Johnson, 2002, 33). Mientras Steven Johnson llama la atención hacia una nueva cultura de la interfase, Lev Manovitch lo hace hacia el fenómeno de la interfase cultural: El lenguaje de interfases culturales es híbrido, es una extraña mezcla entre las convenciones de formas culturales tradicionales y las convenciones de las IHCs –entre un ambiente inmersivo y un conjunto de controles, entre estandarización y originalidad. Las interfases culturales intentan balancear el concepto de una superficie en la pintura, fotografía, cine y la página impresa como algo para ser visto, pero siempre con alguna distancia, sin interferir, como el concepto de superficie en una interfase computacional o panel de 26 control virtual, parecido al panel de control de un carro, avión o cualquier otra máquina compleja. Finalmente, en otro nivel, las tradiciones de la palabra impresa y del cine compiten entre sí, unos quieren la pantalla del computador como superficie informacional, densa y plana, mientras los otros insisten en que esta se transforme en una ventana para un espacio virtual. (Manovitch, 2001,91-92) Modelos Para que nuevas ideas, así como una nueva cultura deriven de la interacción entre hombres y computadores (robots, objetos, ambientes, etc.) es necesario pensar en la interfase como un artificio capaz de generar una relación especial con la realidad: capaz de crear uno o más mundos y universos en los cuales nuestras capacidades cognitivas (pensar, sentir y actuar) sean ampliadas y enriquecidas. Para que eso pase, deben ser consideradas tanto las habilidades de los hombres (y de los seres vivos) como las de las máquinas; esto es; el diseño de las habilidades multisensoriales y de retención de información del ambiente de los cuerpos humano y computacional, lo cual es tan importante como considerar las habilidades de lo humano y lo computacional. El conjunto interacción-cultura-ambiente refleja las posibilidades de comunicación, entendimiento e intercambio entre las partes. El diseño de lo humano es un preoceso milenario en curso. El refleja el potencial, aparentemente limitado, de adaptabilidad y de significación del ambiente. Los innumerables lenguajes desarrollados por el hombre a lo largo de la historia, por ejemplo, tienen la ventaja de estar incorporados en el día a día a través de los hábitos de cada uno. Utilizar el gesto como interfase de entrada de datos para un sistema computacional, por ejemplo, puede ser más confortable, rápido y preciso que, por ejemplo, seleccionar una entre innumerables opciones de un menú o cliquear uno entre innumerables botones, (interfases que normalmente encontramos en nuestro desktop, un cajero electrónico, un celular y al llamar a un 0-800). Ejemplos de exito en la utilización de gestos como interfase humano-computador son las aplicaciones en la medicina. Portadores de deficiencias auditivas, visuales y motoras entre 27 otras, se valen de gestos, movimientos de los ojos; las señas con la mano, apuntar con el dedo al canal de entrada de un sistema computacional, lo que servirá para auxiliarlos a desempeñar funciones que no podrían realizar sin ello, e inclusive las interfases permiten el “sustituir” miembros, facilitando su interacción con el ambiente. Ese éxito también se debe a las innovaciones de las interfases sensibles al movimiento humano (tracking systems) de la década de los 70; la invención de la pantalla interactiva en los 80, el desarrollo de guantes, vestimentas, mouse 3D y de dispositivos móviles inalámbricos de la década de los 90 hasta el día de hoy; factores que volvieron la comunicación hombre-computador más fluida y espacial. Es importante recordar que, siguiendo la historia (1956), las interfases humano-computador (IHCs) han englobado desde interfases hardware; interfases de procesamiento software; interfases gráficas (GUIs), así como el mouse, pantallas, ventanas; hasta interfases hápticas y de inmersión en Realidad Virtual; de yuxtaposición de Realidad Aumentada; Realidad Mixta y de la transparencia de la Computación Ubicua; siendo éstas, representantes de las tendencias actuales de interacción. Existen muchas maneras o propuestas de como sumergirse e interactuar en el ciberespacio: vía tecnología desktop, con teclado, mouse y pantalla; vía tecnología inmersiva de los sistemas de realidad virtual, que preveen la recreación de los sentidos humanos tanto como sea posible; vía tecnología intrusa, como chips implantados; e inclusive combinaciones de todas ellas. (Cantoni, 2001, 7). Mientras la Realidad Virtual busca simular el mundo físico sumergiendo los sentidos del usuario en un mundo digitalmente construído, en otra tendencia se busca la yuxtaposición del espacio de datos al espacio físico. El ingeniero Douglas Engelbart, creador del mouse y del paradigma espacial desktop, le apuesta a esta tendencia desde los años 70, cuando la denominó Realidad Aumentada. (Augmented Reality). 28 La Realidad Aumentada es un sistema que permite al usuario ver datos como mapas e imágenes sobrepuestas a su visión del mundo real. Aplicaciones de esos sistemas incluyen ingeniería, seguridad, navegación y medicina. (Cotton & Olivier, 1995, 22). Las interfases y dispositivos que representan esa tendencia son utilizados para suplir informaciones adicionales sobre el ambiente u objeto que observamos en el espacio físico. Un ejemplo actual (2003) son los visores NOMADth Personal Display System. Con ellos, se ve el ambiente físico y simultaneamente, una página de Internet o de un banco de datos que suple más información sobre el mismo ambiente, visualizable en una micropantalla traslucida dispuesta frente uno de los ojos. La visión “en paralelo” de constitución físico-química de objetos, órganos y tejidos; la reconstitución de ambientes arquitectónicos y de estructuras urbanísticas a través de este tipo de dispositivos y de computadores, son algunas de las aplicaciones actuales en esta línea de desarrollos de interfases. Una serie de dispositivos de telecomunicación inalámbrica (celulares, pagers, pads, paneles electrónicos); de objetos (cartones, etiquetas, vidrios y papeles electrónicos) y de ambientes “inteligentes” es otra tendencia que busca incorporar lo virtual computacional/hipermediático entrelazándolo al desplazamiento en el espacio físico que experimentamos en nuestro día a día. (Ubiquous Computing). La mayor parte de los computadores que conforman la ‘virtualidad incorporada’ serán invisibles de hecho y metafóricamente. Computadores ya existentes en interruptores de luz, termostatos, estéreos y hornos ayudan a activar el mundo. Esas máquinas y otras estarán interconectadas en una red ubicua. Como científicos de la computación, sin embargo, mis colegas y yo nos hemos enfocado en dispositivos que transmiten y presentan información de una forma más directa. Encontramos dos cuestiones de importancia crucial: localización y escala. Nada es más fundamental para la percepción humana que la yuxtaposición física, por eso, los computadores ubicuos tienen que saber donde están. (Los computadores actuales, por el contrario, no tienen 29 idea de su posición y de su entorno). Si un computador sabe en que sala está, podría adaptar su comportamiento de forma significativa sin requerir nada de inteligencia artificial. Los computdores ubicuos vendrán en tamaños diferentes, cada uno modelado para una tarea específica. (Weiser, 1991). Si aprendemos a diseñar una tecnología calma (calm technology), no solo enriqueceremos nuestro espacio de artefactos, sino también las oportunidades de convivencia con los otros. Cuando nuestro mundo esté repleto de computadores interconectados y ubicuos, la tecnología calma desempeñará una papel central en el siglo XXI humanamente más fortalecido. (Weiser&Brown, 1996). Como vimos, algunos de los modelos propuestos, como a) dispositivos de reconocimiento y de procesamiento de señales del cuerpo humano; b) dispositivos portátiles e inalámbricos; c) sistemas de inmersión; d) ambientes y objetos “inteligentes”; e) sistemas de red extendida computacional, traen beneficios para usos diferenciados y hasta el momento, ninguno de ellos aisladamente, o combinado con otros, propuso un modelo único para ser aplicado en el futuro. Por otro lado, las nuevas tendencias de desarrollo de interfase humanocomputador han indicado que utilizar el cuerpo humano como interfase integradora a sistemas computacionales ha abierto nuevas perspectivas de interacción, de arquitectura y de comunicación con objetos y ambientes de aprendizaje, estudio, trabajo y entretenimiento. La tendencia parece ser que el futuro de las interfases obedecerá a la lógica de lo “hecho sobre medida”, esto es, la pluralidad del humano será reflejada en la diversidad de modelos de sus meta-máquinas. Aparentemente, al menos en algunos aspectos, esas máquinas estarán excediendo aún más las potencialidades humanas. Eventualmente ellas se tornarán criaturas creadoras como nosotros y viviremos en una relación de asociación inédita. 30 Bibliografía CANTONI, Rejane. Realidade virtual: Uma historia de imersão interativa, Tesis de Doctorado, Programa de comunicação e semiótica. PUC-SP, 2.001. No publicada COTTON, Bob y Richard, OLIVER, The Cyberspace Lexicon-An Ilustrated dictionary of terms from multimidia to virtual reality, Phaidon, Londres, 1.995 JOHNSON, Steven, Cultura da interface, Jorge Zahar Editor, Rio de Janeiro, 2.001 KURZWEIL, Ray, The Age of Spiritual Machines, Penguin Books, Nueva York, 2.000 LAUREL, Brenda. The art of human-computer interface, Addison Wesley, Nueva York, 1.990 LEÃO, Lucia (org.), Cibercultura 2.0, Nojosa edicoes, Sao Paulo, 2.003 MANOVICH, Lev, The Language of New Media, The MIT Press, England, 2.001 NORMAN A., Donald. The Invisible Computer, The Mit Press, Londres, 1.999. Things that make us smart. USA: Perseus Books, 1.993. PACKER, Randal y Ken, JORDAN,. Multimidia-From Vagner to Virtual Reality. Norton, USA, 2.002 QUEAU, Philippe. “Virtuelle Visionen”, en: Kunstforum, Bd.133 Febrero-April, (p. 126-129), 1.996 RASKIN, Jef, The Humane Interface, Addison Wesley, Nueva York: 2.003 31 SCHOLDER, Amy y Jordan, CRANDAL, Interaction-Artistic practice in the network, Distributed Art Publishers, Nueva York, 2.001. WEISER, Mark, The Computer of the 21st Century, en: Scientific American, Vol. 233, 1.991. WEISER y BROWN. Designing Calm Technology , PowerGrid Journal, v 1.01, Octubre de 1.996 http://www.ubiq.com/hypertext/weiser/acmfuture2endnote.htm