1 / 33 Capítulo 1. La máquina universal de medios de Alan Kay Lev

Anuncio
Capítulo 1. La máquina universal de medios de Alan Kay
1
Lev Manovich
Medio:
8.
a. Un tipo específico de técnica artística o forma de expresión determinada
por los materiales usados o los métodos creativos involucrados: el medio
de la litografía.
b. Los materiales usados en una técnica artística específica: óleo como
medio.
American Heritage Dictionary, 4a. edición (Houghton Mifflin, 2000).
“La mejor manera de predecir el futuro es inventándolo”.
Alan Kay.
Apariencia vs. función
Entre su invención a mediados de los 40s y la llegada de la PC a inicios de los 80s, la computadora
digital era usada sobretodo con fines militares, científicos y empresariales (cálculos y procesamiento
de datos). No era interactiva. No estaba diseñada para ser usada por una sola persona. En pocas
palabras, difícilmente podía funcionar para la creación cultural.
Como resultado de numerosos desarrollos en los 80s y 90s, entre ellos el surgimiento de la industria
de las computadoras personales, la adopción de las interfaces gráficas de usuario (GUI), la expansión
de redes computacionales y del World Wide Web, las computadoras se movieron hacia la cultura. El
software reemplazó muchas herramientas y tecnologías de los creativos profesionales. También ha
dado la oportunidad a cientos de millones de personas de crear, manipular y compartir medios. ¿Pero
será posible decir que esto nos ha llevado a la invención de nuevas formas de cultura? Actualmente,
las compañías de medios están ocupadas inventando libros digitales y televisión interactiva; los
consumidores están felizmente comprando discos y películas en formato digital, tomando fotos y
videos con sus cámaras digitales y teléfonos celulares; los oficinistas están leyendo documentos PDF
que imitan al papel.
1
Fragmento del libro Software Takes Command, versión del 30 de septiembre de 2012, publicada bajo licencia
Creative Commons en manovich.net. Traducción de Everardo Reyes-García. Este documento tiene únicamente
intenciones educativas, artísticas y científicas.
Manovich. Capítulo 1 – El Software Toma el Mando
1 / 33
O sea, parece que la revolución en términos de producción, distribución y acceso a medios no ha sido
acompañada de una revolución similar en cuanto a la sintaxis y semántica de los medios. ¿Quién
debe ser culpado por esto? ¿Debemos apuntar a los pioneros de la computación cultural (J.C.
Licklider, Ivan Sutherland, Ted Nelson, Douglas Engelbart, Seymour Paper, Nicholas Negroponte, Alan
Kay, entre otros)? ¿O, como Nelson y Kay están dispuestos a señalar, el problema radica en la forma
en que la industria ha implementado sus ideas?
Antes de culpar a la industria de mala implementación (podemos regresar a este argumento más
tarde, si es necesario), observemos la visión de los inventores de la computación cultural. Por
ejemplo, ¿qué nos dice la persona que guió el desarrollo del prototipo de la computadora personal
moderna (Alan Kay)?
Entre 1970 y 1981, Alan Kay trabajó en Xerox PARC, un centro de investigación creado por Xerox en
Palo Alto, California. Ahí, el equipo Learning Research, dirigido por Kay, se inspiró del trabajo de
Sutherland, Nelson, Engelbart, Licklider, Seymour Papert, entre otros, y articuló sistemáticamente el
paradigma y las tecnologías de la computación de medios vernaculares que existe en nuestro días2.
A pesar de que un grupo selecto de artistas, cineastas, músicos y arquitectos ya estaban usando
computadoras desde los 50s, desarrollando su propio software en colaboración con ingenieros
informáticos de diversos laboratorios (Bell, IBM Watson Research Center, etc.), la mayoría de sus
producciones estaba orientada a producir un tipo particular de imagen, animación o música, acorde
con sus ideas específicas. Además, cada programa estaba diseñado para correr en un tipo de
máquina particular. Así, estos programas no podían funcionar como herramientas genéricas que
pudieran ser transmitidas a otros usuarios.
Es bien sabido que muchos de los ingredientes clave de nuestras actuales computadoras personales
vinieron de Xerox PARC: la interfaz gráfica de usuario con sus ventanas sobrepuestas e iconografía, la
pantalla de pixeles, los gráficos de colores, la interconexión vía Ethernet, el mouse, la impresora láser
y la impresión WYSIWYG (acrónimo del inglés “What You See Is What You Get”, que puede traducirse
2
Kay ha expresado sus ideas en escasos artículos y en gran número de entrevistas y conferencias. A
continuación mis fuentes primarias: Alan Kay y Adele Goldberg, Personal Dynamic Media, IEEE Computer 10, no.
3 (1977); Alan Kay, “The Early History of Smalltalk,” The 2nd ACM SIGPLAN Conference on History of
Programming Languages (New York:ACM, 1993), 69-95; Alan Kay, “A Personal Computer for Children of All Ages,”
Proceedings of the ACM 1972 National Conference (Boston, 1972); Alan Kay, Doing with Images Makes Symbols,
videocassette (University Video Communications, 1987), http://archive.org/details/AlanKeyD1987/; Alan Kay,
“User Interface: A Personal View,” in The Art of Human-Computer Interface Design, ed. Brenda Laurel (Reading,
Mass: Addison-Wesley, 1990), 191-207; David Canfield Smith at al., “Designing the Star user Interface,” Byte,
Número 4 (1982).
Manovich. Capítulo 1 – El Software Toma el Mando
2 / 33
como “lo que ves es lo que obtienes”). Pero algo que es igualmente importante es que Kay y sus
colegas también desarrollaron aplicaciones para la manipulación y creación de medios usando
también una interfaz gráfica. Entre ellos destacan un procesador de texto, un sistema de archivos, un
programa de dibujo y coloreado, un programa de animación, un programa de creación musical, etc.
Tanto la interfaz gráfica general y los programas de manipulación de medios estaban escritos en el
mismo lenguaje de programación, Smalltalk. Algunas aplicaciones fueron hechas por miembros del
equipo de Kay pero otras más por jóvenes de nivel secundaria3. Esto iba de la mano con la filosofía de
Kay: dar a los usuarios un ambiente de programación, ejemplos de programas y herramientas
genéricas pre-determinadas para que los usuarios fueran capaces de crear sus propias herramientas
creativas.
Cuando Apple lanzó la primera Macintosh, en 1984, acercó la visión de Xerox PARC a los
consumidores (la nueva computadora tenía un precio de 2,495 dólares). La Macintosh 128K incluía
un procesador de texto y una aplicación para dibujo (MacWrite y MacDraw, respectivamente). En
pocos años se unieron otros software para diseñar y producir otros medios: Word, PageMaker y
VideoWorks (1985) 4, SoundEdit (1986), Freehand e Illustrator (1987), Photoshop (1990), Premiere
(1991), After Effects (1993), y demás. Para inicios de los 90s ya existían funcionalidades similares en
computadoras con sistema operativo Microsoft Windows5. Pero ni PC ni Mac eran tan rápidas como
para ser una verdadera competencia a las tecnologías y herramientas tradicionales (a excepción del
procesamiento de texto). Empero, otros sistemas específicamente optimizados para el procesamiento
de medios empezó a reemplazar estas tecnologías tradicionales ya desde los 80s. Hablamos de las
estaciones de trabajo Next, producidas entre 1989 y 1996; Amiga entre 1985 y 1994; y Paintbox,
lanzada en 1981.
Alrededor de 1991 la nueva identidad de la computadora como productor personal de medios había
quedado establecida. Ese año Apple lanzó QuickTime, que dio video a sus sistemas, y el mismo año
James Cameron estrenó Terminator II, que introdujo pioneros efectos especiales hechos a
computadora. La visión del Xerox PARC se había vuelto realidad, o más bien una parte importante de
esta visión que involucraba la conversión de la computadora en máquina personal para mostrar, crear
y manipular contenido en diferentes medios. Kay y sus colaboradores lograron implementar una
variedad de programas en un solo ambiente, con apariencia y comportamiento consistentes. Aunque
ellos no inventarion todos los programas (ya vimos que las aplicaciones de animación y dibujo existían
3
Alan Kay y Adele Goldberg, “Personal Dynamic Media,” in New Media Reader, editado por Noah Wardrip-Fruin y
Nick Montfort (The MIT Press, 2003), 399.
4
5
Videoworks cambió su nombre a Director en 1987.
1982: AutoCAD; 1989: Illustrator; 1992: Photoshop, QuarkXPress; 1993: Premiere.
Manovich. Capítulo 1 – El Software Toma el Mando
3 / 33
desde la segunda parte de los 60s6), sí establecieron un nuevo paradigma de la computación de
medios.
Creo que he expuesto mi punto. La evidencia es irrefutable. Ha sido Alan Kay y sus colaboradores en
PARC quienes se ocuparon de que las computadoras imitaran otros medios. Mediante el desarrollo de
software basado en GUI fáciles de usar para producir medios, Kay y su equipo convirtieron a la
computadora en una máquina para simular “viejos medios”. Para ponerlo en términos del influyente
libro Remediation: understating new media (2000), de Jay Bolter y Richard Grusin, este software
basado en GUI hizo de la computadora una “máquina de remediación”, es decir, una máquina que
representa eficazmente medios existentes. Otras tecnologías desarrolladas en PARC como el monitor
de color de bitmaps, la impresora láser y el primer lenguaje de descripción de páginas (que dio paso a
Postscript) fueron también diseñados para que la computadora cumpliera su rol como máquina de
simulación de medios físicos.
Bolter y Grusin definen a la remediación como “la representación de un medio dentro de otro” 7.
Según su ideas, los nuevos medios siempre remedian a los viejos y por eso no deberíamos esperar
que las computadora se comportaran de forma diferente. Esta perspectiva enfatiza la continuidad
entre medios computacionales y otros tipos más antiguos. En lugar de quedar separados por lógicas
diferentes, todos los medios, incluyendo la computadora, siguen la misma lógica de la remediación.
La única diferencia entre las computadoras y otros medios radica en cómo y qué remedian. Esto lo
exponen Bolter y Grusin en su primer capítulo, “lo nuevo de los medios digitales está en sus
estrategias particulares para remediar a la televisión, el cine, la fotografía y la pintura”. En otro lugar
del mismo capítulo, ofrecen otro argumento sólido que no deja ambigüedades en su postura: “Lo que
decimos es que la remediación es una característica esencial de los nuevos medios digitales”.
Si hoy tomamos en cuenta todos los medios digitales creados por profesionales y por consumidores (o
sea, fotografías y videos digitales hechos con cámaras de bajo costo y teléfonos celulares; el
contenido de blogs personales; ilustraciones creadas con Photoshop; películas hechas con AVID, etc.),
en su superficie los medios digitales parecen exactamente iguales a sus predecesores analógicos. Por
eso, si nos seguimos limitando a su nivel superficial, la remediación puede describir precisamente
muchos de los medios computacionales. Pero en lugar de aceptar esta condición como una
consecuencia inevitable de la lógica universal de la remediación, deberíamos preguntarnos porqué
sucede de esta manera. En otras palabras, si los medios computacionales contemporáneos imitan
otros medios, ¿cómo hemos llegado aquí? En las formulaciones teóricas originales sobre la
6
7
Ver: http://sophia.javeriana.edu.co/~ochavarr/computer_graphics_history/historia/.
Bolter y Grusin, Remediation: Understanding New Media (The MIT Press, 2000).
Manovich. Capítulo 1 – El Software Toma el Mando
4 / 33
computación digital de Turing o de Von Neumann no se especifica nada sobre la imitación de medios
como libros, fotos o películas.
Hay un abismo técnico y conceptual enorme que separa a las computadoras del tamaño de un cuarto
completo (usadas por los militares para calcular blancos con armas antiaéreas y descifrar códigos de
comunicación alemanes) de las computadoras contemporáneas usadas por millones de personas
para almacenar y producir sus propios medios. La identidad contemporánea de la computadora como
procesador de medios tomó 40 años en gestarse, desde 1949 cuando el Laboratorio Lincoln del MIT
inició sus investigaciones en computadoras interactivas hasta 1989 cuando la primera versión de
Photoshop fue lanzada comercialmente. Tomó generaciones de mentes brillantes en inventar la
multitud de conceptos y técnicas que hoy hacen posible que las computadoras “remedien” otros
medios. ¿Cuáles fueron las razones para ello? ¿cuáles eran sus ideas? O sea, ¿por qué estas
personas dedicaron sus vidas a la invención de la última “máquina de remediación”?
En los años 90s y 2000s, los teóricos de medios han dedicado grandes esfuerzos en tratar de
entender las relaciones entre medios digitales y otros medios físicos y electrónicos, pero han dejado
de lado fuentes importantes (como ya hemos dicho, sobretodo los textos de Sutherland, Engelbart,
Nelson, Kay y otros pioneros de los 60s y 70s). Este libro no pretende hacer una historia intelectual
completa de las invención de la computación de medios. Por ello, no voy a considerar el pensamiento
de todos las figuras centrales de esa historia (lo cual se trataría de un proyecto de más de un libro).
Más bien, me centraré en el presente y el futuro. Específicamente, quiero explicar algunas de las
transformaciones radicales en lo que son los medios, lo que pueden hacer y cómo podemos usarlos…
las transformaciones que están conectadas con el cambio de las tecnologías de medios al software.
Algunas de estas transformaciones tuvieron lugar en los 90s pero no fueron suficientemente
discutidas en su momento (por ejemplo, el surgimiento de un nuevo lenguaje de las imágenes en
movimiento y del diseño visual en general). Otras no han sido nombradas aún. Otras más, como el
remix y los mash-ups culturales, son evocadas constantemente pero el análisis de cómo fueron
posibles por la evolución del software de medios no ha sido abordado.
En resumen, quiero explicar qué son los “medios después del software”, o sea, qué pasó con las
técnicas, lenguajes y demás conceptos de los medios del siglo veinte como resultado de su
informatizadas. Precisamente, qué ha pasado con los medios después que fueron softwarizados. Pero
como en el espacio de un libro sólo puedo considerar algunas de esas técnicas, lenguajes y
conceptos, me centraré en aquellos que, en mi opinión, no han sido discutidos por otros. Para
lograrlo, trazaré el camino entre la historia conceptual de la computación de medios desde los 60s
hasta nuestros días.
Manovich. Capítulo 1 – El Software Toma el Mando
5 / 33
Para hacer esto más eficiente, en este capítulo echaremos un vistazo más de cerca a uno de los
lugares en donde la identidad de la computadora como “máquina de remediación” cobró vida, el
grupo de investigación de Alan Kay en Xerox PARC. Haremos dos preguntas: primero, qué es
exactamente lo que Kay quería hacer y, segundo, qué hicieron él y sus colaboradores para lograrlo.
Una breve respuesta, que será desarrollada más adelante, es que Kay quería convertir a las
computadoras en un “medio personal dinámico” que pudiera ser usado para aprender, descubrir y
crear artísticamente. Esto fue posible mediante la simulación sistemática de la mayoría de medios
existentes dentro de una computadora y, al mismo tiempo, añadiendo nuevas funcionalidades a esos
medios. Kay y sus colaboradores también desarrollaron un nuevo tipo de lenguaje de programación
que, al menos en teoría, permitiría a los usuarios crear rápidamente nuevos tipos de medios usando
herramientas genéricas. A todas estas herramientas y medios existentes se les dio una interfaz de
usuario unificada, diseñada para activar múltiples formas de pensamiento y formas de aprendizaje
(kinestésico, icónico, simbólico).
Kay pensó en el “medio dinámico personal” como un nuevo tipo de medio con numerosas
propiedades sin precedentes históricos como, por ejemplo, la habilidad de guardar la información de
los usuarios, simular todos los medios en uno mismo e “involucrar al aprendiz en una conversación
bidireccional” 8 . Estas propiedades permiten nuevas relaciones entre usuario y medio, ya sea que
esté creando, modificando o viendo en su computadora. Esto es esencial si queremos entender las
relaciones entre computadoras y medios tradicionales. Dicho de otra forma, puede ser que los medios
computacionales visuales mimeticen otros medios, pero también funcionan de diferentes maneras.
Por ejemplo, pensemos en la foto digital que usualmente imita la apariencia de la foto tradicional.
Para Bolter y Grusin, esto es un ejemplo de cómo los medios digitales “remedian” a sus predecesores.
Pero en lugar de centrarnos únicamente en su apariencia, pensemos en cómo funciona la foto digital.
Si convertimos una foto digital en un objeto físico (como ilustración de una revista, como póster en la
pared, como estampado de una playera), entonces efectivamente funciona de la misma manera que
su predecesor (a menos que tenga capacidades aumentadas como el catálogo e 2013 de IKEA9).
Pero si dejamos la misma foto en su ambiente computacional nativo, que puede ser una laptop, un
sistema de almacenamiento en red o cualquier otro dispositivo o Internet, puede funcionar de formas
que, en mi opinión, la vuelven radicalmente diferente a su equivalente analógico. Para usar un
término diferente, podemos decir que una foto digital ofrece más posibilidades que sus antepasados
8
Desde el trabajo de Kay y su grupo en los 70s, ingenieros en computación, hackers y diseñadores han añadido
muchas otras propiedades únicas, por ejemplo podemos mover medios rápidamente vía Intenret y compartirlos
con millones usando Flickr, YouTube y demás sitios.
9
Roberto Baldwin, "Ikea’s Augmented Reality Catalog Will Let You Peek Inside Furniture," Julio 20, 2012,
http://www.wired.com/gadgetlab/2012/07/ikeas-augmented-reality-catalog-lets-you-peek-inside-the-malm/.
Manovich. Capítulo 1 – El Software Toma el Mando
6 / 33
ya que puede ser modificada o combinada rápidamente con otras imágenes; puede ser publicada al
mundo entero y compartida con otras personas; puede ser integrada en un documento de texto o en
un diseño arquitectónico. Además, podemos automáticamente mejorar su contraste, hacerla más
nítida o incluso, en ocasiones, remover su borrosidad.
Nota que sólo algunas de estas propiedades son específicas a un medio en particular, en nuestro
ejemplo una fotografía digital, es decir un conjunto de pixeles representados como números. Otras
propiedades son comunes a una larga variedad de especies de medios, por ejemplo, en el estado
actual de cultura digital, todos los medios pueden ser añadidos a un correo electrónico. Hay otros que
tienen propiedades aún más generales del ambiente computacional basado en GUI: la rápida
respuesta de la computadora a las acciones de los usuarios asegura “fluidez entre causa y efecto” 10.
Otros más son posibles mediante protocoles de redes como el TCP/IP que permite a computadoras y
aparatos conectarse a una misma red. En resumen, podemos decir que sólo una parte del “nuevo
ADN” de la fotografía digital nació de hecho en la cámara. Muchos otros son el resultado del
paradigma actual de la computación de redes en general.
Antes de explorar en detalle las ideas de Kay quisiera exponer las razones por las cuales elegí
enfocarme en él en lugar de otro. La historia que presentaré podría ser contada diferente. Sería
factible poner el trabajo de Sutherland al centro de la historia de la computación de medios, o a
Engelbart y su Centro de Investigación para el Aumento del Intelecto Humano que introdujo varias
novedades en los 60s, como el hipertexto (aparte de Nelson), el mouse, las ventanas, el procesador
de texto, pantallas de texto y gráficos. O podemos enfocarnos en el trabajo del Architecture Machine
Group del MIT que desde 1967 fue dirigido por Nicholas Negroponte (en 1985 este grupo se convirtió
en el MIT Media Lab). También es necesario recordar que al mismo tiempo que Kay y su grupo de
investigación en PARC develaron detalles de su GUI y programaron varios editores de medios en
Smalltalk (un programa de pintura, uno de ilustración, uno de animación, etc.), varios artistas,
cineastas y arquitectos usaban computadoras desde hace una década y se montaron grandes
exhibiciones de arte digital en los museos más importantes alrededor del mundo, entre ellos el Museo
de Arte Contemporáneo de Londres, el Museo Judío de Nueva York, el Museo de Arte de Los Ángeles.
Y ciertamente, en términos de técnicas computaciones para la representación visual digital, otros
grupos están muy avanzados. Por ejemplo, a inicios de los 70s, la Universidad de Utah era el principal
centro de investigación de gráficas computacionales. Aquí se producían imágenes 3D superiores a las
imágenes creadas en PARC. Junto a la Universidad de Utah, una compañía llamada Evans y
Sutherland (dirigida por el mismo Ivan Sutherland que enseñaba en la universidad), usaba gráficas 3D
para la simulación de vuelos, siendo pionero en los “espacios virtuales 3D navegables”.
10
Kay y Goldberg, Personal Dynamic Media, 394.
Manovich. Capítulo 1 – El Software Toma el Mando
7 / 33
El trabajo práctico hecho en Xerox PARC permitió ver a la computadora como una máquina de medios.
Otra razón por la cuál elegí enfocarme en Kay fueron sus formulaciones teóricas que ubican a las
computadoras en relación con otros medios y con la historia de los medios. Vannevar Bush, J.C.
Licklider y Douglas Engelbart estaban interesados en el aumento del intelecto, mientras que a Kay
también le interesaba la computadora como “medio de expresión mediante el dibujo, la pintura, la
animación de imágenes y la composición y generación de música” 11 . Entonces, si de verdad
queremos entender cómo y por qué la computadoras fueron redefinidas como medios culturales, y
cómo los nuevos medios computacionales son diferentes de otros medios físicos y electrónicos, creo
que Kay nos ofrece la mejor perspectiva teórica.
“La simulación es la noción central del Dynabook”
Alan Kay dio forma a sus ideas en diversos artículos y conferencias. El artículo que coescribió con una
de sus principales colaboradoras en PARC, la ingeniera en computación Adele Goldberg, es un
recursos particularmente útil para comprender los medios computacionales contemporáneos. Aquí,
Kay y Goldberg describen la visión del Learning Reseacrh Group en PARC de la siguiente manera:
crear “un medio personal dinámico del tamaño de una libreta (el Dynabook) que pueda ser adquirido
por cualquiera y tener el poder de manejar virtualmente todas la necesidades de información de su
propietario” 12. Kay y Goldberg piden a sus lectores que imaginen este aparato con “suficiente poder
para sobrepasar tus sentidos de la vista y del oído, suficiente capacidad para almacenar y acceder a
miles de documentos tipo materiales de referencia, poemas, cartas, recetas, archivos, dibujos,
animaciones, partituras musicales, frecuencias de onda, simulaciones dinámicas y cualquier cosa que
necesites recordar y cambiar” 13.
Para mí, ”todo” en la frase es importante: significa que el Dynabook (o ambiente computacional de
medios en general, sin importar el tamaño del aparato en que se implementa), debe soportar
visualización, creación y edición de todos los medios posibles usados tradicionalmente para la
expresión y comunicación humana. De igual forma, mientras diferentes programas de creación ya
existían en diferentes medios, el grupo de Kay los implementó por primera vez todos juntos en una
misma máquina. En otras palabras, el paradigma de Kay no consistía simplemente en crear un nuevo
tipo de medio basado en la computadora, que pudiera coexistir con otros medios físicos. Más bien, el
objetivo era establecer a la computadora como un paraguas, una plataforma para todo medio artístico
existente (al final de artículo, Kay y Goldberg dan un nombre a este medio: “metamedio”). Este
11
12
13
Ibid., 393.
Ibid., 393. El énfasis en esta y las demás citas de este artículo es mío (Manovich)
Ibid., 394.
Manovich. Capítulo 1 – El Software Toma el Mando
8 / 33
paradigma cambia nuestro entendimiento sobre lo que son los medios. Desde el Laocoon; or, On the
Limits of Painting and Poetry (1766) de Lessing hasta los Languages of Art (1968) de Nelson
Goodman, el discurso moderno sobre los medios está basado en el supuesto que diferentes medios
tienes distintas propiedades y que, de hecho, deberían ser entendidos en oposición los unos con
otros. El hecho de ubicar todos los medios en un mismo ambiente computacional no necesariamente
borra todas las diferencias de cómo cada uno puede representar y cómo poder ser percibido, pero sí
los acerca de varias formas. Algunas de esta nuevas conexiones ya eran visibles para Kay y sus
colegas, otras se volvieron evidentes décadas más tarde cuando la nueva lógica de los medios de
PARC se desarrolló más ampliamente y, algunas, quizá aún sean invisibles para nosotros debido a
que no han sido realizadas de forma práctica. Un ejemplo claro de estas conexiones es el surgimiento
de la multimedia como una forma estándar de comunicación: páginas Web, presentaciones
PowerPoint, obras multimedia, mensajes multimedia móviles, blogs de medios y otras formas de
comunicación que combinan unos cuantos medios. Otro ejemplo es la adopción de convenciones en
la interfaz y herramientas que usamos para trabajar con diferentes tipos de medios, sin importar su
origen: cámaras virtuales, lupas de aumento y, por supuesto, los omnipresentes comandos de copiar,
cortar y pegar. Otro caso es la habilidad de “mapear” un medio en otro usando el software apropiado
para ello (imágenes en sonido, sonido en imágenes, datos cuantitativos en formas 3D o sonidos, etc.),
como se hace en los terrenos del DJ, VJ, cine en tiempo real, performances y visualización de la
información. Con todo, parece que los medios están activamente tratando de tocarse entre ellos,
intercambiando propiedades y dejando que sus propiedades únicas sean tomadas en préstamo (esta
situación es directamente opuesta al paradigma de medios modernista de principios del singlo veinte,
orientado a descubrir el lenguaje único de cada medio artístico).
Alan Turing definió teóricamente la computadora como una máquina que puede simular una gran
vaeridad de clases de otras máquinas, y es esta habilidad de simulación la que es responsable de la
proliferación de las computadoras en la sociedad moderna. Pero como ya lo he mencionado, ni él ni
otros inventores de la computadoras digitales consideró explícitamente que esta simulación pudiera
también incluir a los medios. Fue Kay su generación quienes extendieron la idea de simulación de
medios (convirtiendo la Máquina Universal de Turing en una Máquina Universal de Medios).
Al respecto, Kay y Goldberg escriben: “en un sentido muy real, la simulación es la noción central del
Dynabook” 14 . Cuando usamos las computadoras para simular algún proceso del mundo real (el
comportamiento de un sistema climático, el procesamiento de información en el cerebro, la
deformación de un choque de automóvil) nuestra preocupación está en modelar correctamente las
características necesarias de este proceso o sistema. Deseamos ser capaces de probar cómo nuestro
modelo se comportaría en diferentes condiciones con diferentes datos, y la última cosa que
14
Ibid., 399.
Manovich. Capítulo 1 – El Software Toma el Mando
9 / 33
quisiéramos que haga la computadora es introducir características que no especificamos nosotros
mismos. Cuando usamos computadoras como un medio general de simulación, queremos que este
medio sea completamente “transparente”.
¿Pero qué pasa cuando simulamos diferentes medios en una computadora? En este caso, la
aparición de nuevas propiedades de puede ser bienvenida debido a que puede extender el potencial
expresivo y comunicativos de estos medios. Cuando Kay y sus colegas crearon simulaciones
computacionales de medios físicos existentes (herramientas para representar, crear, editar y ver
estos medios), lo que hicieron fue “añadir” apropiadamente muchas nuevas propiedades. Por
ejemplo, en el caso del libro, Kay y Goldberg indican que “no deber ser tratado como un libro de texto
simulado debido a que este es un nuevo medio con nuevas propiedades. Una búsqueda dinámica
puede ser hecha en algún contexto particular. La naturaleza no-secuencial y el uso de manipulación
dinámica permite contar una historia desde múltiples puntos de vista” 15. Kay y su equipo también
añadieron varias propiedades a la simulación computacional de documentos en papel. Kay se ha
referido a ellas en otro artículo. Su idea no era de únicamente imitar el papel sino de crear “papel
mágico” 16. Por ejemplo, PARC ofreció a los usuarios la capacidad de modificar la tipografía y de crear
nuevas. También implementaron una idea del equipo de Engelbart en los 60s: la posibilidad de crear
diferentes vistas de una misma estructura. Y también Engelbart y Nelson ya había “añadido” otra
cosa: la habilidad de conectar diferentes documentos o diferentes partes de un mismo documento
mediante hipervínculos (lo que se conoce actualmente como hipertexto e hipermedios). El grupo de
Engelbart también desarrolló la posibilidad de que múltiples usuarios también trabajaran en un
mismo documento. Y la lista sigue: correo electrónico en 1965, grupos de discusión en 1979, el World
Wide Web en 1991, etc.
Cada una de estas nuevas propiedades tiene amplias consecuencias. Tomemos la búsqueda de
información. A pesar de que la habilidad de buscar en un documento del tamaño de una hoja puede
que no suene como una innovación radical, sí lo es a medida que el documento se va haciendo
grande. Y se vuelve absolutamente crucial si tenemos una colección de documentos vasta como lo
serían todas las páginas del World Wide Web. Con todo y que los motores de búsqueda están lejos de
ser perfectos y que las tecnologías siguen evolucionando, imagina cómo sería de diferente la cultura
Web sin ellos.
O piensa en la capacidad de un número de usuarios para colaborar en un mismo documento(s) que
se encuentra en una misma red. Esto ya era muy usado por las compañías en los 80s y 90s, pero no
fue hasta principios de los 2000s que el público masivo vio el potencial de esta “adición” a los medios
15
16
Ibid., 395.
Alan Kay, “User Interface: A Personal View,” p. 199.
Manovich. Capítulo 1 – El Software Toma el Mando
10 / 33
impresos. A través de la colecta de pequeñas cantidades de labor y el expertise de un gran númerode
voluntarios, los proyectos de software social (como Wikipedia), crearon un vasto y dinámico grupo de
conocimientos actualizables que sería imposible de lograrse con formas tradicionales (de manera
mucho menos visible, cada vez que hacemos una búsqueda en el Web, los algoritmos toman en
cuenta cuál de los resultados de búsquedas previas fue más útil para las personas).
Al estudiar los textos y las presentaciones públicas de la gente que inventó los medios interactivos
computacionales (Sutherland, Engelbart, Nelson, Negroponte, Kay y otros), queda claro que no
llegaron a las nuevas propiedades de los medios digital en el último momento. Al contrario, ellos
sabían que estaban transformando los medios físicos en nuevos medios. En 1968, Engelbart hizo su
famosa demostración en la conferencia Fall Joint, en San Francisco, ante unas miles de personas,
entre ellas ingenieros computacionales, gente de IBM y otras compañías involucradas con
computadoras, y agentes financieros de varias agencias de gobierno17. Aunque Engelbart disponía de
90 minutos, tenía mucho qué mostrar. Durante unos cuantos años previos, su equipo en el Centro de
Investigación para el Aumento del Intelecto había esencialmente desarrollado ambientes de oficina
tal como existen hoy en día (no confundir con ambientes de diseño de medios, que fueron
desarrollados más tarde en PARC). El sistema computacional NLS incluía un procesador de texto lleno
de funcionalidades, documentos conectados mediante hipertexto, colaboración en línea (dos
personas en ubicaciones remotas trabajando en un mismo documento simultáneamente), manuales
de usuario en línea, sistemas de planeación de proyectos en línea, y otros elementos de lo que se
llama actualmente “trabajo colaborativo soportado por computadora”. El grupo también desarrolló
elementos clave de la interfaz de usuario moderna que después fueron refinados por PARC: un mouse
y múltiples ventanas.
Si ponemos atención en la secuencia del demo, notamos que Engelbart debía asegurarse que su
audiencia fuera capaz de relacionar el nuevo sistema computacional con lo que ya sabían y conocían,
pero su enfoque estaba puesto en las nuevas propiedades de la simulación de medios, cosas que no
existía previamente18. Engelbart dedica el primer segmento del demo al procesamiento de texto, pero
tan pronto como muestra la captura de texto, así como cortar, pegar, insertar, nombrar y salvar
archivos (o sea, la serie de herramientas que hacen de un procesador de texto una herramienta más
versátil que una máquina de escribir), pasa a una demostración más detallada de propiedades de su
17
M. Mitchell Waldrop, The Dream Machine: J.C.R. Liicklider and the Revolution That Made Computing Personal
(Viking, 2001), p. 287.
18
El video completo de la demostración de Engelbart está disponible en:
http://sloan.stanford.edu/MouseSite/1968Demo.html. Para una descripción detallada de las funciones de NLS,
consultar “NLS User Training Guide,” Stanford Research Institute: Menlo Park, California), 1997,
http://bitsavers.org/pdf/sri/arc/NLS_User_Training_Guide_Apr77.pdf.
Manovich. Capítulo 1 – El Software Toma el Mando
11 / 33
sistema que ningún otro medio tenía antes: “control de vistas”. Como Engelbart indica, el nuevo
medio de escritura puede cambiar entre diferentes vistas de una misma información a conveniencia
del usuario. Un archivo de texto puede ser ordenado de diferentes formas. También puede ser
organizado como una jerarquía con cierto número de niveles, como en procesadores de índices y
sumarios de software contemporáneo como Microsoft Word. Por ejemplo, una lista de elementos
puede ser organizada por categorías, que a su vez pueden ser desplegadas o replegadas.
Después, Engelbart muestra otro ejemplo del control de vistas que incluso hoy, 45 años después, aún
no está disponible en los software populares de gestión de documentos. Empieza a hacer una larga
lista de “cosas qué hacer” y las organiza por lugares. Enseguida hace que la computadora muestra
dichas locaciones en un gráfico visual (un conjunto de puntos conectados por líneas). En frente de
nuestros ojos, la representación en un medio cambia a otro (el texto se vuelve un gráfico). Pero eso no
es todo, el usuario puede interactuar con este gráfico para ver diferentes cantidades de información
(algo que ninguna imagen en los medios físicos puede hacer). A medida que Engelbart va haciendo
clic sobre los puntos se van mostrando las partes correspondientes a su lista original (esta
funcionalidad de modificar qué y cuánta información debe mostrar una imagen es un tópico
importante para las aplicaciones de visualización de la información).
Engelbart presenta a continuación “una cadena de vistas” que ya tiene preparada de antemano. Va
cambiando entre estas vistas mediante “ligas”, que parecen los actuales “hipervínculos” de nuestro
Web (aunque tienen una función diferente). En lugar de crear un camino entre muchos documentos
diferentes (como lo haría el Memex de Vannevar Bush), Engelbart usa las ligas como método para
cambiar entre diferentes vistas de un mismo documento organizado jerárquicamente. Por ejemplo,
empieza por un renglón ubicado en la parte alta de la pantalla, cuando hace clic sobre las palabras,
aparece más información en la parte inferior de la pantalla. Esta nueva información puede contener
ligas hacía otras vistas o incluso hacía información más detallada del texto19.
En lugar de usar a las ligas como una estrategia en el universo textual asociativo y “horizontal”, ahora
nos movemos verticalmente, entre información general e información detallada. Apropiadamente, en
el paradigma de Engelbart no “navegamos” sino “cambiamos vistas”. Podemos crear muchas vistas
diferentes de la misma información y, claro, movernos entre ellas de diferente manera. Y esto es lo
que Engelbart explica sistemáticamente en la primera parte de su demo. Demuestra que podemos
alternar vistas mediante comandos, o mediante el tecleo de números que corresponden a las
distintas partes de una jerarquía, o haciendo clic sobre una imagen o texto. Cabe mencionar que en
19
La descripción a detalle de estas y otras funcionalidad de NLS puede ser consultada en:
Augmentation Research Center, “NLS User Training Guide,” Stanford Research Institute: Menlo Park,
California), 1997, http://bitsavers.org/pdf/sri/arc/NLS_User_Training_Guide_Apr77.pdf
Manovich. Capítulo 1 – El Software Toma el Mando
12 / 33
1967, Ted Nelson formula una idea similar para denominar un tipo particular de hipertexto que
permitiría a un lector “obtener mayor detalle sobre una tema específico”, que después llamó
“stretchtext” 20.
A partir de que la teoría y crítica de nuevos medios surgieron a inicios de los 90s, se ha escrito mucho
sobre interactividad, hipertexto, realidad virtual, ciberespacio, cibercultura, ciborgs, y demás. Pero
personalmente nunca he visto nada sobre “control de vistas” y no obstante se trata de una de las
nuevas técnicas más fundamentales y radicales para trabajar con las información y los medios
disponibles hoy en día. La usamos diario en numerosas ocasiones. Los “controles de vista”, o la
habilidad de movernos entre diferentes vistas y tipos de vistas, ha sido implementada de varias
formas no solo en procesadores de texto y servidores de correo electrónico, también en
“procesadores de medios” (o sea, software para la producción de medios): AutoCad, Maya,
AfterEffects, Final Cut, Photoshop, InDesign, etc. Pensemos en el software 3D, en donde un modelo
puede ser visto en por lo menos media docena de formas diferentes: sólido, vértices y aristas, etc. En
el caso del software para animación y efectos visuales, en donde los proyectos típicamente contienen
docenas de objetos y cada uno con numerosos parámetros, éstos pueden ser vistos de forma similar
a un sumario de texto. Los usuarios pueden elegir entre desplegar más o menos información: aquellos
parámetros en donde estás trabajando actualmente o “zoom out” de todo el proyecto. Cuando
hacemos estos, las partes de la composición no sólo se hacen más grandes o pequeñas, también
muestran menor o mayor información automáticamente. Por ejemplo, a cierta escala sólo podemos
ver el nombre de los parámetros pero haciendo un acercamiento se pueden ver una gráfica de cómo
se desarrollan en el tiempo.
Examinemos otro ejemplo: el concepto de hipertexto de Ted Nelson que formuló en los 60s (de forma
independiente y paralela a Engelbart) 21. En su artículo A File Structure for the Complex, the Changing,
and the Indeterminate (1965), Nelson habla sobre las limitantes del libro, y otros sistemas basados
en papel, para organizar información. Aquí presenta su nuevo concepto:
Sin embargo, con la pantalla computacional y la memoria masiva, se ha vuelto posible crear
un nuevo medio, leíble, que se puede usar para la educación y el entretenimiento, que
20
Ted Nelson, “Stretchtext” (Hypertext Note 8), 1967, http://xanadu.com/XUarchive/htn8.tif. Proponemos la
traducción “texto elástico” para “stretchtext”.
21
Douglas C. Engelbart, Augmenting Human Intellect: A Conceptual Framework (Stanford Research Institute,
1962), http://www.dougengelbart.org/pubs/augment-3906.html. Aunque la implementación del hipertexto en el
sistema NLS de Engelbart estaba muy limitada comparada con el concepto de Nelson, vale la pena estudiar su
visión sobre el aumento del intelecto, casi tan rica como la de Nelson.
Manovich. Capítulo 1 – El Software Toma el Mando
13 / 33
permita al lector encontrar su nivel, satisfacer su gusto y encontrar aquellas partes que le son
significativas para su formación y placer.
Permítanme acuñar la palabra “hipertexto” para definir un cuerpo de material escrito o
gráfico, interconectado de manera tan compleja que no sería pertinente presentarlo o
representarlo en papel. (el énfasis en la palabra “hipertexto” es de Lev Manovich).
“Un nuevo medio, leíble”. Estas palabras aclaran que Nelson no sólo estaba interesado en mejorar
libros y otros documentos de papel. Más bien, quería crear algo nuevo. ¿Pero acaso el hipertexto de
Nelson no era simplemente una extensión de antiguas prácticas textuales como la exégesis (extensas
interpretaciones de escrituras sagradas como la Biblia, el Corán y el Talmud), las anotaciones y los
pies de página? A menudo se propone que éstos son predecesores históricos del hipertexto pero aún
no hemos alcanzado la visión de Nelson con la manera en que vivimos nuestros hipertextos
actualmente, es decir con el World Wide Web. Noah Wardrip-Fruin ya ha dicho que el Web sólo
implementa uno de los muchos tipos de estructuras de Nelson previó en 1965: las ligas estáticas de
una página a otra22.
De acuerdo con la implementación actual del Web, muchas gente cree que el hipertexto es un cuerpo
de texto conectado mediante ligas que van de un sentido a otro. Sin embargo, la noción de “liga” ni
siquiera aparece en la definición original de hipertexto. En su lugar, Nelson habla de una nueva y
compleja interconectividad, sin especificar ningún mecanismo en particular que poder usado para
lograrlo. Nelson de hecho presenta un sistema particular para implementar su visión pero, como él
mismo lo dice, puede haber muchos otros.
“¿Qué tipo de estructuras son posibles de lograr con el hipertexto?”, pregunta Nelson en una
investigación de 1967. Contesta a su pregunta de forma breve pero concisa: “cualquiera” 23. Después
explica: “el texto ordinario puede ser visto como un caso especial de hipertexto, el más simple y
familiar, tal como el espacio tridimensional y el cubo ordinario son los casos más simples y familiares
del hiperespacio y del hipercubo24. EN 2007, Nelson actualizó esta idea de la forma siguiente: “el
hipertexto, una palabra que acuñé hace tiempo, no es una tecnología sino más bien la generalización
más completa de documentos y de literatura25.
22
Noah Wardrip-Fruin, introducción al artículo de Theodor H. Nelson, “A File Structure for the Complex, the
Changing, and the Indeterminate” (1965), in New Media Reader, p. 133
23
24
25
Ted Nelson, “Brief Words on the Hypertext" (Hypertext Note 1), 1967, http://xanadu.com/XUarchive/htn1.tif
Ibid.
Ted Nelson, http://transliterature.org/, version TransHum-D23, Julio 17, 2007.
Manovich. Capítulo 1 – El Software Toma el Mando
14 / 33
Si el hipertexto no significa únicamente “ligas”, tampoco significa exclusivamente “texto”. A pesar de
que su uso más reciente hace referencia a texto conectado, Nelson también tomaba en cuenta
imágenes en su definición original 26 . En el párrafo siguiente también acuña los términos
hiperpelículas e hipermedia:
Las películas, las grabaciones sonoras, las grabaciones de video son también secuencias
lineales, básicamente por cuestiones mecánicas. Pero éstas también pueden ser organizadas
como sistemas no lineales (por ejemplo, regiones) siguiendo propósitos educativos o para
mostrar con diferente énfasis… Las hiperpelículas (una o múltiples secuencias de película
que ser exploradas) es sólo uno de los posibles hipermedios que nos llaman la atención27.
¿En dónde están las hiperpelículas hoy, casi 50 años después de que Nelson articuló su concepto? Si
entendemos las hiperpelículas de una manera tan limitada como lo hemos hecho con los hipertextos
(tomas conectadas mediante ligas sobre las cuáles un usuario puede hacer clic), parecería que nunca
se desarrollaron. A algunos proyectos pioneros no se les dio seguimiento: Aspen Movie Map
(Architecture Machine Group, 1978-79), Earl King and Sonata (Grahame Weinbren, 1983-85; 19911993), el CD-ROMs de Bob Stein Voyager Company, y Wax: Or the Discovery of Television Among the
Bees (David Blair, 1993). Igualmente, películas interactivas y juegos con video “full-motion”, creados
por la industria de los videojuegos en la primera parte de los 90s, quedó pasada de moda
rápidamente y reemplazada por los juegos 3D que ofrecían más interactividad. Pero si pensamos en
las hiperpelículas en un sentido más amplio, tal como lo hizo Nelson, cualquier estructura interaciva
que conecta video o elementos fílmicos (en donde las películas son un caso especial), nos daremos
cuenta que las hiperpelículas son más comunes de lo que parecen hoy en día. Los numerosos sitios
interactivos basados en Flash o HTML5 que usan video, los videoclips que ahora tienen marcadores
que permiten a un espectador saltar a un punto específico del video (por ejemplo los video de
ted.com28) y el cine de base de datos29 son sólo unos ejemplos de hiperpelículas contemporáneas.
Décadas antes de que los hipertextos e hipermedios se volvieran los modos comunes para interactuar
con la información, a Nelson le había quedado claro lo que esas ideas significaban para nuestras
prácticas y conceptos culturales establecidos. El anuncio de su conferencia el 5 de enero de 1965 en
26
Durante el simposio Digital Retroaction 2004, Noah Wardrip-Fruin recalcó que la visión de Nelson incluía a los
hipermedios y no sólo a los hipertextos. Noah Wardrip-Fruin, presentation at Digital Retroaction: a Research
Symposium, UC Santa Barbara, Septiembre 17-19, 2005, http://dcmrg.english.ucsb.edu/conference/D_Retro/conference.html.
27
28
29
Nelson, A File Structure, 144.
www.ted.com, March 8, 2008.
Ver http://softcinema.net/form.htm.
Manovich. Capítulo 1 – El Software Toma el Mando
15 / 33
Vassar College muestra esto en términos más alusivos en nuestro contexto actual de lo que fueron en
aquellos días: “las consecuencias filosóficas de todo esto son muy profundas. Nuestros conceptos de
“lectura”, “escritura” y “libro” caen y ahora el reto es diseñar hiperdocumentos y escribir “hipertextos”
que puedan tener más potencial educativo que cualquier otras cosa que haya sido impresa en papel”
30.
Esta postura alinea el pensamiento y obra de Nelson con artistas y teóricos que de igual forma
querían desestabilizar las convenciones de la comunicación cultural. Los académicos de medios
digitales han discutido ampliamente las analogías entre Nelson y los pensadores franceses de los 60s
(Roland Barthes, Michel Foucault y Jacques Derrida) 31. Otros ya han señalado las similitudes entre
Nelson y los experimentos literarios que se llevaron a cabo al mismo tiempo, como Oulipo32. Incluso
también podamos notar la conexión entre el hipertexto de Nelson y la estructura no lineal de películas
como Hiroshima Mon Amour, L'Année dernière à Marienbad y À Bout de Souffle, entre otros
realizadores franceses que cuestionaban el estilo narrativo clásico.
¿Qué tan lejos debemos llevar estas similitudes? En 1987, Jay Bolter y Michael Joyce escribieron que
el hipertexto debería ser visto como ”una continuación de la “tradición” moderna de la literatura
experimental impresa” que incluye “modernismo, futurismo, Dada, surrealismo, leterismo, la nueva
novela, poesía concreta” 33. Por su lado, Espen J. Aarseth objetó dicho argumento señalando que el
hipertexto no es una estructura modernista per se, aunque puede soportar la poética modernista si el
autor así lo desea34. ¿Quién tiene la razón? Este libro sostiene que el software cultural convirtió a los
medios en meta-medios (un nuevo sistema semiótico y tecnológico que incluye a la mayoría de los
medios precedentes, su estética, sus técnicas y sus elementos fundamentales). Yo también pienso
que el hipertexto es diferente a la tradición literaria modernista. Concuerdo con Aarseth en que el
hipertexto es mucho más general que cualquier poética. Recordemos que en 1967 Nelson ya había
dicho que el hipertexto podría soportar cualquier estructura de información, incluyendo a los textos
tradicionales, entre ellos las diferentes poéticas modernistas. Curiosamente, esta premisa es
30
Noticia sobre la conferencia de Ted Nelson en Vassar College, Enero 5,1965,
http://xanadu.com/XUarchive/ccnwwt65.tif.
31
George Landow (ed), Hypertext: The Convergence of Contemporary Critical Theory and Technology (The Johns
Hopkins University Press, 1991); Jay Bolter, The writing space: the computer, hypertext, and the history of writing
(Hillsdale, NJ: L. Erlbaum Associates, 1991).
32
Randall Packer & Ken Jordan, Multimedia: From Wagner to Virtual Reality (W. W. Norton & Company, 2001);
Noah Wardrip-Fruin & Nick Monford, New Media Reader (The MIT Press, 2003).
33
Citado en Espen J. Aarseth, Cybertext: Perspectives on Ergodic Literature (The Johns Hopkins University Press,
1997), p. 89.
34
Espen J. Aarseth, Cybertext, 89-90.
Manovich. Capítulo 1 – El Software Toma el Mando
16 / 33
replicada por Kay y Goldberg en su definición de meta-medio, cuyo contenido es “una larga variedad
de medios existentes y aún no inventados”.
¿Qué hay acerca de los académicos que ven relaciones estrechas entre el pensamiento de Nelson y el
modernismo? Aunque Nelson dice que el hipertexto puede soportar cualquier estructura de
información y que la información se debe limitar al texto, sus ejemplos y su estilo de escritura reflejan
una sensibilidad estética inconfundible… la de una literatura modernista. Claramente se opone al
“texto ordinario”. Sus énfasis en la complejidad e interconectividad y en el rompimiento de unidades
convencionales de organización de la información, como las páginas, alinean la propuesta de Nelson
con la literatura experimental de principios del siglo XX: las creaciones de Virigina Wolf, James Joyce,
los surrealistas, etc. Este vínculo con la literatura no es accidental debido a que la idea original de
Nelson en su investigación que lo llevó a los hipertextos era crear un sistema de gestión de notas para
escritos literarios y manuscritos en general. Nelson conocía acerca de los textos de William Burroughs.
El mismo título de su artículo (Un estructura de archivos para lo complejo, el cambio y lo
indeterminado) sería perfectamente adecuado para un manifestó vanguardista de inicios del siglo
veinte, siempre y cuando sustituyéramos “estructura de archivos” por algún “ismo”.
La sensibilidad modernista de Nelson también se aprecia en su visión sobre nuevos medios que
pueden establecerse con la ayuda de la computadora. Sin embargo, su obra no debe considerarse
una simple continuación de la tradición modernista. Más bien, tanto su investigación como la de Kay
representan el siguiente nivel del proyecto vanguardista. Los artistas vanguardistas de inicios del siglo
XX estaban muy interesados en cuestionar las convenciones de medios ya establecidos, como la
fotografía, la prensa, el diseño gráfico, el cine, la arquitectura. Entonces, no importa qué tan
diferentes fueron las pinturas de los futuristas, el orfismo, el suprematismo, o De Stijl, sus manifiestos
seguían hablando de ellos como pinturas, en lugar de un nuevo medio. En contraste, Nelson y Kay
explícitamente escribían sobre crear nuevos medios y no sólo cambiar los existentes. Nelson dice:
“Con el monitor informatizado y el la memoria masiva, se ha vuelto posible crear un nuevo y leíble
medio”. Kay y Goldberg: “el texto digital no debe ser tratado como un libro de papel simulado debido a
que es un nuevo medio, con nuevas propiedades”.
Otra diferencia entre la forma en que los modernistas y los pioneros del software cultural trataron la
labor de inventar nuevos medios y extender los existentes está capturada en el título del artículo de
Nelson que ya cité previamente: “Una estructura de archivos para lo complejo, lo cambiante y lo
indeterminado”. En lugar de algún “ismo” particular, tenemos una estructura de archivos. El cubismo,
expresionismo, futurismo, orfismo, suprematismo y surealismo propusieron nuevos y diferentes
sistemas para organizar la información, pero cada sistema luchaba contra los demás por la
dominación en la memésfera cultural. Por el contrario, Bush, Licklider, Nelson, Engelbart, Kay,
Negroponte y demás crearon meta-sistemas que pueden soportar muchos tipos de estructuras de
Manovich. Capítulo 1 – El Software Toma el Mando
17 / 33
información. Kay llamó a ese sistema “un primer meta-medio”, Nelson se refirió a él como hipertexto e
hipermedios, Engelbart escribió sobre “manipulación automática de símbolos externos”… pero a
pesar de las diferencias en sus visiones subyacía una comprensión del radicalmente nuevo potencial
de las computadoras en la manipulación de información. Los prefijos “meta” e “hiper” usados por Kay
y Nelson fueron las caracterizaciones adecuadas de un sistema que era nuevo y capaz de remediar a
los demás en su forma particular. Más bien, el nuevo sistema sería capaz de simular estos medios y
sus estrategias de remediación (así como también el desarrollo de medios aún no inventados). Y no
acaba ahí porque igualmente importante fue el rol de la interactividad. Los nuevos sistemas serían
usados interactivamente para desarrollo procesos de pensamiento, descubrimiento, toma de
decisiones y expresión creativa. Por su lado, la estética de los movimiento modernistas podría ser
vista como sistema de “formato de información”, usados para seleccionar y organizar la información
en un modo de presentación fijo que después sería pasado a los usuarios, nada diferente a las
plantillas PowerPoint. Finalmente, la tarea de definir nuevas estructuras de información y técnicas de
manipulación de medios (aunque de hecho, podemos incluir todo el nuevo medio) era otorgada al
usuario, en lugar de ser exclusiva de los diseñadores. Más adelante discutiré sobre las consecuencias
de todo esto en el modelamiento de la cultura contemporánea. Una vez que las computadoras y el
código de programación se democratizan, se empiezan a usar creativamente para crear estas
estructuras y técnicas, en lugar de hacer sólo “contenido”.
Hoy, un típico artículo en ciencias computacionales o en ciencias de la información no habla de
inventar un “nuevo medio” como justificación de una investigación. Lo que encontramos son más bien
referencias a trabajos previos en alguna rama o sub-rama tales como “descubrimiento de
conocimiento”, “minería de datos”, “web semántico”, etc. También puede hacer referencia a prácticas
e industrias culturales y sociales actuales como “e-learning”, “desarrollo de videojuegos”, “taggeo
colaborativo” o “colaboración masiva distribuida”. En cualquier caso, la justificación de una nueva
investigación está avalada por una referencia a prácticas establecidas o, por lo menos, populares
como paradigmas académicos que han que recibido financiamiento, industrias de gran escala o
rutinas sociales que cuestionan el orden social existente. Esto significa que prácticamente toda la
investigación en ciencias computacionales (tecnologías Web, computación social, hipermedios,
interfaces humano-computadoras, gráficas computacionales, etc.) que trata sobre medios está
orientada al uso típico de los medios.
Dicho en otras palabras, los investigadores en computación o están tratando de hacer más eficiente
el uso de las tecnologías por las industrias mediáticas (videojuegos, motores de búsqueda Web,
producción de cine, etc.) o están inventando nuevas tecnologías que serán usadas en el futuro por
dicha industria. La invención de nuevos medios en sí no es algo a quien se quiere dedicar alguien o
incluso que pueda recibir capital. Desde esta perspectiva, la industria del software en general es más
innovadora que la académica o la científica. Por ejemplo, aplicaciones de medios sociales como
Manovich. Capítulo 1 – El Software Toma el Mando
18 / 33
Wikipedia, Flickr, YouTube, Facebook, delicious, digg, etc. no fueron inventadas en la academia;
tampoco lo fueron Hypercard, Quicktime, HTML, Photoshop, After Effects, Flash o Google Earth. Esto
no ha sido diferente en décadas pasadas. Entonces no para sorprenderse que las carreras de Ted
Nelson y Alan Kay hayan sido hechas en la industria y no en la academia: Kay trabajó y ha sido
colaborador de Xerox PARC, Apple, Atari, y Hewlett-Packard; Nelson fue consultor de los laboratorios
Bell, Datapoint Corporation, Autodesk; y ambos han estado asociados a Disney.
¿Por qué Nelson y Kay hallaron más apoyo en la industria que en la academia en su búsqueda por
inventar nuevos medios computacionales? ¿Y por qué la industria (a la cuál me refiero simplemente
como cualquier entidad que crea productos que pueden ser vendidos en grandes cantidades o
monetizados de otras formas, sin importar que sea una transnacional o una start-up) está más
interesada en tecnologías, aplicaciones y contenidos innovadores de los medios más que las ciencias
computacionales? La respuesta necesitaría su propia investigación. Pero también, ¿qué tipo de
innovación puede soportar una institución moderna a lo largo del tiempo? Aquí podemos dar una
respuesta breve. Los negocios modernos tratan de crear nuevos mercados, nuevos productos y
nuevas categorías de productos. Aunque esto viene siempre con un alto riesgo, las ganancias son
rentables. Este fue el caso cuando Nelson y Kay fueron respaldados por Xerox, Atari, Apple, Bell,
Diseny, etc. En los años 2000, después de la globalización de los 90’s, todas las áreas de negocios
han acogido la innovación de forma sin precedentes. Este ritmo se acentuó alrededor del 2005
cuando las compañías competían por hacer nuevo mercado en China, India y otras economías
“anteriormente” emergentes. Al mismo tiempo, vimos un incremento de productos novedosos: API’s
abiertos de los grandes sitios Web 2.0, anuncios cotidianos de nuevos servicios Web, aplicaciones de
geolocalización, productos para consumidores como el iPhone y Microsoft Surface, nuevos
paradigmas de imágenes como el HDR y la edición no destructiva, los inicios de una “larga cola” de
hardware, y demás.
Como podemos ver a partir de los ejemplos que hemos analizado, el objetivo de los inventores de
medios computacionales no era simplemente crear simulaciones de medios físicos. Se trataba de
crear “un nuevo medio con nuevas propiedades” que permitiera a la gente comunicarse, aprender y
crear de formas nuevas. La apariencias de estos nuevos medios puede parecer similar a los viejos,
pero no debemos dejarnos engañar. La novedad no está en el contenido o en la apariencia sino en las
herramientas de software usadas para crear, editar, ver y compartir dicho contenido. Por eso, en lugar
de observar el “resultado” de las prácticas culturales basadas en software, debemos considerar el
software mismo, es él quien permite a la gente trabajar con medios de maneras previamente
desconocidas. Una vez más: la apariencia de los medios digitales puede ser que sí remedie y
represente formas anteriores, pero el software y ambiente en el que “vive” es muy diferente.
Manovich. Capítulo 1 – El Software Toma el Mando
19 / 33
Déjenme añadir un par de ejemplos más. Primero, Sketchpad que influyó profundamente todos los
trabajos subsecuentes en medios computacionales (incluyendo a Kay) no sólo porque fue el primer
sistema interactivo de producción de medios sino también porque dejó claro que las simulaciones
digitales de medios físicos pueden añadir muchas propiedades nuevas a los medios que son
simulados. En 1962, Ivan Sutherland creó Sketchpad como parte de su tesis de doctorado en el MIT y
fue el primer software que permitía a sus usuarios crear y modificar interactivamente dibujos a base
de líneas. Como ya lo ha dicho Noah Wardrip-Fruin, “nos llevó fuera del papel mediante la posibilidad
de dibujar en cualquiera de los 2000 niveles de acercamiento; esto permitió crear proyectos que los
serían muy grandes o muy detallados para los medios físicos” 35. Sketchpad concibió los elementos
gráficos como objetos “que pudieran ser manipulados, constreñidos, instanciados, representados,
copiados, combinados y en los que podemos aplicar y reaplicar estas operaciones” 36. Por ejemplo, si
un diseñador definía nuevos elementos gráficos como instancias de un elemento maestro, éste
cambiaba automáticamente si hacía cualquier cambio a dichas instancias.
Otra nueva propiedad que demostraba la manera en que el diseño y boceto a computadora era
radicalmente nueva era el uso de los constreñimientos o imposiciones en Sketchpad. En palabras de
Sutherland: “la propiedad principal que distingue a Sketchpad del papel y lápiz es la habilidad que
ofrece al usuario para especificar condiciones matemáticas en partes ya trazadas de su dibujo de tal
forma que la computadora pueda aplicar dichos parámetros y que el usuario obtenga la forma
deseada” 37. Por ejemplo, si un usuario dibuja algunas líneas y luego les asigna un cierto parámetro,
Sketchpad podría mover dichas líneas para que sean exactamente paralelas unas con otras. Si el
usuario selecciona una línea y asigna otro comando, Sketchpad podría mover la línea para que sea
perpendicular a las otras líneas antes trazadas.
No es nuestro objetivo hacer una lista exhaustiva de las nuevas propiedades que Sutherland introdujo
con Sketchpad, pero debe quedar claro que el primer editor interactivo de gráficos no sólo simulaba
medios existentes. El artículo que Sutherland publicó en 1963 resaltaba las nuevas capacidades
gráficas de su sistema, maravillándose de cómo abre nuevos campos en “manipulación gráfica que
nunca habían estado disponibles” 38. Tan solo el título de su tesis doctoral anticipa su novedad:
Sketchpad: un sistema humano-máquina de comunicación gráfica. Es curioso observar que la
35
Noah Wardrip-Fruin, introducción a “Sketchpad. A Man-Machine Graphical Communication System,” in New
Media Reader, 109.
36
37
Ibid.
Ivan Sutherland, “Sketchpad. A Man-Machine Graphical Communication System,” Proceedings of the AFIPS
Spring Joint Computer Conference, Detroit, Michigan, Mayo 21-23, 1963, pp. 329-346; in New Media Reader,
eds. Noah Wardrip-Fruin and Nick Montfort.
38
Ibid., 123.
Manovich. Capítulo 1 – El Software Toma el Mando
20 / 33
dimensión comunicativa también es resaltada por Kay y Goldberg, a la que se refieren como una
“conversación en dos sentidos” y que hace del meta-medio algo “activo” 39. Pero también Licklider
habló de simbiosis humano-máquina y Sketchpad sería un buen ejemplo aplicado al diseño y
producción de imágenes40.
Mi último ejemplo es el software de pintura. Quizá a primera vista pueda sonar contradictorio. ¿Se
puede decir que las aplicaciones que simulan a detalle el rango de efectos que es posible lograr con
brochas, pinceles, cuchillos, telas y papeles buscan recrear la experiencia de trabajar con algún medio
existente en lugar de crear uno nuevo? Error. En 1997, Alvy Ray Smith, un artista y pionero de las
gráficas computacionales escribió su memo Digital Paint Systems: Historical Overview41. En este texto
hace una importante distinción entre programas de pintura digital y sistemas de pintura digital. En su
definición, “un programa de pintura digital no hace más que implementar una simulación digital de la
pintura clásica en tela y pincel. Un sistema de pintura digital llevará más lejos la idea, usando la
“simulación de la pintura” como metáfora para seducir al artista en el nuevo, y quizá hostil, mundo
digital”. Según la historia de Smith, la mayoría de las aplicaciones comerciales, incluyendo Photoshop,
están ubicada en la categoría de sistema de pintura. Su genealogía de sistemas de pintura inicia con
SuperPaint de Richard Shoup, desarrollado en Xerox PARC entre 1972 y 197342, que permitía pintar
con diferentes pinceles y con diferentes colores. SuperPaint incluía algunas técnicas que no son
posibles en la pintura tradicional, como Shoup lo dice: “las zonas o los objetos pueden ser
redimensionados, desplazados, copiados, sobrepuestos, combinados, modificados de color o
guardados en nuestro disco para un uso futuro o para su destrucción” 43.
Pero quizá más importante era la habilidad de soportar fotogramas de video. Cuando se cargaba en el
sistema, cada fotograma podía ser usado como cualquier otra imagen. El sistema también podía
regresar el resultado como señal de video. Shoup tenía claro que su sistema iba más allá que una
simple forma de dibujar o pintar con la computadora. En un artículo de 1979 califica a SuperPaint de
39
40
Kay y Goldberg, “Personal Dynamic Media,” 394.
J.C. Licklider, “Man-Machine Symbiosis,” IRE Transactions on Human Factors in Electronics, volume HFE-1,
March 1960, pp. 4-11, in New Media Reader, eds. Noah Wardrip-Fruin and Nick Montfort.
41
Alvy Ray Smith, Digital Paint Systems: Historical Overview (Microsoft Technical Memo 14, Mayo 30, 1997).
http://alvyray.com/.
42
Richard Shoup, “SuperPaint: An Early Frame Buffer Graphics Systems,” IEEE Annals of the History of
Computing 23, número 2 (Abril-junio 2001), p. 32-37,
http://www.rgshoup.com/prof/SuperPaint/Annals_final.pdf; Richard Shoup, “SuperPaint…The Digital Animator,”
Datamation (1979), http://www.rgshoup.com/prof/SuperPaint/Datamation.pdf.
43
Shoup, “SuperPaint…The Digital Animator,” 152.
Manovich. Capítulo 1 – El Software Toma el Mando
21 / 33
un nuevo medio “videográfico” 44. En otro artículo publicado un año más tarde afina su aseveración:
“desde una perspectiva más amplia, nos dimos cuenta que el desarrollo de SuperPaint señaló el
comienzo de la sinergia de dos de las más poderosas tecnologías jamás inventadas: la computación
digital y el video o la televisión” 45.
Estamos antes una idea sorprendente. Cuando Shoup escribía esto en 1980, eran contadas con la
mano las veces que las gráficas computacionales se veían en la TV. Aunque es cierto que se volvieron
más visibles en la década siguiente, fue sólo hasta mediados de los 90’s que la sinergia que predijo
Shoup se volvió visible. Ya veremos en el capítulo dedicado a After Effects más tarde que el resultado
fue una dramática reconfiguración no sólo del lenguaje visual de la televisión sino de todas les
técnicas inventadas por los humanos hasta ese punto. En otras palabras, lo que empezó como un
nuevo medio “videográfico” en 1973 eventualmente cambió todos los medios visuales.
Incluso si olvidamos las posibilidades revolucionarias de SuperPaint, seguimos ante un nuevo medio
creativo (en palabras de Smith). Tal como lo dijo Smith, el medio es el buffer de fotogramas
digitales46, una especie de memoria digital diseñada para almacenar imágenes representadas como
una serie de pixeles (hoy conocida como tarjeta de gráficos). Un artista que trabaja con un sistema de
pintura está, de hecho, modificando valores de pixeles en un buffer de fotogramas (sin importar la
operación o herramienta en cuestión). Esto es una salida a nuevas operaciones de creación y
modificación de imágenes, que siguen una lógica diferente a la pintura física. Los ejemplos más
claros se pueden ver en un sistema de pintura llamado sencillamente Pant, desarrollado por Smith
entre 1975 y 1976. En las palabras de Smith, “en lugar de simular el trazo de una línea de color,
amplié la noción para abarcar: realiza cualquier manipulación de imagen que quieras con los pixeles
del pincel” 47. Con esta generalización conceptual, Smith incluyó varios efectos que todavía usan la
herramienta “pincel” pero que ya se refieren a la pintura del mundo físico. Por ejemplo, en Paint
“cualquier imagen de cualquier forma puede ser usada como pincel”. Otro ejemplo: Smith introdujo
“no pintar” que invertía el color de cada pixel en su complemento cromático. También definió la
“pintura de marcas” (smear paint) que promediaba los colores de los pixeles a proximidad y lo
mostraba en un solo pixel. Así vemos que las implementaciones en donde el pincel se comportaba
más como un pincel físico eran sólo casos particulares de un universo más grande de nuevos
comportamientos posibles en un nuevo medio.
44
45
46
Ibid., 156.
Shoup, “SuperPaint: An Early Frame Buffer Graphics System,” 32.
Alvy Ray Smith, “Digital Paint Systems: An Anecdotal and Historical Overview,” IEEE Annals of the History of
Computing. 2011, http://accad.osu.edu/~waynec/history/PDFs/paint.pdf.
47
Ibid., 18.
Manovich. Capítulo 1 – El Software Toma el Mando
22 / 33
La extensibilidad permanente
Como hemos visto, Sutherland, Nelson, Engelbart, Kay y demás pioneros de los medios
computacionales han agregado varias propiedades que previamente no existían en los medios que
simulaban. Las generaciones subsecuentes de académicos, hackers y diseñadores han añadido aún
más y el proceso está lejos de haber acabado. De hecho, no hay razón lógica o material para pensar
que se terminará. La “naturaleza” de los medios computacionales es interminable y nuevas técnicas
se inventan continuamente.
Para agregar nuevas propiedades a los medios físicos es necesarios modificar su substancia física.
Pero como los medios computacionales existen como software, podemos agregar nuevas propiedades
o inventar nuevos tipos de medios cambiando o escribiendo nuevo software. O añadiendo plug-ins y
extensiones como ha sido el caso en Photoshop y Firefox. O agrupando software, por ejemplo, en
2006 los usuarios extienden las capacidades de medios de mapas, creando mash-ups que combinan
servicios con datos de Google Maps, Flickr, Amazon con medios generados por los usuarios.
O sea que los “nuevos medios” son “nuevos” porque sus nuevas propiedades (es decir, nuevas
técnicas del software) se les pueden añadir fácilmente. Dicho de otra manera, en la era industrial,
con tecnologías de medios producidas masivamente, el “hardware” y el “software” era una misma
cosa. Por ejemplo, las páginas de un libro estaban atadas de manera que fijaban el orden y
secuencia. El lector no podía cambiar este orden ni alterar el nivel de detalle tal como lo hizo
Engerlbart con su “control de vistas”. De forma similar, un proyector de películas combinaba
“hardware” con lo que hoy llamamos software de “lector de medios” en una misma máquina. Los
controles de una cámara producida másivamente en el siglo XX no podían ser modificados por el
usuario a su voluntad. Aunque todavía hoy el usuario de una cámara digital no puede modificar
fácilmente el hardware, a partir del momento en que transfiere sus imágenes a la computadora tiene
acceso a un número ilimitado de controles y opciones para modificar sus imágenes.
En los siglos XIX y XX había dos tipos de situaciones en que un medio industrial fijo era más fluido. La
primera situación era cuando el nuevo medio estaba siendo desarrollado, por ejemplo, la invención de
la fotografía entre 1820 y 1840. El segundo tipo de situaciones es cuando los artistas experimentan y
“abren” un medio industrializado, por ejemplo los experimentos en cine y video de los años 60’s, a los
que se llamó “cine expandido”.
Lo que fueron dos momentos distintos de experimentaciones con medios durante la era industrial se
volvió la regla en la sociedad del software. Podemos decir que la computadora legitima la
experimentación con los medios. ¿Por qué sucede esto? Lo que hace diferente a un moderna
computadora digital de otras máquinas (incluyendo máquinas de medios industriales para capturar y
Manovich. Capítulo 1 – El Software Toma el Mando
23 / 33
reproducir medios) es la separación de hardware y software. Es porque un sin fin de programas que
realizan cosas diferentes pueden escribirse para correr en un solo tipo de máquina (la computadora
digital) que ésta máquina es tan usada hoy en día. Y así, la invención constante de nuevos medios o
sus modificaciones es un ejemplo de esta principio general. En otras palabras, la experimentación es
una características estándar de los medios computacionales. En su mera estructura son
“vanguardistas” porque siempre está en extensión y redefinición.
Si en la cultura moderna lo “experimental” y lo “vanguardista” se oponían a lo normal y a lo estable,
esta oposición se borra en la cultural del software. Y el rol del vanguardismo de medios ya no está
representado por artistas individuales en sus estudios sino por una gran variedad de actores, de muy
grandes a muy pequeños, de Microsoft, Adobe, Apple a programadores independientes, hackers y
diseñadores.
Pero este proceso de invención continua de nuevos algoritmos no se mueve en cualquier sentido. Si
observamos el software de medios contemporáneos, veremos que la mayoría de los principios
fundamentales habían sido desarrollados por la generación de Sutherland y Kay. De hecho, el primer
editor de gráficos interactivo, Sketchpad, ya tenia los genes, por así decirlo, de las aplicaciones de
gráficas contemporáneas. Mientras más nuevas técnicas siguen siendo inventadas, éstas se ponen
encima de los fundamentos que fueron gradualmente implementados por Sutherland, Engelbart, Kay
y demás en los 60’s y 70’s.
No estamos hablando únicamente de la historia de las ideas. Varios factores sociales y económicos
también imponen posibles direcciones en la evolución del software, por ejemplo el dominio de un
mercado de software o la adopción masiva de algún formato de archivo. Puesto de otra manera, el
desarrollo de software actualmente es una industria y como tal está equilibra constantemente entre
estabilidad e innovación, estandarización y exploración de nuevas posibilidades. Pero al mismo
tiempo no es cualquier tipo de industria. Nuevos programas pueden escribirse y programas existentes
pueden extenderse y modificarse por cualquiera que tenga conocimientos de programación, acceso a
una computadora, a un lenguaje de desarrollo y a un compilador (y si el código fuente está
disponible). O sea que el software de hoy es fundamentalmente “posible de hacer” en el sentido en
que los objetos producidos industrialmente no lo son.
A pesar de que Turing y Von Neumann ya había formulado en teoría esta extensibilidad del software
(cientos de miles de personas involucradas diariamente en la expansión de posibilidades de medios
computacionales), se trata del resultado de un largo desarrollo histórico. Este desarrollo nos llevó de
las computadoras del tamaño de un salón, que no eran fáciles de reprogramar, a las computadoras
baratas y programables de unas décadas posteriores. Esta democratización del desarrollo de software
era el núcleo de la visión de Kay, quien se preocupaba en cómo estructurar herramientas que fueran
Manovich. Capítulo 1 – El Software Toma el Mando
24 / 33
posibles de programar por usuarios comunes: “debemos proveer suficientes herramientas generales
predefinidas para que los usuarios no tengan que empezar desde cero para hacer las cosas que
quieren hacer” (Kay y Goldberg, 1977).
Si comparamos el proceso de innovación continua de los medios con software con la historia de los
medios pre-computacionales veremos que se revela una mecánica. Según una idea general, cuando
un nuevo medio es inventado, éste imita a los medios existentes antes de descubrir su propia estética
y lenguaje. Por ejemplo, las primeras biblias impresas imitaban claramente el diseño de manuscritos;
las películas producidas entre 1890 y 1900 mimetizaban el formato teatral mediante la aparición de
los actores detrás del escenario y su postura frente a la audiencia. Lenta y gradualmente, los libros
impresos desarrollaron una nueva forma para presentar la información, de la misma manera que el
cina desarrolló sus conceptos de narrativa espacial que con cambios continuos de puntos de vista
hace que los usuarios entren al espacio, encontrándose literalmente dentro de la historia.
¿Podemos decir que esta mecánica aplica también a los medios computacionales? Tal como lo
teorizaron Turing y Von Neumann, la computadora es una máquina de simulación multiusos. Esto es
lo que la hace única y diferente de los demás máquinas y medios. Esto significa que la idea de que un
nuevo medio encuentra gradualmente su lenguaje no aplica para los medios computacionales. Si
fuera cierto iría en contra de la definición misma de computadora digital moderna. Este argumento
teórico está soportado por la práctica. La historia de los medios computacionales no ha tratado hasta
ahora de llegar a un lenguaje estándar (como lo pasó al cine, por ejemplo) sino a extender los usos,
técnicas y posibilidades. En lugar de llegar a un lenguaje particular nos percatamos que la
computadora puede hablar cada vez más lenguajes.
Pero podemos encontrar un argumento más si nos detenemos un poco en la historia de los medios
computacionales. La tarea sistemática de convertir a la computadora en un medio que simula y
extiende a los demás llegó después que ya tenían diversos usos (realizar diferentes tipos de cálculos,
solucionar problemas matemáticos, controlar otras máquinas en tiempo real, recrear simulaciones
matemáticas, recrear algunos comportamientos humanos, etc.). Así, cuando la generación de
Sutherland, Nelson y Kay empezó a crear “nuevos medios” lo hicieron sobre aquello que las
computadoras saben hacer mejor. Entonces se empezaron a añadir nuevas propiedades a los medios
físicos. Si retomamos el ejemplo de Sketchpad, Sutherland sabía que las computadoras podían
resolver problemas matemáticos y así introdujo una nueva función que no existía antes: control de
parámetros de imágenes. Parafraseando estas ideas podemos decir que en lugar de movernos de la
imitación de un media viejo para encontrar su propio lenguaje, los medios computacionales hablaban
su propio lenguaje desde su concepción.
Manovich. Capítulo 1 – El Software Toma el Mando
25 / 33
Los pioneros de la medios computacionales no tenían la intención de hacer de la computadora una
“máquina de remediación” que simplemente representara medios viejos. Se trató más bien de poner
en avante las posibilidades de las computadoras digitales para crear radicalmente nuevos tipos de
medios para la expresión y la comunicación. Para estos nuevos medios, su materia prima sieguen
siendo los medios precedentes (que han servido a la humanidad por cientos de años: escritura,
dibujo, sonidos, pinturas, etc.) pero esto no compromete su novedad. Los medios computacionales se
sirven de ellos como unidades básicas para crear formas, estructuras, herramientas, opciones de
comunicación que no existían antes.
Sería incorrecto decir que el trabajo de Sutherland, Engelbart, Nelson y Kay había tomado un solo
rumbo al desarrollar sus medios computacionales sobre la base de teorías computacionales,
lenguajes de programación e ingeniería de software. Es decir, de principios existentes y generales a
técnicas particulares. Estos inventores pusieron en tela de juicio muchas de ideas de la computación.
Definieron muchos nuevos conceptos y técnicas fundamentales sobre hardware y software, haciendo
contribuciones a la ingeniería de software. Un ejemplo es el desarrollo de Smalltalk por Alan Kay que
estableció sistemáticamente, por primera vez, el paradigma de la programación orientada objetos. La
lógica de Kay era crear una apariencia unificada a todas las aplicaciones e interfaces de usuario de
PARC pero sobretodo también permitir a los usuarios programar rápidamente sus propias
herramientas de medios. Según Kay un programa de ilustración hecho con Smalltalk por una
talentosa niña de 12 años cabía en una página de código48. Con el tiempo, la programación orientada
objetos se ha vuelto muy popular y muchos lenguajes siguen su paradigma, como C.
Este vistazo a los medios computacionales y a las ideas de sus inventores nos deja claro que se trata
de algo opuesto al determinismo tecnológico. Cuando Sutherland diseñó Sketchpad, Nelson inventó el
hipertexto, Kay programó un programa de dibujo, cada nueva característica de los medios
computacionales debió ser imaginada, implementada, probada y corregida. O sea que estas nuevas
propiedades no fueron el resultado inevitable de la convergencia entre computadoras digitales y
medios modernos. Más bien los medios computacionales tuvieron que ser inventados paso a paso. Y
fueron inventados que se inspiraron del arte moderno, la literatura, la psicología educativa y cognitiva,
la teoría de medios y la tecnología. Kay recuerda que la lectura del libro Understanding Media, de
McLuhan, lo hizo darse cuenta que la computadora podía ser un medio y no solo una herramienta49.
La primera parte del artículo de Kay y Goldberg se llama “Humanos y medios” y se lee como teoría de
medios. Pero ésta no es una típica teoría que describe los medios sino un análisis para crear un plan
48
Alan Kay, Doing with Images Makes Symbols (University Video Communications, 1987), conferencia grabada
en video, http://archive.org/details/AlanKeyD1987/.
49
Alan Kay, “User Interface: A Personal View,” 192-193.
Manovich. Capítulo 1 – El Software Toma el Mando
26 / 33
de acción para crear un nuevo mundo, tal como lo hizo Marx con su análisis del capitalismo, pero esta
vez permitiendo a las personas crear sus propios nuevos medios.
Quizá el ejemplo más importante de este desarrollo no determinista es la invención de la interfaz
gráfica humano-computadora moderna. Ninguno de los conceptos clave de la computación moderna
establecidos por Von Neumann hablaba de una interfaz interactiva. A finales de los 40s y 50s el
Laboratorio Lincoln del MIT desarrollo interfaces gráficas usadas en SAGE (los centros de control
creados en EUA para recolectar información de estaciones de radar y coordinar contraataques). Pero
la interfaz de SAGE fue diseñada para tareas muy específicas y no tuvo efecto en el desarrollo de la
computacional comercial. Sin embargo, sí orientó hacia una nueva computadora interactiva pequeña,
la TX-2, usada por estudiantes del MIT para explorar lo que podías hacerse con una “computadora
interactiva” (es decir, computadoras con una pantalla visual). Algunos alumnos empezaron a crear
juegos, entre ellos Spacewars (1960). Sutherland fue uno de esos estudiantes que exploró las
posibilidades de la computación visual interactiva usando TX-2. Todo esto lo llevó a crear Sketchpad
(su tesis de doctorado) que influenció a Kay y demás pionera de la computación cultural de los 60s. El
camino teórico que condujo de SAGE a la GUI moderna en PARC fue muy largo.
Según Kay, el paso clave para él y su grupo fue pensar en la computadora como un medio para
aprender, experimentar y de expresión artística que fuera usada no sólo por adultos sino también por
“niños de todas las edades” 50. Un gran influencia en Kay fueron las teorías del psicólogo Jerome
Bruner que estaban basadas en las ideas de Jean Piaget. Se había identificado que los niños pasan
por distintas etapas en su desarrollo: kinésica, visual y simbólica. Piaget pensaba que cada etapa
existía sólo en un periodo particular mientras que Bruner creía que hay mentalidades separadas que
corresponden a cada etapa y que siguen existiendo a medida que crece el niño. También sugería que
las mentalidades no se reemplazan sino que se añaden. Bruner dio nuevos nombres a estas
mentalidades: activa, icónica y simbólica. Cada mentalidad se desarrolla en diferentes etapas de la
evolución humana y siguen existiendo en la edad adulta.
La interpretación de Kay a estas teorías fue que la interfaz de usuario debía hacer referencia a estas
tres mentalidades. Al contrario de una interfaz basada en líneas de comando, que no es accesible a
niños y fuerza al adulto a usar su mentalidad simbólica, la nueva interfaz debía usar también las
mentalidades emotivas e icónicas. Kay también tomó en cuenta numerosos estudios de creatividad
en matemáticas, ciencia, música, arte, y demás áreas, en donde se veía que el trabajo inicia con
mentalidades icónicas y activas51. Esto inspiró en gran medida la idea que si las computadoras iban
50
Alan Kay, “A Personal Computer for Children of All Ages,” Proceedings of the ACM National Conference,
Boston, 1972, http://www.mprove.de/diplom/gui/kay72.html.
51
Alan Kay, “User Interface: A Personal View”, 195.
Manovich. Capítulo 1 – El Software Toma el Mando
27 / 33
funcionar como un medio dinámico para el aprendizaje y la creatividad, deberían permitir a sus
usuarios pensar no sólo mediante símbolos sino también con acciones e imágenes.
El grupo de PARC materializó la teoría de múltiples mentalidades de Bruner en las tecnologías de
interfaz de la siguiente manera. El mouse acciona la mentalidad activa (identifica en dónde estás,
manipula). Íconos y ventanas accionan la mentalidad icónica (reorganiza, compara, configura).
Finalmente, el lenguaje de programación Smalltalk permite a los usuario accionar su mentalidad
simbólica (combina largas cadenas de razonamiento, haz abstracción) 52.
Actualmente, la GUI contemporáneas relacionan constantemente diferentes mentalidades. Usas un
mouse para moverte por la pantalla, como si fuera un espacio físico, y para apuntar hacia objetos.
Todos los objetos están representados por íconos visuales. Haces doble clic en un ícono para activarlo
o, si es un fólder, para examinar su contenido. Esto se puede ver como el equivalente a tomar y
examinar objetos del mundo físico. Cuando una ventana se abre es posible alternar entre diferentes
vistas, ver los datos como íconos o listas que pueden ser ordenada de acuerdo al nombre, fecha de
creación y demás información simbólica (es decir, texto). Si no encuentras los archivos que estás
buscando puedes hacer una búsqueda en todo el disco duro de la computadora, seleccionando
palabras clave. Como lo demuestran estos ejemplos, el usuario está cambiando contantemente entre
mentalidades, usando cada vez las más adecuado según sus necesidades.
Además de los principios generales de la interfaz, otras técnicas desarrolladas por Kay también se
pueden entender como un uso de las diferentes mentalidades. Por ejemplo, la interfaz de usuario de
PARC fue la primera que corrió en una pantalla basada en bit mapeados lo que daba a los usuarios la
posibilidad de mover el cursor y abrir varias ventanas, pero también de escribir programas de en
Smalltalk y poder ver el resultado visual inmediatamente. Cualquier modificación en el código
mostraba su resultado en la imagen producida por el programa. Hoy esta posibilidad es fundamental
en el uso de las computadoras, de las ciencias hasta la visualización de datos interactiva. Otro
ejemplo que no podemos dejar de lado son todos los editores de medios creados en PARC: programas
de dibujo, ilustración, música, etc. Estos programas hacían que el usuario cambiara de mentalidad de
una manera que no era posible de lograrse con los medios físicos. Imagina los objetos en un
programa de animación, que pueden ser dibujados a mano o escribiendo código Smalltalk. Como lo
señalan Kay y Goldberg, “el control de una animación se puede lograr fácilmente con una simulación
Smalltalk. Por ejemplo, una animación de objetos que saltan es más fácil de hacer con unas cuantas
líneas de código que expresan la clase de objetos saltantes en términos físicos” 53.
52
53
Ibid., 197.
Kay and Goldberg, “Personal Dynamic Media,” 399.
Manovich. Capítulo 1 – El Software Toma el Mando
28 / 33
Al definir el nuevo tipo de interfaz de usuario, Kay y sus colaboradores crearon un nuevo tipo de
medio. Si aceptamos la teoría de las múltiples mentalidades de Bruner y su interpretación por Kay,
podemos concluir que el nuevo medio que inventaron puede hacer cosas que los medios precedentes
no. Esto puede ayudar a explicar el éxito y popularidad de la GUI que, 40 años más tarde, sigue
dominando la interacción con la computadoras. La gente la prefiere no porque sea “fácil” o “intuitiva”,
sino porque les ayuda a pensar, descubrir y crear nuevos conceptos mediante el uso de múltiples
mentalidades juntas. En pocas palabras, mientras que muchos expertos en interacción humanocomputadora siguen pensando que la interfaz ideal debe ser “invisible” y dejar a los usuario hacer su
trabajo, si volteamos hacia las teorías de Kay y Goldebegr tenemos una manera muy diferente de
comprender la identidad de la interfaz. Kay y PARC pensaban en la interfaz como un medio diseñado
en cada detalle ara facilitar el aprendizaje, descubrimiento y creatividad.
Con el énfasis que la sociedad de la información otorga a la innovación permanente, a la educación
continua y a la creatividad, es apropiado señalar que a medida que se construía, un nuevo medio
estaba siendo inventado para facilitar sus necesidades. En 1973, Daniel Bell publicó su influyente
The Coming of Post-Industrial Society, al mismo tiempo que Kay, Goldberg, Chuck Thacker, Dan
Ingalls, Larry Tesler y otros miembros del The Learning Research Group crearon el paradigma de la
computación moderna. O más bien reinventaron la computadora, la transformaron de una veloz
calculadora a un sistema interactivo para el razonamiento y la experimentación. En breve, de una
herramienta a un metamedio.
Desafortunadamente cuando la GUI se volvió un éxito comercial con la Macintosh en 1984, sus
origines intelectuales fueron olvidados. La razón de ser de la GUI se redujo a un argumento simplista:
como se trata de algo nuevo para el usuario, debe ser “intuitiva”, debe recrear cosas familiares del
mundo físico. Es sorprendente que esta idea siga todavía vigente en nuestros días, aún con las
generaciones de “nativos digitales”. Por ejemplo, las recomendaciones de Apple para desarrollar
interfaces humanas para iPhone (marzo, 2010) dice: “cada que sea posible, modela los objetos y
acciones de tu aplicación con base en objetos y modelos del mundo real. Esta técnica permite a los
usuarios principiantes entender rápidamente cómo funciona tu aplicación. Los folders son una
metáfora clásica de software. Como la gente archiva sus documentos en carpetas en el mundo real,
inmediatamente entienden la idea de poner datos en una carpeta de la computadora” 54. Lo irónico es
que estas recomendaciones también aplican para desarrolladores de iPad, un producto que
representa un paso más hacia la migración de un mundo físico a un mundo totalmente digital. Los
54
http://developer.apple.com/iphone/library/documentation/UserExperience/Conceptual/MobileHIG/PrinciplesAn
dCharacteristics/PrinciplesAndCharacteristics.html#//apple_ref/doc/uid/TP40006556-CH7-SW1, Abril 5, 2010.
Manovich. Capítulo 1 – El Software Toma el Mando
29 / 33
medios viejos son recordados y valorados constantemente, pero también se nos pide que los
olvidemos.
La computadora como meta-medio
Como lo hemos dicho, el desarrollo de los medios computacionales sigue una historia opuesta a los
medios precedentes. Pero en cierto sentido, la idea de que un nuevo medio gradualmente descubre
su lenguaje sí aplica a los medios computacionales después de todo. Así como sucedió con los libros
impresos y el cine, este proceso tomó unas cuantas décadas. Cuando las primeras computadoras
fueron armadas en los años 40s, no se podían usar para fines culturales, de expresión y
comunicación. Lentamente, con el trabajó de Sutherland, Engelbart, Nelson, Papert y otros en los 60s,
se desarrollaron las ideas y técnicas que hicieron de la computadora una “máquina cultural”. Uno
podía crear y editar texto, hacer dibujos, moverse alrededor de un objeto virtual, etc. Y finalmente,
cuando Kay y sus colegas en PARC sistematizaron y refinaron estas técnicas para ponerlas bajo el
techo de la GUI, haciéndolas accesibles a multitudes de usuarios, fue cuando la computadora digital
obtuvo su propio lenguaje (en términos culturales). Fue hasta que la computadora se volvió un medio
cultural y no sólo una máquina versátil.
La computadora se convirtió en algo que ninguno otro medio había sido antes. Esto que surgió no era
otro medio sino, como insisten Kay y Goldeberg en su artículo, algo cualitativamente diferente e
históricamente sin precedentes. Para marcar esta diferencia, introdujeron el término “meta-medio”.
Este meta-medio es sui generis de varias formas. Una de ellas ya ha sido discutida aquí ampliamente
(la capacidad de representar a los demás medios y de añadirles nuevas propiedades). Kay y Goldberg
también hablan de otras formas cruciales. El nuevo meta-medio es “activo (puede responder a
búsquedas y experimentos) de tal medida que los mensajes pueden involucrar al aprendiz en una
conversación de ida y vuelta”. Para Kay, quien estaba profundamente interesado en la educación y en
los niños, esta forma era particularmente importante porque “nunca se había logrado antes, excepto
en el caso de profesores individualizados”
55
. Además, el nuevo meta-medio puede soportar
“virtualmente todas las necesidades de información de su usuario”. Puede servir de “herramienta de
programación y resolución de problemas” y de “memoria interactiva para el almacenamiento y
manipulación de datos” 56. Pero quizá la forma más importante desde el punto de vista de la historia
de los medios es que el meta-medio de la computadora es simultáneamente un conjunto de
diferentes medios y un sistema para generar nuevas herramientas de medios y nuevos tipos de
55
56
Kay & Goldberg, “Personal Dynamic Media,” 394.
Ibid., 393.
Manovich. Capítulo 1 – El Software Toma el Mando
30 / 33
medios. En otras palabras, una computadora puede ser usada para crear nuevas herramientas de
trabajo con diferentes tipos de medios existentes y crear otras que aún no han sido inventadas.
En la introducción de su libro Expressive processing, Noah Wardrip-Fruis articula perfectamente esta
“meta-generatividad” que es específica a las computadoras:
Una computadora puede simular una máquina de escribir (recibiendo información de un
teclado y acomodando pixeles en la pantallas que corresponden a las teclas) pero también
puede ir mucho más lejos: ofrece tipografía, corrector de ortografía automático, reacomodo
de secciones de un documento (mediante simulaciones de “cortar” y “pegar”),
transformaciones programáticas (como “buscar” y “reemplazar”), e incluso autoría
colaborativa entre grandes grupos distribuidos (como Wikipedia). Esto es para lo que fueron
diseñadas las computadoras modernas (o en su nombre más largo “computadoras digitales
electrónicas de programas almacenados”): la creación continua de nuevas máquinas,
abriendo
nuevas
posibilidades,
mediante
la
definición
de
nuevos
procesos
computacionales57.
Haciendo analogía con la alfabetización impresa, Kay modula esta propiedad de la siguiente forma:
“la habilidad de “leer” un medio significa que se puede acceder a materiales y herramientas
generadas por otros. La habilidad de “escribir” en un medio significa que se pueden generar
materiales y herramientas para los demás. Se deben poseer ambas para ser alfabetizado” 58. En
consecuencia, los esfuerzos de Kay en PARC estuvieron dedicados al desarrollo del lenguaje de
programación Smalltalk. Todas las aplicaciones de producción de medios y la misma GUI fueron
escritos en Smalltalk. Esto dio, como consecuencia, consistencia a todas las aplicaciones y facilitó el
aprendizaje de nuevos programas. Incluso más importante, según la visión de Kay, el lenguaje
Smalltalk permitiría a sus usuario principiantes escribir sus propias herramientas y definir sus propios
medios. Todas las aplicaciones de producción de medios, que pudieran ser ofrecidas por la
computadora, serían también ejemplos e inspiración para que los usuarios los modificaran e
escribieran nuevas aplicaciones.
Así, gran parte del artículo de Kay y Goldberg está dedicado a describir el software desarrollo por los
usuarios de su sistema: “un sistema de animación programado por animadores”; “un sistema de
dibujo y pintura programado por niños”; “una simulación de hospital programada por un tomador de
57
Noah Wardrip-Fruin, Expressive Processing: Digital Fictions, Computer Games, and Software Studies (The MIT
Press, 2009).
58
Alan Kay, “User Interface: A Personal View,” in The Art of Human-Computer Interface Design, editado por
Brenda Laurel (Reading, Mass,” Addison-Wesley, 1990), p. 193.
Manovich. Capítulo 1 – El Software Toma el Mando
31 / 33
decisiones”; “un sistema de animación de audio programado por músicos”; “un sistema de partituras
musicales programado por un músico”; “un circuito electrónico diseñado por un estudiante de
secundaria”. Como se puede ver, esta lista corresponde a la serie de ejemplos en el artículo. Kay y
Golderbeg alternan deliberadamente entre tipos de usuarios (profesionales, artistas, estudiantes de
secundaria, niños) con el fin de mostrar que cualquiera puede desarrollar herramientas con el
ambiente de programación Smalltalk.
La serie de ejemplos también intercala astutamente simulaciones de medios con otros tipos de
simulaciones para enfatizar que los medios son sólo un caso particular de la capacidad general de la
computadora para simular todo tipo de proceso y sistema. Esta yuxtaposición de ejemplos ofrece una
manera interesante de pensar los medios computacionales. Así como un científico una simulaciones
para probar condiciones diferentes y escenarios posibles, también los diseñadores, escritores,
músicos, cineastas, arquitectos pueden “probar” diferentes horizontes creativos en donde se pueden
ver cómo diferentes parámetros pueden “afectar” al proyecto. Esto último es especialmente fácil
porque hoy muchas de las interfaces de producción de medios no sólo presentan explícitamente
dichos parámetros pero además permiten al usuario modificarlos. Por ejemplo, cuando el panel de
formato de Microsoft Word muestra la tipografía usada en determinado texto seleccionado, ésta se
presentan en una columna al lado de todas las demás tipografías disponibles. Para aplicar diferentes
fuentes sólo basta con seleccionar el nombre del menú desplegable.
El hecho de que los usuarios pudieran escribir sus propios programas era crucial para la visión de
“meta-medio” que Kay estaba inventando en PARC. Según Wardrip-Fruin, la investigación de
Engelbart seguía un objetivo similar: “la visión de Engelbart veía a los usuarios creando, compartiendo
y modificando sus herramientas y las de los demás” 59 . Lamentablemente, cuando se lanzó al
mercado Macintosh en 1984, ésta no incluía un ambiente de programación fácil de usar. HyperCard,
escrito para Macintosh en 1987 por Bill Atkinson (quien era un alumno de PARC), dio a los usuario la
posibilidad de crear rápidamente cierto tipo de aplicaciones, pero no tenía la versatilidad y amplitud
imaginada por Kay. Sólo en fechas recientes, con la alfabetización computacional y el desarrollo de
varios lenguajes de script (Perl, PHP, Python, ActionScript, Vbscript, JavaScript, etc.), más gente se ha
puesto a crear sus propias mediante escribiendo software. Un buen ejemplo de ambiente de
programación contemporáneo que, a mi parecer, está apegado a la visión de Kay es Processing60.
Processing está construido sobre el lenguaje Java y se ha vuelto muy popular entre artistas y
diseñadores por su estilo simple y su extensa cantidad de librerías de medios. Se puede usar para
bocetar rápidamente ideas pero también para desarrollar programas de medios complejos. De hecho,
59
Noah Wardrip-Fruin, introducción a Douglas Engelbart y William English, “A Research Center for Augmenting
Human Intellect” (1968), New Media Reader, 232.
60
www.processing.org.
Manovich. Capítulo 1 – El Software Toma el Mando
32 / 33
atinadamente, los documentos de Processing se llaman “bocetos” 61. En palabras de sus inventores y
principales desarrolladores, Ben Fry y Casey Reas, el lenguaje de Processing se enfoca “en el proceso
y creación, más que en los resultados”
62 .
Mencionemos otro ambiente de programación que
igualmente se vuelto muy popular: MAX/MSP y su sucesor PureData, ambos desarrollados por Miller
Puckette.
Al final del artículo de 1977, que nos ha servido como base de discusión en este capítulo, Kay y
Goldberg resumen sus argumentos en una frase, que para mí es la mejor formulación que existe
sobre lo que son, cultural y artísticamente, los medios computacionales. Ellos llaman a la
computadora un “meta-medio”, cuyo contenido es “una amplia gama de medios existentes y aún no
inventados”. En otro artículo, publicado en 1984, Kay amplía esta definición. Para cerrar este
capítulo, me gustaría citarlo:
“[la computadora] es un medio que puede simular dinámicamente los detalles de cualquier otro
medio, incluyendo medios que no existen físicamente. No es una herramienta, aunque puede actuar
como muchas de ellas. Se trata del primer metamedio y, como tal, tiene niveles de libertad para la
representación y expresión nunca antes vistos y apenas investigados” 63.
61
62
63
http://www.processing.org/reference/environment/.
http://wiki.processing.org/w/FAQ.
Alan Kay, “Computer Software,” Scientific American (September 1984), 52. Citado en Jean-Louis Gassee, “The
Evolution of Thinking Tools,” in The Art of Human-Computer Interface Design, p. 225.
Manovich. Capítulo 1 – El Software Toma el Mando
33 / 33
Descargar