Estado del arte en la interacción de los usuarios de internet Por Daniel Ayala [email protected] Palabras clave Software libre, tecnología, comunicación, contracultura, vanguardia, arte, circulación, autor, propiedad, libertad, socialización, difusión, expresión, ruptura, cibercultura, nuevas tecnologías, internet Resumen El objetivo principal de esta ponencia es dinamizar y evidenciar las lecturas realizadas en función a la temática de la investigación bajo la cual desarrollaré mi tesis. La misma consiste en analizar la construcción y los modos de comunicación social que plantea el software libre a través de la ruptura que realiza con la propiedad intelectual de las obras, especialmente con las de tipo artístico/cultural (música, fotografía, arte en general). A partir de allí, poder delinear la incidencia que tiene sobre los lineamientos jurídicos, y en la distribución y socialización de las obras culturales. Así, las lecturas podrían dividirse según su relación con la temática expuesta. Por un lado las referidas a la terminología “dura”. Aquellas que reseñan a las concepciones informáticas y jurídicas del intercambio. Las relacionadas con las evoluciones en el campo de lo digital y la adaptación de lo jurídico. Y por otro, aquellas referidas a los ámbitos más simbólicos: los artísticos. El software libre -como contrapunto del software privativo- se identifica a través de la disponibilidad de su código fuente y en el permiso hacia los usuarios de intervenir en los programas y obras que consume a través de la modificación estructural de los mismos, como así también en la intervención referida a su distribución, volviendo a los usuarios creadores de aquello que consumen. Es por ello que entender la evolución de los usuarios no intervencionistas a usuarios activos se torna imprescindible en el trabajo de tesis. 1 Introducción Los derechos de autor y el copyright (el derecho a copia de las obras) son concepciones del derecho que se vienen forjando desde el estatuto de la reina Ana de Inglaterra (1709) y que en su evolución histórica concedieron al propietario derechos monopolistas sobre la obra creativa (comparables a derechos básicos de la propiedad privada moderna). Los derechos de autor fueron una respuesta necesaria a la invención de la imprenta, ya que fue la primera vez en la historia que una obra pudo copiarse de manera seriada. La evolución de la tecnología y las posibilidades ciertas de reproducción de obras en diferentes formatos forjaron un endurecimiento en las leyes relacionadas a la protección de las obras creativas. La aparición de internet, a su vez, dispuso de un nuevo campo de acción tanto para usuarios/consumidores y usuarios/creadores como para una legislación que se encontró superada por la aparición de un nuevo soporte que no respetaba divisiones políticas ni restricciones de publicación: cada vez más personas se transformaron en canales de circulación de obras, ya sea copiando y distribuyendo, como creando y difundiendo. Los derechos de autor nacen como promotores a la realización de obras culturales y en el justificativo básico de que los autores tienen el derecho de vivir de sus creaciones. Hoy por hoy las diferentes lecturas de lo jurídico hacen que muchas obras ostenten una licencia de pertenencia emparentadas directamente a empresas privadas, corporaciones anónimas, y hasta existe un comercio de venta de derechos que hace que -en muchos casos- obras históricas y hasta pertenecientes al folclore popular (muchas de ellas anónimas), por ejemplo la melodía del “Feliz cumpleaños”, sean privativas al dominio público. Es así como en la actualidad el copyrigth se transformó en una herramienta de defensa proteccionista de inversores y mega empresas, ya que los artistas –en su mayoría- no viven de las ganancias producidas por la venta de su obras, sino que éstas sirven como difusoras de sus “otras” actividades: como las presentaciones en vivo, venta de originales, atribución de renombre, etc. Una de las batallas más efectivas contra el comercio creativo y la privatización de herramientas culturales sociales se dio a partir del nacimiento del software libre en los años ’70. El software libre como concepto se refiere a cuatro libertades esenciales que lo hacen sustancialmente diferente a los de tipo privativo: la 2 primera de las libertades es la de usar el programa con cualquier propósito, la segunda la de estudiar cómo funciona el programa y adaptarlo a cada necesidad, la tercera la de distribuir copias y, por último, la cuarta consiste en mejorar el programa y publicar los adelantos a los demás de modo que todos se beneficien. Esto se puede realizar de forma gratuita o cobrando por la distribución. La libertad (que así debe ser traducido del inglés, ya que la terminología “free” no debe cerrarse a lo gratuito) radica en su falta de restricción a utilizarlo bajo cualquier soporte, para cualquier clase de trabajo y sin la obligación de rendirle cuentas a ninguna entidad ni persona por ello. La aclamada libertad de este tipo de software radica en su disponibilidad al acceso del código fuente, algo así como dejar a la vista de todos la receta secreta del contenido de Coca-Cola, y permitir -además- que cada consumidor realice su propia versión de la bebida. Programas dependientes a empresas como Microsoft, entre muchas otras, cuidan su código fuente cerrando el acceso a sus programas sólo a su uso y para un único consumidor, previo abono y bajo la constatación del certificado de autenticidad. El software libre no prohíbe su venta, pero sí -una vez obtenido- permite copiar, modificar, intercambiar y hasta vender las copias. Además de utilizar un lenguaje de programación distintivo para este tipo de programas (GNU), su creación motivó la creación del copyleft, una variante abierta y en claro pie de enfrentamiento del copyrigth. Es así que con el software libre no existe una distinción clara entre desarrolladores y usuarios, ya que todos forman parte de una comunidad global. Si bien históricamente se pretendió que los usuarios de este tipo de programas posean mayores conocimientos técnicos que el modelo de usuario dócil de tipo Microsoft, teniendo conocimientos profundos de los lenguajes de programación, en las últimas dos décadas esto se fue revirtiendo. La diferencia entre los usuarios finales se está acortando y el software libre saca una clara ventaja. Por un lado acerca una serie de beneficios a usuarios alejados de ese tipo de programas, y por otro diversifica los requerimientos ampliando las necesidades. Actualmente, a raíz de las políticas monopólicas, las empresas pequeñas y medianas encargadas de la fabricación de software temen competir de manera fuerte y es por ello que quedan relegadas a micro proyectos. Cuando empiezan a interesar y a demostrar su capacidad dentro del mercado son compradas por las 3 corporaciones dominantes de esa red de poder económico/empresarial. E aquí la ventaja sustancial, el software libre no puede ser comprado y mucho menos quebrar, ya que no responde a las leyes tradicionales del mercado. Como desprendimiento de este tipo de desarrollo libre nace un tipo de licencia denominada Creative Commons. Este tipo de licencia hace un corrimiento de las libertades del software libre a las obras artísticas distribuidas digitalmente pero sostenidas en soportes varios (desde la propia internet hasta en CD -música- o impresiones -libros, fotos, dibujos-). A través de ella la socialización de la producción cultural se da no sólo de una forma novedosa desde su circulación, sino en la intervención de las obras; ya que rompe con la lógica restrictiva de la obra como creación individual (más allá de la posibilidad de la coautoría grupal de artistas) poniendo al conjunto de los consumidores de ella como posibles creadores y coautores. Este tipo de circulación sería impensado sin internet aglutinando a creadores, consumidores, al dinamismo y a la inmediatez en la comunicación; de manera tal que los límites entre unos y otros (creadores, consumidores, circulación e inmediatez) se van desdibujando. Es por ello que los procesos históricos de la World Wide Web operan con importancia sustancial en los procesos creativos del arte actual. Así, el análisis del trabajo “Aplicaciones dinámicas de Internet. Un nuevo enfoque para su desarrollo en educación” (2008) de Francisco A. Lizarralde, dirigido por el Profesor Licenciado Luis Mariano Bibbó, enmarcado en el trabajo final del postgrado de Tecnología Informática Aplicada en Educación de la Facultad de Informática de la Universidad Nacional de La Plata, se agrupa como un trabajo de interés para observar desde el campo de la informática el desarrollo de las tecnología de internet para responder a las necesidades de interacción entre los desarrolladores y los usuarios. Y por otro lado, la tesis “Análisis de la tendencia Web 2.0, y su aplicación a la relación cliente-empresa” (2009), de Juan Alberto Ortiz Fernández (http://www.lawebdejuan.com.ar) para el Instituto Argentino Aeronáutico servirá para poner en términos sociales y ya no meramente técnicos los alcances de la interacción de los usuarios. 4 Desarrollo Como se aclara desde los objetivos planteados en la Tesis de Francisco Lizarralde, lo que se analiza en el trabajo son las aplicaciones dinámicas de Internet supeditadas a lograr “un mayor nivel de expresividad y de interactividad”1. En el trabajo se analiza la implementación del usuario como destinatario ineludible para la web. Y las divide en etapas: en la primera, la llamada clásica, los usuarios sólo se disponían frente a los contenidos como simples recepcionistas: leían la información que las páginas ofrecían y relacionaban a las páginas con lo que ellas mismas ofrecían como vínculos complementarios (URL). Tiempo después comenzaron a utilizarse programas instalados en los servidores que lograron una mayor interacción con usuarios, pudiendo por ejemplo éstos llenar formularios con su envío posterior a los servidores. “Inicialmente, las aplicaciones de Internet estaban constituidas básicamente por páginas web escritas en HTML (HyperText Markup Language). Este lenguaje, utilizado originalmente para escribir páginas web estáticas, utiliza ciertas marcas (tags), para describir la estructura y su contenido en forma textual, e incluso complementar el texto con contenidos diversos, como imágenes, sonidos, etc. Estas páginas web se relacionan a su vez con otras, por medio de enlaces. Creando así, las bases de una estructura hipertextual de navegación. Es decir, conforman un conjunto de información textual, gráfica y sonora, enlazada entre sí, o con otras informaciones relacionadas. Estos enlaces, permiten un recorrido de la información en una forma no siempre prefijada ni secuencial. Este modelo representa una arquitectura relativamente simple, con un conjunto limitado de opciones de desarrollo, lo que facilita su diseño y mantenimiento. En este modelo, cada interacción con la interfaz del usuario es transformada en una petición HTTP (HyperText Transfer Protocol), la cual es enviada al servidor web. De esta forma, el servidor web, no sólo debe atender a los requerimientos relacionados con información proveniente de sus bases de datos, sino que también debe 1 Francisco A. Lizarralde, “Aplicaciones dinámicas de Internet. Un nuevo enfoque para su desarrollo en educación”, Facultad de Informática - UNLP, Año 2008. Página I. 5 hacerse cargo de la actualización de la página misma, enviando al navegador el código HTTP y CSS (Cascade Style Sheets) necesarios para dicha tarea”2. Este tipo de interacción demandaba del servidor una respuesta inmediata y dinámica para la que todavía no estaba listo en términos de masividad. La sobrecarga en el servidor para responder a los requerimientos de los usuarios reducía el nivel de interactividad de las aplicaciones. Pero este tipo de “relación” poseía un gran beneficio: “Sin embargo, independientemente del nivel de interactividad logrado, una de las mayores ventajas de las aplicaciones web, comparadas con las aplicaciones cliente-servidor convencionales, es que el usuario no necesita instalar un programa especial para cada aplicación que desee utilizar. Sólo necesita tener instalado un navegador y una conexión a internet, lo que simplifica notablemente su distribución y actualización, ya que al conectarse al servidor siempre contará con la última versión disponible, instalada y funcionando”3. En la siguiente etapa aparecen las Aplicaciones dinámicas de internet. Francisco A. Lizarralde, para no entrar en ambigüedades de definición ni de impactos sociales, decide despegarse del término “Web 2.0” y en cambio definir estrictamente sus particulares aplicaciones en función de los usuarios. Así define que “la principal desventaja del modelo anterior es que toda la interacción con la aplicación es procesada íntegramente en el servidor. Esto significa que, cada interacción del usuario con la aplicación se traduce en una petición al servidor, la cual es procesada por el mismo y posteriormente, la respuesta es enviada nuevamente al cliente, lo que generalmente produce la actualización de toda la página web, por parte del navegador de Internet. Una de las principales características de las Aplicaciones dinámicas de internet es la delegación de una parte del procesamiento en el cliente, sobre todo, lo referente a la interacción directa con el usuario. Esta distribución de las responsabilidades entre cliente y servidor presenta las siguientes ventajas: -Mayor interactividad: Al delegarse parte del procesamiento en el cliente, el usuario suele percibir una respuesta más inmediata al interactuar con la 2 Ibíd. 3 Ibíd. Página 2. 6 aplicación, que la obtenida con las aplicaciones web tradicionales, que realizan todo el procesamiento en el servidor. -Actualización permanente: parte del código de la aplicación se transfiere directamente al navegador al arrancar la misma y suele actualizarse frecuentemente a medida que la misma se está ejecutando, por esta razón no es necesaria ninguna actualización de versiones. -Ejecución sin instalación previa: El código de la aplicación se va descargando de Internet mientras la misma se ejecuta, por lo tanto, no es necesaria una instalación previa de la aplicación en la computadora del usuario. -Distribución y ejecución multiplataforma: Lo único que necesita el usuario para utilizarlas es un navegador de Internet. El código de las Aplicaciones dinámicas de internet es interpretado por el propio navegador, lo que lo hace independiente del sistema operativo que utilice el usuario. Por lo tanto, no es necesario contar con diferentes versiones para cada sistema operativo”4 La actualización por partes de las páginas web (según los requerimientos del usuario) planteó la posibilidad a su vez de desarrollar toda la navegación del sitio en la misma página. Este nueva forma de respuesta a los requerimientos del usuario quebró “así, con el paradigma de navegación página por página de los sitios web tradicionales”5. Este conjunto de tecnología se agrupa bajo el nombre de AJAX. Es así que los requerimientos de los usuarios en la participación activa en la red obligó a respuestas técnicas inmediatas: por un lado el refuerzo de los servidores y la reformulación de los mismos a fin de poder dar abasto a la masividad y a las continuas “respuestas” que debía realizar a los usuarios y, por otro, a la participación real a través de la producción y distribución de contenidos producidos por los hasta entonces usuarios. Es así que los blogs, fotologs, flickr, myspaces y otros cientos de espacios de intervención de los usuarios se masificaron no sólo objetos de consumo (que también lo son), sino como espacios de divulgación de obras creativas o por el sólo hecho de publicar compulsivamente sin noción de búsqueda cultural de la estética o contenido. Como una herramienta social democratizada. 4 Ibíd. Página 4. 5 Ibíd. Página 10. 7 Es así que las utilidades se fueron despejando de las necesidades meramente informáticas (si bien tienen una clara necesidad de integración y de base ineludible) y se fueron acercando a las necesidades de los usuarios. Juan Alberto Ortiz Fernández en su tesis -y a diferencia del caso anterior- propone una definición de Web 2.0: “El termino Web 2.0 no representa una tecnología en particular ni tampoco una versión en el sentido computacional, sino que intenta expresar una nueva forma para lo que conocemos como comunicaciones interpersonales basadas en la Internet. Es complicado esbozar una definición para esta tendencia, ya que al ser justamente una tendencia evoluciona rápidamente al pasar de los años. En Noviembre del 2007 John Musser, Tim O’Reilly y el equipo de O’Reilly Radar en su publicación “Web 2.0 Principles and Best Practices” (9) desarrollan su teoría en base a la formulación de la siguiente definición: “La Web 2.0 es un conjunto de tendencias económicas, sociales y tecnológicas que de manera colectiva forman la base para la siguiente generación de Internet – un medio más maduro y distinguido caracterizado por la participación de los usuarios, la apertura y los efectos de red””6. “Claramente -dice Fernández-, nos encontramos ante un nuevo nivel de la revolución que originalmente genero el surgimiento de Internet”. Aclarando que su recorte está enfocado a la relación cliente-empresa desarrolla el peso de la Web 2.0 en términos sociales y distingue: “-Participación: promueven la contribución y la retroalimentación de cualquiera que esté interesado en opinar. Hace difusa la línea entre medios y audiencia. -Apertura: la mayoría de los servicios de tipo social media están abiertos a la retroalimentación y la participación. Promueven la generación de comentarios y el intercambio de información. -Conversación: mientras que los medios clásicos de comunicación se basan en la “emisión” (contenidos transmitidos o distribuidos a una audiencia), los social media están vistos como una conversación ida y vuelta. 6 Juan Alberto Ortiz Fernández, “Análisis de la tendencia Web 2.0, y su aplicación a la relación cliente-empresa”, Instituto Argentino Aeronáutico, año 2009. Página 28. 8 -Comunidad: los social media permiten que se formen comunidades rápidamente y que se comuniquen de forma efectiva. Estas comunidades comparten intereses en común, como ser el amor a la fotografía, temas de política o programas de TV. -Conectividad: La mayoría de los tipos de social media prosperan en su inter conectividad, haciendo uso de links a otros sitios, recursos y gente”7. A su vez propone una distinción para dentro de la Web 2.0 debido a su continua evolución entre: Redes sociales, Blogs, Wikis, Podcasts, Foros, Comunidades de contenidos, y Microblogging, analizando profundamente sus divergencias y sus cualidades particulares. Uno de los puntos fuertes de este trabajo es el análisis estadístico, llegando a conclusiones importantes y desmitificando la participación activa de los usuarios, ya que -como asegura- “sólo un pequeño porcentaje de los usuarios se tomaran conscientemente el trabajo de agregar valor a una aplicación. (Por ejemplo, solo el 2% de los usuarios de la Wikipedia son activos y contribuyen contenidos en un mes dado y por naturaleza, la gente es inercial y tiende a aceptar las opciones por defecto”8. Conclusión A la vera del trabajo de tesis a realizar, es indispensable el conocimiento de las nuevas tecnologías como base de las posibilidades que ellas ofrecen. Más allá de los conocimientos técnicos que muchas veces se vuelven indispensables para la comprensión global de la temática (aunque se encuentren alejados en apariencia a los rasgos de comunicación) el acercamiento a estos trabajos de tesis refuerzan los cimientos para poder abocarse a la circulación y creación de los contenidos artísticos y culturales que sobre la base de la tecnología se producen en los nuevos ámbitos sociales y, sobre todo, a sus rasgos comunicacionales. El trabajo de Francisco A. Lizarralde se aboca al interés del autor de proporcionar un acercamiento de las nuevas tecnologías a los ámbitos educativos. El trabajo del autor hace especial hincapié en lo técnico ya que es desde allí que proporciona las soluciones a la problemática haciendo un recorrido explícito por los lenguajes de programación y además, claro, enmarcado en ser un trabajo producido desde y 7 Ibíd. Página 29. 8 Ibíd. Página 60. 9 para la Facultad de Informática. El material bibliográfico utilizado por el autor es en su mayoría de tipo técnico, no ampliando el bagaje de búsqueda. El punto destacable del trabajo, a raíz de la búsqueda personal, es el recorrido histórico de las tecnologías aplicadas para internet en relación con los usuarios como receptores. Desde allí es que Lizarralde se enfoca en la actualidad para abocarse al ámbito educativo: donde como base predomina el intercambio de conocimiento, la recepción y la respuesta. En cambio, Juan Alberto Ortiz Fernández propone el eje de su tesis en los planos de comunicación, integración y participación. Si bien su lógica responde a los intereses empresariales y ve a las nuevas tecnologías como una forma novedosa de cooptar clientes, el autor realiza un análisis social profundo de la implicancia de las nuevas tecnologías. Si bien no puntualiza nunca en las obras artísticas, sí pone como “creadores” a los usuarios, relevando así la importancia de la democratización de los mensajes, no como propiedad de la empresa o del servidor, sino como un bien dinámico social a los cuales -en este caso- la empresa debe tomar especial atención. El trabajo se basa en la planificación empresarial para con los clientes desde las estructuras digitales, desde allí la propuesta de Ortiz Fernández resulta poco relevante para los intereses de la búsqueda. Pero es de especial interés el recorrido cualitativo y cuantitativo que el autor realiza de las herramientas de la World Wide Web como objetos de bien social. Su bibliografía se basa en su mayor parte en la utilización práctica de las herramientas de internet y de la Web 2.0, lo interesante está en su enfoque social. 10