Estado del arte en la interacción de los usuarios de Internet

Anuncio
Estado del arte en la interacción de los usuarios de internet
Por Daniel Ayala
[email protected]
Palabras clave
Software libre, tecnología, comunicación, contracultura, vanguardia, arte,
circulación, autor, propiedad, libertad, socialización, difusión, expresión, ruptura,
cibercultura, nuevas tecnologías, internet
Resumen
El objetivo principal de esta ponencia es dinamizar y evidenciar las lecturas
realizadas en función a la temática de la investigación bajo la cual desarrollaré
mi tesis. La misma consiste en analizar la construcción y los modos de
comunicación social que plantea el software libre a través de la ruptura que
realiza con la propiedad intelectual de las obras, especialmente con las de tipo
artístico/cultural (música, fotografía, arte en general). A partir de allí, poder
delinear la incidencia que tiene sobre los lineamientos jurídicos, y en la
distribución y socialización de las obras culturales.
Así, las lecturas podrían dividirse según su relación con la temática expuesta. Por
un lado las referidas a la terminología “dura”. Aquellas que reseñan a las
concepciones informáticas y jurídicas del intercambio. Las relacionadas con las
evoluciones en el campo de lo digital y la adaptación de lo jurídico. Y por otro,
aquellas referidas a los ámbitos más simbólicos: los artísticos.
El software libre -como contrapunto del software privativo- se identifica a través
de la disponibilidad de su código fuente y en el permiso hacia los usuarios de
intervenir en los programas y obras que consume a través de la modificación
estructural de los mismos, como así también en la intervención referida a su
distribución, volviendo a los usuarios creadores de aquello que consumen. Es
por ello que entender la evolución de los usuarios no intervencionistas a usuarios
activos se torna imprescindible en el trabajo de tesis.
1
Introducción
Los derechos de autor y el copyright (el derecho a copia de las obras) son
concepciones del derecho que se vienen forjando desde el estatuto de la reina Ana
de Inglaterra (1709) y que en su evolución histórica concedieron al propietario
derechos monopolistas sobre la obra creativa (comparables a derechos básicos de
la propiedad privada moderna). Los derechos de autor fueron una respuesta
necesaria a la invención de la imprenta, ya que fue la primera vez en la historia
que una obra pudo copiarse de manera seriada. La evolución de la tecnología y las
posibilidades ciertas de reproducción de obras en diferentes formatos forjaron un
endurecimiento en las leyes relacionadas a la protección de las obras creativas.
La aparición de internet, a su vez, dispuso de un nuevo campo de acción tanto
para usuarios/consumidores y usuarios/creadores como para una legislación que
se encontró superada por la aparición de un nuevo soporte que no respetaba
divisiones políticas ni restricciones de publicación: cada vez más personas se
transformaron en canales de circulación de obras, ya sea copiando y
distribuyendo, como creando y difundiendo.
Los derechos de autor nacen como promotores a la realización de obras culturales
y en el justificativo básico de que los autores tienen el derecho de vivir de sus
creaciones. Hoy por hoy las diferentes lecturas de lo jurídico hacen que muchas
obras ostenten una licencia de pertenencia emparentadas directamente a empresas
privadas, corporaciones anónimas, y hasta existe un comercio de venta de
derechos que hace que -en muchos casos- obras históricas y hasta pertenecientes
al folclore popular (muchas de ellas anónimas), por ejemplo la melodía del “Feliz
cumpleaños”, sean privativas al dominio público.
Es así como en la actualidad el copyrigth se transformó en una herramienta de
defensa proteccionista de inversores y mega empresas, ya que los artistas –en su
mayoría- no viven de las ganancias producidas por la venta de su obras, sino que
éstas sirven como difusoras de sus “otras” actividades: como las presentaciones en
vivo, venta de originales, atribución de renombre, etc.
Una de las batallas más efectivas contra el comercio creativo y la privatización de
herramientas culturales sociales se dio a partir del nacimiento del software libre en
los años ’70. El software libre como concepto se refiere a cuatro libertades
esenciales que lo hacen sustancialmente diferente a los de tipo privativo: la
2
primera de las libertades es la de usar el programa con cualquier propósito, la
segunda la de estudiar cómo funciona el programa y adaptarlo a cada necesidad, la
tercera la de distribuir copias y, por último, la cuarta consiste en mejorar el
programa y publicar los adelantos a los demás de modo que todos se beneficien.
Esto se puede realizar de forma gratuita o cobrando por la distribución. La libertad
(que así debe ser traducido del inglés, ya que la terminología “free” no debe
cerrarse a lo gratuito) radica en su falta de restricción a utilizarlo bajo cualquier
soporte, para cualquier clase de trabajo y sin la obligación de rendirle cuentas a
ninguna entidad ni persona por ello.
La aclamada libertad de este tipo de software radica en su disponibilidad al acceso
del código fuente, algo así como dejar a la vista de todos la receta secreta del
contenido de Coca-Cola, y permitir -además- que cada consumidor realice su
propia versión de la bebida. Programas dependientes a empresas como Microsoft,
entre muchas otras, cuidan su código fuente cerrando el acceso a sus programas
sólo a su uso y para un único consumidor, previo abono y bajo la constatación del
certificado de autenticidad. El software libre no prohíbe su venta, pero sí -una vez
obtenido- permite copiar, modificar, intercambiar y hasta vender las copias.
Además de utilizar un lenguaje de programación distintivo para este tipo de
programas (GNU), su creación motivó la creación del copyleft, una variante
abierta y en claro pie de enfrentamiento del copyrigth.
Es así que con el software libre no existe una distinción clara entre desarrolladores
y usuarios, ya que todos forman parte de una comunidad global. Si bien
históricamente se pretendió que los usuarios de este tipo de programas posean
mayores conocimientos técnicos que el modelo de usuario dócil de tipo Microsoft,
teniendo conocimientos profundos de los lenguajes de programación, en las
últimas dos décadas esto se fue revirtiendo. La diferencia entre los usuarios
finales se está acortando y el software libre saca una clara ventaja. Por un lado
acerca una serie de beneficios a usuarios alejados de ese tipo de programas, y por
otro diversifica los requerimientos ampliando las necesidades.
Actualmente, a raíz de las políticas monopólicas, las empresas pequeñas y
medianas encargadas de la fabricación de software temen competir de manera
fuerte y es por ello que quedan relegadas a micro proyectos. Cuando empiezan a
interesar y a demostrar su capacidad dentro del mercado son compradas por las
3
corporaciones dominantes de esa red de poder económico/empresarial. E aquí la
ventaja sustancial, el software libre no puede ser comprado y mucho menos
quebrar, ya que no responde a las leyes tradicionales del mercado.
Como desprendimiento de este tipo de desarrollo libre nace un tipo de licencia
denominada Creative Commons. Este tipo de licencia hace un corrimiento de las
libertades del software libre a las obras artísticas distribuidas digitalmente pero
sostenidas en soportes varios (desde la propia internet hasta en CD -música- o
impresiones -libros, fotos, dibujos-). A través de ella la socialización de la
producción cultural se da no sólo de una forma novedosa desde su circulación,
sino en la intervención de las obras; ya que rompe con la lógica restrictiva de la
obra como creación individual (más allá de la posibilidad de la coautoría grupal
de artistas) poniendo al conjunto de los consumidores de ella como posibles
creadores y coautores.
Este tipo de circulación sería impensado sin internet aglutinando a creadores,
consumidores, al dinamismo y a la inmediatez en la comunicación; de manera tal
que los límites entre unos y otros (creadores, consumidores, circulación e
inmediatez) se van desdibujando. Es por ello que los procesos históricos de la
World Wide Web operan con importancia sustancial en los procesos creativos del
arte actual.
Así, el análisis del trabajo “Aplicaciones dinámicas de Internet. Un nuevo enfoque
para su desarrollo en educación” (2008) de Francisco A. Lizarralde, dirigido por
el Profesor Licenciado Luis Mariano Bibbó, enmarcado en el trabajo final del
postgrado de Tecnología Informática Aplicada en Educación de la Facultad de
Informática de la Universidad Nacional de La Plata, se agrupa como un trabajo de
interés para observar desde el campo de la informática el desarrollo de las
tecnología de internet para responder a las necesidades de interacción entre los
desarrolladores y los usuarios.
Y por otro lado, la tesis “Análisis de la tendencia Web 2.0, y su aplicación a la
relación cliente-empresa” (2009), de Juan Alberto Ortiz Fernández
(http://www.lawebdejuan.com.ar) para el Instituto Argentino Aeronáutico servirá
para poner en términos sociales y ya no meramente técnicos los alcances de la
interacción de los usuarios.
4
Desarrollo
Como se aclara desde los objetivos planteados en la Tesis de Francisco Lizarralde,
lo que se analiza en el trabajo son las aplicaciones dinámicas de Internet
supeditadas a lograr “un mayor nivel de expresividad y de interactividad”1.
En el trabajo se analiza la implementación del usuario como destinatario
ineludible para la web. Y las divide en etapas: en la primera, la llamada clásica,
los usuarios sólo se disponían frente a los contenidos como simples
recepcionistas: leían la información que las páginas ofrecían y relacionaban a las
páginas con lo que ellas mismas ofrecían como vínculos complementarios (URL).
Tiempo después comenzaron a utilizarse programas instalados en los servidores
que lograron una mayor interacción con usuarios, pudiendo por ejemplo éstos
llenar formularios con su envío posterior a los servidores.
“Inicialmente, las aplicaciones de Internet estaban constituidas básicamente por
páginas web escritas en HTML (HyperText Markup Language). Este lenguaje,
utilizado originalmente para escribir páginas web estáticas, utiliza ciertas marcas
(tags), para describir la estructura y su contenido en forma textual, e incluso
complementar el texto con contenidos diversos, como imágenes, sonidos, etc.
Estas páginas web se relacionan a su vez con otras, por medio de enlaces.
Creando así, las bases de una estructura hipertextual de navegación. Es decir,
conforman un conjunto de información textual, gráfica y sonora, enlazada entre
sí, o con otras informaciones relacionadas. Estos enlaces, permiten un recorrido
de la información en una forma no siempre prefijada ni secuencial. Este modelo
representa una arquitectura relativamente simple, con un conjunto limitado de
opciones de desarrollo, lo que facilita su diseño y mantenimiento. En este modelo,
cada interacción con la interfaz del usuario es transformada en una petición
HTTP (HyperText Transfer Protocol), la cual es enviada al servidor web. De esta
forma, el servidor web, no sólo debe atender a los requerimientos relacionados
con información proveniente de sus bases de datos, sino que también debe
1
Francisco A. Lizarralde, “Aplicaciones dinámicas de Internet. Un nuevo enfoque para su
desarrollo en educación”, Facultad de Informática - UNLP, Año 2008. Página I.
5
hacerse cargo de la actualización de la página misma, enviando al navegador el
código HTTP y CSS (Cascade Style Sheets) necesarios para dicha tarea”2.
Este tipo de interacción demandaba del servidor una respuesta inmediata y
dinámica para la que todavía no estaba listo en términos de masividad. La
sobrecarga en el servidor para responder a los requerimientos de los usuarios
reducía el nivel de interactividad de las aplicaciones. Pero este tipo de “relación”
poseía un gran beneficio: “Sin embargo, independientemente del nivel de
interactividad logrado, una de las mayores ventajas de las aplicaciones web,
comparadas con las aplicaciones cliente-servidor convencionales, es que el
usuario no necesita instalar un programa especial para cada aplicación que
desee utilizar. Sólo necesita tener instalado un navegador y una conexión a
internet, lo que simplifica notablemente su distribución y actualización, ya que al
conectarse al servidor siempre contará con la última versión disponible,
instalada y funcionando”3.
En la siguiente etapa aparecen las Aplicaciones dinámicas de internet. Francisco
A. Lizarralde, para no entrar en ambigüedades de definición ni de impactos
sociales, decide despegarse del término “Web 2.0” y en cambio definir
estrictamente sus particulares aplicaciones en función de los usuarios.
Así define que “la principal desventaja del modelo anterior es que toda la
interacción con la aplicación es procesada íntegramente en el servidor. Esto
significa que, cada interacción del usuario con la aplicación se traduce en una
petición al servidor, la cual es procesada por el mismo y posteriormente, la
respuesta es enviada nuevamente al cliente, lo que generalmente produce la
actualización de toda la página web, por parte del navegador de Internet. Una de
las principales características de las Aplicaciones dinámicas de internet es la
delegación de una parte del procesamiento en el cliente, sobre todo, lo referente a
la interacción directa con el usuario. Esta distribución de las responsabilidades
entre cliente y servidor presenta las siguientes ventajas:
-Mayor interactividad: Al delegarse parte del procesamiento en el cliente, el
usuario suele percibir una respuesta más inmediata al interactuar con la
2
Ibíd.
3
Ibíd. Página 2.
6
aplicación, que la obtenida con las aplicaciones web tradicionales, que realizan
todo el procesamiento en el servidor.
-Actualización permanente: parte del código de la aplicación se transfiere
directamente al navegador al arrancar la misma y suele actualizarse
frecuentemente a medida que la misma se está ejecutando, por esta razón no es
necesaria ninguna actualización de versiones.
-Ejecución sin instalación previa: El código de la aplicación se va descargando
de Internet mientras la misma se ejecuta, por lo tanto, no es necesaria una
instalación previa de la aplicación en la computadora del usuario.
-Distribución y ejecución multiplataforma: Lo único que necesita el usuario
para utilizarlas es un navegador de Internet. El código de las Aplicaciones
dinámicas de internet es interpretado por el propio navegador, lo que lo hace
independiente del sistema operativo que utilice el usuario. Por lo tanto, no es
necesario contar con diferentes versiones para cada sistema operativo”4
La actualización por partes de las páginas web (según los requerimientos del
usuario) planteó la posibilidad a su vez de desarrollar toda la navegación del sitio
en la misma página. Este nueva forma de respuesta a los requerimientos del
usuario quebró “así, con el paradigma de navegación página por página de los
sitios web tradicionales”5. Este conjunto de tecnología se agrupa bajo el nombre
de AJAX. Es así que los requerimientos de los usuarios en la participación activa
en la red obligó a respuestas técnicas inmediatas: por un lado el refuerzo de los
servidores y la reformulación de los mismos a fin de poder dar abasto a la
masividad y a las continuas “respuestas” que debía realizar a los usuarios y, por
otro, a la participación real a través de la producción y distribución de contenidos
producidos por los hasta entonces usuarios. Es así que los blogs, fotologs, flickr,
myspaces y otros cientos de espacios de intervención de los usuarios se
masificaron no sólo objetos de consumo (que también lo son), sino como espacios
de divulgación de obras creativas o por el sólo hecho de publicar
compulsivamente sin noción de búsqueda cultural de la estética o contenido.
Como una herramienta social democratizada.
4
Ibíd. Página 4.
5
Ibíd. Página 10.
7
Es así que las utilidades se fueron despejando de las necesidades meramente
informáticas (si bien tienen una clara necesidad de integración y de base
ineludible) y se fueron acercando a las necesidades de los usuarios.
Juan Alberto Ortiz Fernández en su tesis -y a diferencia del caso anterior- propone
una definición de Web 2.0: “El termino Web 2.0 no representa una tecnología en
particular ni tampoco una versión en el sentido computacional, sino que intenta
expresar una nueva forma para lo que conocemos como comunicaciones
interpersonales basadas en la Internet. Es complicado esbozar una definición para
esta tendencia, ya que al ser justamente una tendencia evoluciona rápidamente al
pasar de los años. En Noviembre del 2007 John Musser, Tim O’Reilly y el equipo
de O’Reilly Radar en su publicación “Web 2.0 Principles and Best Practices” (9)
desarrollan su teoría en base a la formulación de la siguiente definición: “La Web
2.0 es un conjunto de tendencias económicas, sociales y tecnológicas que de
manera colectiva forman la base para la siguiente generación de Internet – un
medio más maduro y distinguido caracterizado por la participación de los
usuarios, la apertura y los efectos de red””6.
“Claramente -dice Fernández-, nos encontramos ante un nuevo nivel de la
revolución que originalmente genero el surgimiento de Internet”. Aclarando que
su recorte está enfocado a la relación cliente-empresa desarrolla el peso de la Web
2.0 en términos sociales y distingue:
“-Participación: promueven la contribución y la retroalimentación de cualquiera
que esté interesado en opinar. Hace difusa la línea entre medios y audiencia.
-Apertura: la mayoría de los servicios de tipo social media están abiertos a la
retroalimentación y la participación. Promueven la generación de comentarios y
el intercambio de información.
-Conversación: mientras que los medios clásicos de comunicación se basan en la
“emisión” (contenidos transmitidos o distribuidos a una audiencia), los social
media están vistos como una conversación ida y vuelta.
6
Juan Alberto Ortiz Fernández, “Análisis de la tendencia Web 2.0, y su aplicación a la relación
cliente-empresa”, Instituto Argentino Aeronáutico, año 2009. Página 28.
8
-Comunidad: los social media permiten que se formen comunidades rápidamente
y que se comuniquen de forma efectiva. Estas comunidades comparten intereses
en común, como ser el amor a la fotografía, temas de política o programas de TV.
-Conectividad: La mayoría de los tipos de social media prosperan en su inter
conectividad, haciendo uso de links a otros sitios, recursos y gente”7.
A su vez propone una distinción para dentro de la Web 2.0 debido a su continua
evolución entre: Redes sociales, Blogs, Wikis, Podcasts, Foros, Comunidades de
contenidos, y Microblogging, analizando profundamente sus divergencias y sus
cualidades particulares. Uno de los puntos fuertes de este trabajo es el análisis
estadístico, llegando a conclusiones importantes y desmitificando la participación
activa de los usuarios, ya que -como asegura- “sólo un pequeño porcentaje de los
usuarios se tomaran conscientemente el trabajo de agregar valor a una
aplicación. (Por ejemplo, solo el 2% de los usuarios de la Wikipedia son activos y
contribuyen contenidos en un mes dado y por naturaleza, la gente es inercial y
tiende a aceptar las opciones por defecto”8.
Conclusión
A la vera del trabajo de tesis a realizar, es indispensable el conocimiento de las
nuevas tecnologías como base de las posibilidades que ellas ofrecen. Más allá de
los conocimientos técnicos que muchas veces se vuelven indispensables para la
comprensión global de la temática (aunque se encuentren alejados en apariencia a
los rasgos de comunicación) el acercamiento a estos trabajos de tesis refuerzan los
cimientos para poder abocarse a la circulación y creación de los contenidos
artísticos y culturales que sobre la base de la tecnología se producen en los nuevos
ámbitos sociales y, sobre todo, a sus rasgos comunicacionales.
El trabajo de Francisco A. Lizarralde se aboca al interés del autor de proporcionar
un acercamiento de las nuevas tecnologías a los ámbitos educativos. El trabajo del
autor hace especial hincapié en lo técnico ya que es desde allí que proporciona las
soluciones a la problemática haciendo un recorrido explícito por los lenguajes de
programación y además, claro, enmarcado en ser un trabajo producido desde y
7
Ibíd. Página 29.
8
Ibíd. Página 60.
9
para la Facultad de Informática. El material bibliográfico utilizado por el autor es
en su mayoría de tipo técnico, no ampliando el bagaje de búsqueda. El punto
destacable del trabajo, a raíz de la búsqueda personal, es el recorrido histórico de
las tecnologías aplicadas para internet en relación con los usuarios como
receptores. Desde allí es que Lizarralde se enfoca en la actualidad para abocarse al
ámbito educativo: donde como base predomina el intercambio de conocimiento, la
recepción y la respuesta.
En cambio, Juan Alberto Ortiz Fernández propone el eje de su tesis en los planos
de comunicación, integración y participación. Si bien su lógica responde a los
intereses empresariales y ve a las nuevas tecnologías como una forma novedosa
de cooptar clientes, el autor realiza un análisis social profundo de la implicancia
de las nuevas tecnologías. Si bien no puntualiza nunca en las obras artísticas, sí
pone como “creadores” a los usuarios, relevando así la importancia de la
democratización de los mensajes, no como propiedad de la empresa o del
servidor, sino como un bien dinámico social a los cuales -en este caso- la empresa
debe tomar especial atención. El trabajo se basa en la planificación empresarial
para con los clientes desde las estructuras digitales, desde allí la propuesta de
Ortiz Fernández resulta poco relevante para los intereses de la búsqueda. Pero es
de especial interés el recorrido cualitativo y cuantitativo que el autor realiza de las
herramientas de la World Wide Web como objetos de bien social. Su bibliografía
se basa en su mayor parte en la utilización práctica de las herramientas de internet
y de la Web 2.0, lo interesante está en su enfoque social.
10
Descargar