Las TICs y la Ley de Moore Andrés González Molina Tribuna Este curioso artículo hace un interesante repaso de algunas de las principales leyes que subyacen en el desarrollo tecnológico. En 1965 G.E. Moore formuló su ya famosa ley de crecimiento exponencial del número de transistores por chip de silicio. Desde entonces se ha venido corroborando el cumplimiento, no solo de la Ley de Moore, sino de muchos otros indicadores evolutivos de las Tecnologías de la Información y la Comunicación, y, entre ellos, la velocidad de acceso a Internet. Si utilizamos el buscador de Google para encontrar referencias a las leyes de Newton, encontraremos 27400 entradas. Si buscamos la ley de Gauss, serán 5290, y si son las leyes de Maxwell, 531. Probemos ahora con la ley de Moore. Serán nada menos que 73100 referencias directas las que se nos ofrecen [1]. Si tomamos estos resultados numéricos como un índice aproximado de notoriedad en la red, y, por extensión lógica, en la sociedad, lo mínimo que se puede decir de la ley que Gordon Earle Moore formuló hace ya 44 años, es que se ha vuelto muy popular. Dado que la observación inicial de Mr. Moore- directivo de Fairchild y posteriormente cofundador de Intel- versaba sobre la densidad de transistores en chips de silicio, y dado que éstos constituyen la base tecnológica del mundo digital, no es de extrañar que sus afirmaciones hayan sido extrapolables a muchos de los indicadores evolutivos del ámbito de las TICs (Wikipedia: Moore’s Law). En su formulación inicial, la pauta observada por Moore se refería exclusivamente al número de transistores por circuito integrado – para máxima eficiencia y por tanto mínimo costo unitario -, duplicándose cada año (Cramming more components onto integrated circuits). Posteriormente, la ley se redefinió en términos del máximo número absoluto -tecnológicamente posible de transistores por chip, que se duplicaban cada dos años. El reino de lo exponencial A partir de aquí, la referencia a la ley de Moore para comprobar el ritmo de crecimiento o mejora de todo tipo de tecnologías, sistemas o componentes se disparó. No tiene nada de sorprendente, dada que la más leve cita a la ley de Moore en cualquier presentación o conferencia parece otorgar notoriedad a quien la utiliza, siendo frecuente que la ocurrencia se premie con dar su nombre a una nueva ley derivada. Hoy, entre las más conocidas generalizaciones de la ley cabe citar: La potencia de proceso a precio constante: se duplica cada 2 años. La capacidad de los discos duros a precio constante y en un PC comercial - ley de Kryder- se duplica cada 18 meses (ver referencia 3). Capacidad de la RAM a precio constante: se duplica cada 2 años. Resolución, en pixels, de una cámara digital a precio constante -ley de Hendys- se duplica cada 18 meses. Hasta aquí hemos citado variantes basadas en dispositivos electrónicos, de los que cabe esperar un comportamiento similar: el crecimiento exponencial [2], aunque con distintos ritmos temporales de duplicación. Pero hay otros parámetros relacionados con Internet que siguen también leyes exponenciales: Volumen de Información en Internet (universo digital): Según datos recientes de la consultora IDC, alcanzó un tamaño en 2008 de 487.000 millones de gigabytes, y se duplicará cada 18 meses. Ley de Butters (Lucent): la capacidad binaria en la fibra óptica se duplica cada 9 meses (¡una de las más rápidas!). El número total de blogs en el mundo (blogosfera) entre comienzos del 2004 y marzo del 2006 se duplicaba cada 6 meses. La Ley de Nielsen en España La Ley de Nielsen afirma que la velocidad del acceso a Internet para usuarios “avanzados” se duplica cada 21 meses, al menos en USA (Nielsen's Law of Internet Bandwidth), país donde experimentó personalmente la evolución. Detengámonos por un momento en esta última ley, integrante del ingente cuerpo legislativo inaugurado por Moore, y cuyo número también parece haber crecido exponencialmente. Si reflejamos para España la velocidad del acceso más popular, obtendremos en escala logarítmica la aproximación a una recta que implica una duplicación de la velocidad cada 15 meses. La elección de los datos de partida es discutible, al tenerse en cuenta un periodo de 11 años que cubre tanto la etapa de la banda estrecha como la del inicio y despliegue del ADSL. A título de justificación, conviene clarificar que, aún no siendo usuario avanzado, he seguido la misma metodología que Nielsen, es decir, he utilizado las modalidades de acceso reales que he disfrutado – o sufrido – en mi propio domicilio. Excepciones y límites ¿Todo se duplica en menos de dos años en Internet y en las tecnologías asociadas? ¿existen límites al crecimiento? Es obvio que a la primera pregunta hay que responder con un no, pero no resulta tan obvio el decir sí a la segunda. La ley de Wirth afirma que la lentitud impuesta por la complejidad creciente de cada nueva versión de software evoluciona más rápidamente que la velocidad de proceso del hardware de un ordenador de sobremesa, con lo que el tiempo preciso para realizar una tarea por un típico trabajador de oficina no solo no disminuye exponencialmente, sino que probablemente esté aumentando. Aunque la anterior ley no deja de ser una simpática crítica a Microsoft, existen muchas variables de las TICs que no crecen a ritmos “tipo Moore”, o lo han hecho solo en un corto periodo de tiempo. El porcentaje de hogares con acceso a internet no puede crecer indefinidamente -y desde luego no lo hace exponencialmente-. Tampoco mejora hoy exponencialmente la autonomía de los ordenadores portátiles o la cifra de internautas que hacen uso de telebanca. En general, debemos volver a las tecnologías de base para encontrar un claro predominio de crecimientos exponenciales, y es aquí donde cabe preguntarse por los límites. El propio G. Moore ha apuntado ya que nada crece indefinidamente sin que ocurra finalmente un desastre. Sin embargo, no es fácil distinguir dichos desastres en el horizonte. Para su propia ley se habían fijado límites sucesivos debidos a impurezas y dislocaciones en el silicio, al calor generado, etc…, pero lo cierto es que hoy casi todos los fabricantes, encabezados por Intel, predicen aún uno o dos decenios de alto crecimiento, siendo ahora la limitación predecible la proximidad del tamaño de un elemento lógico al del propio átomo de silicio. Pero tras un par de décadas, cabe esperar discontinuidades tecnológicas, tales como uso de superconductores a baja temperatura (ver referencia 2), computación cuántica, etc…que expandirían nuevamente la aplicabilidad de la ley de Moore. ¿Fin del crecimiento de la velocidad de acceso a Internet? No parecen existir barreras técnicas insalvables a medio plazo para incrementar la velocidad del acceso a Internet. Aunque ahora se esté alcanzando uno de los límites tecnológicos –el de las tecnologías DSL sobre los sufridos pares de cobre- en paralelo se está ya realizando el despliegue de fibra hasta el hogar. En Japón la velocidad típica de contratación de un acceso en fibra en el 2009 es ya superior a los 80 Mbps. Hay una cierta corriente de opinión acerca de que el verdadero límite vendrá por la falta de necesidad del crecimiento, es decir, por no existir aplicaciones que inciten a contratar un mayor ancho de banda. Sin necesidad de recurrir aquí a la probable recepción de varios canales de televisión de alta definición simultáneos, podemos afirmar que el ancho de banda del acceso será siempre un recurso deseable mientras que la velocidad de descarga –o envío – de un fichero sea superior para un disco duro local que para un servidor remoto, es decir, mientras la distancia suponga una limitación de cualquier tipo para las TICs. Para redactar este artículo utilizo un disco duro con una velocidad media de lectura de unos 320 Megabits/seg. Y mi acceso a Internet es de 6 Megabits / seg. Suponiendo que esta velocidad del acceso siga creciendo al mismo ritmo de los últimos once años, necesitaría unos ocho años para poder utilizar aplicaciones residentes en servidores remotos con la misma fluidez que las que utilizo hoy en local. Y, para entonces, el nuevo software hará todo mucho más lento, según la incómoda ley de Wirth. Así que, sin limitaciones tecnológicas firmes y con necesidades reales que satisfacer, cabe prever una larga vida a la evolución del acceso. Casi tanta como a la densidad de transistores en los circuitos integrados. Por cierto, solo he encontrado una ley con mayor e_popularidad que la de Moore en Google. Es la ley de Murphy, que aparece referenciada 138000 veces. Pero esto es ya otra historia. Autor: Andrés González Molina, ex directivo de Telefónica Notas [1] Con el fín de obtener una cierta uniformidad en la obtención de resultados, y obtener la mayor base estadística posible, se utilizaron búsquedas en inglés y con las palabras exactas – Moore’ law, Newton’s laws,… – y limitada a apariciones en el último año. [2] Puesto que toda serie numérica puede ser aproximable mediante una exponencial con coeficiente suficientemente pequeño en el exponente, entenderemos en este artículo por “exponenciales” a aquellas variables que tienden a duplicarse en plazos no superiores a los 2 años. Referencias biliográficas 1. John Battelle,. “Buscar : como Google y sus rivales han revolucionado los mercados y transformado nuestra cultura” Editorial Tendencia, 2006. 2. Andre K. Geim and Philip Kim. “Carbon Wonderland” Scientific American, April 2008. 3. Chip Walter, “Klyder’s law” Scientific American, Insights section, August 2005. 4. David C. Brock (editor) Understanding Moore's Law: Four Decades of Innovation. Edited. Chemical Heritage Press, 2006. Artículos y publicaciones disponibles en Internet 1. Gordon E. Moore. “Cramming more components onto integrated circuits” Electronics, Volume 38, Number 8, Apri1965. 2. Moore’s Law. Wikipedia. 3. Emin Gün Sirer and Rik Farrow. Some lesser-known laws of computer science. LOGIN August 2007. 4. Nielsen’s Law on Internet bandwdith Imágenes Figura 1. (fuente: Publicación de G.Moore en 1965 en la revista Electronícs, ver referencia 5). Figura 2. (Fuente: Barry Hendy, Kodak Australia).