En 1965 GE Moore formuló su ya famosa ley de crecimiento

Anuncio
Las TICs y la Ley de Moore
Andrés González Molina
Tribuna
Este curioso artículo hace un interesante repaso de algunas de las principales leyes que subyacen en el desarrollo tecnológico.
En 1965 G.E. Moore formuló su ya famosa ley de crecimiento exponencial del número de transistores por
chip de silicio. Desde entonces se ha venido corroborando el cumplimiento, no solo de la Ley de Moore,
sino de muchos otros indicadores evolutivos de las Tecnologías de la Información y la Comunicación, y,
entre ellos, la velocidad de acceso a Internet.
Si utilizamos el buscador de Google para encontrar referencias a las leyes de Newton, encontraremos
27400 entradas. Si buscamos la ley de Gauss, serán 5290, y si son las leyes de Maxwell, 531. Probemos
ahora con la ley de Moore. Serán nada menos que 73100 referencias directas las que se nos ofrecen [1]. Si
tomamos estos resultados numéricos como un índice aproximado de notoriedad en la red, y, por extensión
lógica, en la sociedad, lo mínimo que se puede decir de la ley que Gordon Earle Moore formuló hace ya
44 años, es que se ha vuelto muy popular.
Dado que la observación inicial de Mr. Moore- directivo de Fairchild y posteriormente cofundador de
Intel- versaba sobre la densidad de transistores en chips de silicio, y dado que éstos constituyen la base
tecnológica del mundo digital, no es de extrañar que sus afirmaciones hayan sido extrapolables a muchos
de los indicadores evolutivos del ámbito de las TICs (Wikipedia: Moore’s Law).
En su formulación inicial, la pauta observada por Moore se refería exclusivamente al número de
transistores por circuito integrado – para máxima eficiencia y por tanto mínimo costo unitario -,
duplicándose cada año (Cramming more components onto integrated circuits).
Posteriormente, la ley se redefinió en términos del máximo número absoluto -tecnológicamente posible de transistores por chip, que se duplicaban cada dos años.
El reino de lo exponencial
A partir de aquí, la referencia a la ley de Moore para comprobar el ritmo de crecimiento o mejora de todo
tipo de tecnologías, sistemas o componentes se disparó. No tiene nada de sorprendente, dada que la más
leve cita a la ley de Moore en cualquier presentación o conferencia parece otorgar notoriedad a quien la
utiliza, siendo frecuente que la ocurrencia se premie con dar su nombre a una nueva ley derivada. Hoy,
entre las más conocidas generalizaciones de la ley cabe citar:
La potencia de proceso a precio constante: se duplica cada 2 años.
La capacidad de los discos duros a precio constante y en un PC comercial - ley de Kryder- se
duplica cada 18 meses (ver referencia 3).
Capacidad de la RAM a precio constante: se duplica cada 2 años.
Resolución, en pixels, de una cámara digital a precio constante -ley de Hendys- se duplica cada 18
meses.
Hasta aquí hemos citado variantes basadas en dispositivos electrónicos, de los que cabe esperar un
comportamiento similar: el crecimiento exponencial [2], aunque con distintos ritmos temporales de
duplicación. Pero hay otros parámetros relacionados con Internet que siguen también leyes exponenciales:
Volumen de Información en Internet (universo digital): Según datos recientes de la consultora IDC,
alcanzó un tamaño en 2008 de 487.000 millones de gigabytes, y se duplicará cada 18 meses.
Ley de Butters (Lucent): la capacidad binaria en la fibra óptica se duplica cada 9 meses (¡una de
las más rápidas!).
El número total de blogs en el mundo (blogosfera) entre comienzos del 2004 y marzo del 2006 se
duplicaba cada 6 meses.
La Ley de Nielsen en España
La Ley de Nielsen afirma que la velocidad del acceso a Internet para usuarios “avanzados” se duplica
cada 21 meses, al menos en USA (Nielsen's Law of Internet Bandwidth), país donde experimentó
personalmente la evolución.
Detengámonos por un momento en esta última ley, integrante del ingente cuerpo legislativo inaugurado
por Moore, y cuyo número también parece haber crecido exponencialmente.
Si reflejamos para España la velocidad del acceso más popular, obtendremos en escala logarítmica la
aproximación a una recta que implica una duplicación de la velocidad cada 15 meses.
La elección de los datos de partida es discutible, al tenerse en cuenta un periodo de 11 años que cubre
tanto la etapa de la banda estrecha como la del inicio y despliegue del ADSL. A título de justificación,
conviene clarificar que, aún no siendo usuario avanzado, he seguido la misma metodología que Nielsen,
es decir, he utilizado las modalidades de acceso reales que he disfrutado – o sufrido – en mi propio
domicilio.
Excepciones y límites
¿Todo se duplica en menos de dos años en Internet y en las tecnologías asociadas? ¿existen límites al
crecimiento?
Es obvio que a la primera pregunta hay que responder con un no, pero no resulta tan obvio el decir sí a la
segunda.
La ley de Wirth afirma que la lentitud impuesta por la complejidad creciente de cada nueva versión de
software evoluciona más rápidamente que la velocidad de proceso del hardware de un ordenador de
sobremesa, con lo que el tiempo preciso para realizar una tarea por un típico trabajador de oficina no solo
no disminuye exponencialmente, sino que probablemente esté aumentando.
Aunque la anterior ley no deja de ser una simpática crítica a Microsoft, existen muchas variables de las
TICs que no crecen a ritmos “tipo Moore”, o lo han hecho solo en un corto periodo de tiempo. El
porcentaje de hogares con acceso a internet no puede crecer indefinidamente -y desde luego no lo hace
exponencialmente-. Tampoco mejora hoy exponencialmente la autonomía de los ordenadores portátiles o
la cifra de internautas que hacen uso de telebanca.
En general, debemos volver a las tecnologías de base para encontrar un claro predominio de crecimientos
exponenciales, y es aquí donde cabe preguntarse por los límites. El propio G. Moore ha apuntado ya que
nada crece indefinidamente sin que ocurra finalmente un desastre. Sin embargo, no es fácil distinguir
dichos desastres en el horizonte. Para su propia ley se habían fijado límites sucesivos debidos a impurezas
y dislocaciones en el silicio, al calor generado, etc…, pero lo cierto es que hoy casi todos los fabricantes,
encabezados por Intel, predicen aún uno o dos decenios de alto crecimiento, siendo ahora la limitación
predecible la proximidad del tamaño de un elemento lógico al del propio átomo de silicio. Pero tras un par
de décadas, cabe esperar discontinuidades tecnológicas, tales como uso de superconductores a baja
temperatura (ver referencia 2), computación cuántica, etc…que expandirían nuevamente la aplicabilidad
de la ley de Moore.
¿Fin del crecimiento de la velocidad de acceso a Internet?
No parecen existir barreras técnicas insalvables a medio plazo para incrementar la velocidad del acceso a
Internet. Aunque ahora se esté alcanzando uno de los límites tecnológicos –el de las tecnologías DSL
sobre los sufridos pares de cobre- en paralelo se está ya realizando el despliegue de fibra hasta el hogar.
En Japón la velocidad típica de contratación de un acceso en fibra en el 2009 es ya superior a los 80
Mbps.
Hay una cierta corriente de opinión acerca de que el verdadero límite vendrá por la falta de necesidad del
crecimiento, es decir, por no existir aplicaciones que inciten a contratar un mayor ancho de banda. Sin
necesidad de recurrir aquí a la probable recepción de varios canales de televisión de alta definición
simultáneos, podemos afirmar que el ancho de banda del acceso será siempre un recurso deseable
mientras que la velocidad de descarga –o envío – de un fichero sea superior para un disco duro local que
para un servidor remoto, es decir, mientras la distancia suponga una limitación de cualquier tipo para las
TICs.
Para redactar este artículo utilizo un disco duro con una velocidad media de lectura de unos 320
Megabits/seg. Y mi acceso a Internet es de 6 Megabits / seg. Suponiendo que esta velocidad del acceso
siga creciendo al mismo ritmo de los últimos once años, necesitaría unos ocho años para poder utilizar
aplicaciones residentes en servidores remotos con la misma fluidez que las que utilizo hoy en local. Y,
para entonces, el nuevo software hará todo mucho más lento, según la incómoda ley de Wirth. Así que,
sin limitaciones tecnológicas firmes y con necesidades reales que satisfacer, cabe prever una larga vida a
la evolución del acceso. Casi tanta como a la densidad de transistores en los circuitos integrados.
Por cierto, solo he encontrado una ley con mayor e_popularidad que la de Moore en Google. Es la ley de
Murphy, que aparece referenciada 138000 veces. Pero esto es ya otra historia.
Autor: Andrés González Molina, ex directivo de Telefónica
Notas
[1] Con el fín de obtener una cierta uniformidad en la obtención de resultados, y obtener la mayor base
estadística posible, se utilizaron búsquedas en inglés y con las palabras exactas – Moore’ law, Newton’s
laws,… – y limitada a apariciones en el último año.
[2] Puesto que toda serie numérica puede ser aproximable mediante una exponencial con coeficiente
suficientemente pequeño en el exponente, entenderemos en este artículo por “exponenciales” a aquellas
variables que tienden a duplicarse en plazos no superiores a los 2 años.
Referencias biliográficas
1. John Battelle,. “Buscar : como Google y sus rivales han revolucionado los mercados y
transformado nuestra cultura” Editorial Tendencia, 2006.
2. Andre K. Geim and Philip Kim. “Carbon Wonderland” Scientific American, April 2008.
3. Chip Walter, “Klyder’s law” Scientific American, Insights section, August 2005.
4. David C. Brock (editor) Understanding Moore's Law: Four Decades of Innovation. Edited.
Chemical Heritage Press, 2006.
Artículos y publicaciones disponibles en Internet
1. Gordon E. Moore. “Cramming more components onto integrated circuits” Electronics, Volume 38,
Number 8, Apri1965.
2. Moore’s Law. Wikipedia.
3. Emin Gün Sirer and Rik Farrow. Some lesser-known laws of computer science. LOGIN August
2007.
4. Nielsen’s Law on Internet bandwdith
Imágenes
Figura 1. (fuente: Publicación de G.Moore en 1965 en la revista Electronícs, ver referencia 5).
Figura 2. (Fuente: Barry Hendy, Kodak Australia).
Descargar