Versión PDF - UAM-I

Anuncio
De yotta a yocto.
Caupolicán Muñoz Gamboa,
UAM–Iztapalapa
cientı́ficos y los técnicos, ası́ como las que se requieren en todas las transacciones comerciales. Algunos
de estos patrones son el metro, el kilogramo, el grado centı́grado y el segundo, pero también ha sido necesario disponer de medios para designar las grandes y pequeñas magnitudes derivadas de éstos, como el kilómetro o el miligramo. Tales formas se resumen en la Tabla 1, donde se aprecia la enorme magnitud que representa el yotajoule, ası́ como la pequeña dimensión de un yoctogramo.
Recibido: 07 diciembre 2009.
Aceptado: 15 enero 2010.
Abstract
In this article several aspects of scientific disciplines
and craftsmen are presented. They have the common
denominator of smallness, unusual and surprising.
The IS units are used for this purpose. Tires and
fractals have interesting coincidences.
Resumen
Muchas veces los inventos, las matemáticas, la tecnologı́a, la ciencia y hasta las artesanı́as encuentran cosas en común no sólo en lo novedoso, sino también en
lo grandioso, en lo detallado o en lo minúsculo. En este sentido, en este artı́culo se comentan diversos aspectos de estas disciplinas unidas por el común denominador de las cosas pequeñas y de lo poco perceptible, de lo extraordinario y de lo impresionante, porque entre ellas se encuentran muchos interesantes puntos en común. Al mismo tiempo se consideran las herramientas que se disponen por parte del Sistema Internacional de Unidades (SI) para designar dimensiones que van desde lo muy grande a lo muy pequeño.
Las grandes diferencias que hay entre los extremos
que representan los prefijos de la Tabla 1 son útiles tanto entre las cosas materiales como en las imaginarias. Esto es aunque la realidad y lo concreto suelen verse como un par antagónico del compuesto por la fantası́a y la ficción, lo cual equivale a pensar que las cosas reales (tales como un
simple neumático) y las entelequias producto de
la imaginación (tales como los fractales) no tienen nada que ver entre sı́. Sin embargo, un análisis no muy profundo nos hace llegar a la conclusión de que los mundos real e imaginario pertenecen
al mismo universo y que por ende tienen que tener
vı́nculos sólidos.
Entrando en materia se analiza lo que ocurre con
un simple neumático, objeto cotidiano muy conocido, hasta un fractal, el sorprendente objeto matemático que al ser creado en este universo riguroso tiene todas las caracterı́sticas de un ente artificial. Sin embargo, aunque a primera vista estos dos objetos no tienen nada en común, resulta que pueden encontrarse muchas coincidencias entre ellos, las que se destacan en este artı́culo, considerando especialmente cómo se ingresa en el mundo
del caos, en oposición al que creemos perfectamente
determinado.
Historia de un neumático
El invento de la rueda es uno de los grandes acontecimientos de la humanidad cuya ocurrencia se pierde en los tiempos prehistóricos. No se sabe con seguridad qué tribu, pueblo o civilización fue la primera en tener la genial idea y mucho menos puede identificarse a su inspirado creador, sin embargo, a causa del gran impacto que ha tenido en
el desarrollo de las civilizaciones, pueden determinarse algunas de las etapas más importante de
este descubrimiento porque unas cuantas de sus
más afortunadas mejoras pueden resumirse en las
cuatro siguientes.
Introducción
La ciencia, la tecnologı́a y el comercio han requerido siempre de patrones que sirvan de referencia para las más diversas mediciones que llevan a cabo los
5
6
ContactoS 75, 5–13 (2010)
Tabla 1. Prefijos y sı́mbolos utilizados para designar las grandes y las pequeñas dimensiones
Prefijo Sı́mbolo Valor
yota
Y
1024
zeta
Z
1021
exa
E
1018
peta
P
1015
tera
T
1012
giga
G
109
mega
M
106
kilo
k
103
hecto
h
102
deca
da
10
deci
centi
mili
micro
nano
pico
femto
atto
zepto
yocto
d
c
m
µ
n
p
f
a
z
y
10−1
10−2
10−3
10−6
10−9
10−12
10−15
10−18
10−21
10−24
Ejemplo Equivalencia Comparativo de la escala (aprox.)
yotajoule
1YJ = 1024 J El sol emite en 1 s≈ 400 YJ
zetametro 1Zm = 1021 m Radio de la Vı́a Láctea ≈ 1 Zm
exasegundo
1Es = 1018 s Edad del universo ≈ 0.43 Es
petametro 1Pm = 1015 m 1 año–luz ≈ 9.454 Pm
terametro 1Tm = 1012 m Distancia del Sol a Júpiter ≈ 0.8 Tm
gigasegun
1Gs = 109 s
1 siglo = 100 años ≈ 3.154 Gs
megakelvin 1MK = 106 K* Temperatura del sol ≈ 15 MK
kilogramo
1kg = 103 g
43 tortillas ≈ 1 kg
hectogramo
1hg = 102 g
1 barra de jabón mediana ≈ 1 hg
decalitro
1daL = 10L 1 galón (USA) = 0.3785 daL
La unidad
decı́metro
10dm = 1m Altura promedio de un vaso ≈ 1 dm
centı́metro
102 cm = 1m 1 pulgada = 2.54 cm
milı́metro
103 mm = 1m Grosor de un cerillo de madera ≈ 3 mm
micrómetro 106 µm = 1m Grosor de un hilo de seda ≈ 10 µm
nanómetro
109 nm = 1m Radio del átomo de cloro 4 ≈ 0.1 nm
picogramo
1012 pg = 1g Masa de una bacteria unicelular ≈ 1 pg
femtómetro 1015 fm = 1m Radio de un protón ≈ 1 fm
attosegundo 1018 as = 1s La luz atraviesa un átomo ≈ en 1 as
zeptomol 1021 zmol = 1mol 602 átomos o moléculas ≈ 1 zmol
yoctogramo 1024 yg = 1g Masa del protón o neutrón ≈ 1.7 yg
* Aunque 0◦ C = 273.15 K, se cumple que 1 K = 1◦ C, por lo que 1 MK ≈ 1 millón de grados centı́grados.
La primera de ellas fue con seguridad la idea de lubricar el eje, porque este sencillo procedimiento reduce notablemente el esfuerzo necesario para hacer
avanzar un vehı́culo y también aminora en gran parte el natural deterioro debido a su uso. El segundo perfeccionamiento de la rueda fue posiblemente el uso del rodamiento o cojinete, porque estos dispositivos disminuyen aún más el roce y el desgaste, aumentando con ello su duración en forma considerable y prácticamente indefinida cuando se le proporciona el adecuado mantenimiento. El tercer adelanto importante relacionado con la rueda es, sin duda, el desarrollo de la rueda neumática o neumático, basada en el caucho natural porque hizo posible que el transporte se realizara con gran comodidad y facilitó con ello el desarrollo de los automóviles modernos. Por último, no puede desconocerse que
el movimiento de cualquier vehı́culo se hizo más suave con la incorporación de resortes y más adelante
con amortiguadores, los que pasaron a formar parte integral del sistema de rodamiento y suspensión.
Como puede deducirse fácilmente todos estos avances estuvieron orientados a que el vehı́culo rodara en forma más simple, que tuviera mayor duración, que fuera más cómodo su uso y que ofrecie-
ra menor resistencia al avance para que alcanzara
mayor velocidad.
Las primeras ruedas fueron posiblemente discos o cilindros muy toscos en forma de rodillos angostos
o rodajas de madera (aunque siempre las imaginamos de piedra, de acuerdo con las caricaturas de algunas historietas populares), pero la necesidad de
que fueran más durables y livianas las fue transformando poco a poco hasta la clásica y grácil rueda de carreta colonial con rayos y estructura de madera, aunque con una banda de rodamiento de hierro. Con el tiempo se requirió construirla en una sola estructura metálica con una banda de rodamiento de goma para que fuera posible usarla en los primeros automóviles.
Sin embargo, no hay que olvidar que la rueda moderna no solamente está basada en todos los adelantos
de que hemos hablado, sino que también está construida con caucho sintético de extraordinaria resistencia relleno de aire a presión, que no requiere de
una cámara, es resistente al desgaste, puede ser a
prueba de perforaciones por clavos y otros objetos
punzantes, ası́ como también a veces está construida especialmente para que su movimiento sea silen-
De yotta a yocto. Caupolicán Muñoz Gamboa.
cioso, que tenga mayor agarre al camino o que sirva para avanzar en terrenos lodosos, con nieve o con
hielo, entre muchas otras caracterı́sticas. Adicionalmente, la marcha del neumático se suaviza enormemente con un mecanismo de suspensión compuesto
básicamente de un resorte y un amortiguador (aunque algunos sistemas incluyen otros adelantos) el que
le permite mucha libertad de movimiento.
En un principio, el motor delantero y la tracción trasera de los vehı́culos significaban pérdida de potencia
y de energı́a, pero simplificaban el mecanismo de suspensión. El viejo anhelo de emular a los antiguos coches tirados por caballos, en los cuales tanto la tracción como la dirección estaban adelante, sólo se alcanzó una vez que la suspensión y el movimiento de
las ruedas delanteras permitieron darle suficiente libertad al vehı́culo con una mı́nima pérdida de potencia. Por ello, actualmente casi todos los automóviles utilizan las ruedas delanteras tanto para la dirección como para la tracción.
Por otra parte, el neumático común tiene una circunferencia aproximada de 198 cm (cuando se trata del “rin” 15) y su banda de rodamiento alcanza
una profundidad de unos 9 mm, la que está calculada normalmente para rodar cerca de 60,000 km. Como el desgaste se produce inevitablemente tanto por
el roce normal con el pavimento, como con las frenadas, la banda de rodamiento se va consumiendo lentamente hasta que el neumático debe ser reemplazado por otro nuevo. Suponiendo que el uso y el
desgaste provocado por éste es perfectamente uniforme y que no ha sufrido un deterioro catastrófico que la inutilice, con estas cifras resulta que debe efectuar más de 30 millones de vueltas a lo largo de su vida útil. En consecuencia, en cada vuelta la banda de rodamiento pierde en promedio una
delgadı́sima capa de caucho de sólo 0.3 millonésimas de milı́metro de grosor (0.3 nanómetros), cifra que es inferior a la décima parte del tamaño
de un virus común, lo que nos da una muy buena idea de su extraordinaria duración y resistencia. Esto es algo sobre lo que podrı́amos reflexionar la siguiente vez que abordemos un vehı́culo para
ir a nuestro trabajo, salir de compras o simplemente
escaparnos de vacaciones.
Estas minúsculas dimensiones pueden llegar a ser
inimaginables, pero es interesante comprobar que algunos diestros artesanos pueden lograr maravillas en
los detalles de su obra aunque, por supuesto, no se
aproximen a ellas. Sin embargo, sorprende que pue-
7
dan emular otro tipo de mı́nimas dimensiones tecnológicas como es el caso siguiente.
Alfombras persas y pixeles
Las alfombras orientales han sido a lo largo de la historia objetos no tan solo utilitarios, ya que forman
parte de los enseres tradicionales de antiguos pueblos y tribus nómadas, sino que en ocasiones llegan a ser auténticas obras de arte o son valiosas antigüedades cuyos precios alcanzan valores muy elevados. Su cotización final no sólo depende del hecho de que son artı́culos hechos a mano uno por
uno, de su calidad artı́stica, de los patrones del diseño, de su condición general de conservación y de
su antigüedad, sino que también tienen influencia
en ella el pueblo donde han sido fabricadas e, incluso, los materiales con los que han sido manufacturadas, el prestigio de los artesanos que intervinieron en su construcción, la tribu a la que pertenece y
la densidad de nudos que tiene, entre muchas otras
caracterı́sticas.
Las alfombras anudadas a mano se elaboran nudo
por nudo en una tarea que implica varios artesanos y normalmente varios meses e incluso años de
trabajo, por lo que son muy apreciadas. Los principales centros productores de este tipo de alfombras están en Persia, Turquı́a, Turkmenistán, Afganistán, Pakistán, India, Nepal y China, destacándose en ellos dos tipos de nudos entre los cuales el
turco es el más valorado. Los materiales más finos
que se utilizan son lana de oveja y seda para realizar los nudos, ası́ como pelo de cabra y algodón para el entramado, aunque la lana de la cabra de angora, conocida como mohair, también se usa para el anudado debido a las propiedades naturales
de esta fibra.
Uno de los factores de calidad más reconocidos y
tal vez uno de los más importantes es la densidad
de nudos o el número de nudos por pulgada cuadrada (knots per square inch – kpsi) o la cantidad de nudos por metro cuadrado (npmc) de cada alfombra,
lo cual no es otra cosa que el producto de los nudos por unidad de longitud que hay en cada corrida del entramado multiplicado por el número de corridas que entran en esa misma unidad. Con este
factor, la medición de calidad más aceptada resulta ser la siguiente: menos de 60 kpsi (unos 93 000
npmc) determina una alfombra de baja calidad; hasta 130 kpsi (unos 200 000 npmc) es de buena calidad; hasta 160 kpsi (unos 250 000 npmc) es de calidad media; hasta 290 kpsi (unos 450 000 npmc)
8
la alfombra es de alta calidad; en tanto que al superar estas cantidades se determina una de muy alta
calidad.
Sin embargo, como es de suponer, por encima de estas cifras los ejemplares son muy raros (muchos de
ellos tienen nombre propio, como la famosa Vienna Hunting Carpet, actualmente en el Museo Osterreichisches de Viena y el Tesoro de Hereke, propiedad de la compañı́a japonesa Gandhara Carpet Japan Co. Ltd., de Tokio). Adicionalmente debe destacarse que diversos fabricantes aseguran haber fabricado alfombras de seda anudada sobre un entramado de seda que superan el millón de npmc,
lo cual es algo realmente impresionante.1 Se trata
de especı́menes de extraordinaria calidad que incluso también pueden aparecer en el Libro de Records
de Guinness.
Resolución de un monitor
Por otra parte, en el monitor de la PC que la mayorı́a de nosotros tenemos enfrente, la calidad de
la imagen suele medirse por la resolución, que es
una forma de cuantificar la capacidad de diferenciación de los detalles de una imagen en forma similar a como se hace con los kpsi o los npmc. La resolución es una medida del número de pixeles2 diferentes que pueden distinguirse en ella. Los monitores más pequeños de 14 pulgadas, lo que significa que son más o menos de 28 por 21 cm, pueden ajustarse para disponer de una resolución variable que, para una buena visión de los detalles, va entre 800 por 600 hasta 1024 por 768 pixeles. En realidad es posible ajustarlos para una mayor resolución pero a muchas personas les parece que las letras e iconos se reducen excesivamente. Ambos extremos nos dan para la resolución total del monitor los resultados de 480 000 y 786 432 pixeles en
la pantalla, respectivamente, por lo que estos cálculos nos llevan a concluir que medidos en pixeles por
1 Varias empresas fabricantes de alfombras orientales aseguran haber superado con mucho las cantidades mencionadas en el texto, algunas de las cuales también pueden figurar en el libro de Records de Guinness. Sin embargo, es muy
conveniente aclarar que la densidad de nudos de una alfombra no suele ser uniforme en toda su superficie, por lo que debe hablarse de un promedio y, además, no es la única garantı́a de la calidad de una alfombra.
2 Un pixel (del inglés picture element–elemento de imagen)
es la menor unidad de color que compone una imagen digital. En su formato más simple, llamado RGB (del inglés RedGreen-Blue – rojo verde azul), está compuesto de estos tres
colores básicos. Mediante una codificación normal, que va entre 8 y 24 bits, un monitor permite desplegar una gama de colores (o de niveles de gris para los monitores en blanco y negro) que va desde 256 hasta más de 16 millones.
ContactoS 75, 5–13 (2010)
metro cuadrado (ppmc) estos monitores pueden tener entre 8 y 14 millones de ppmc, cifras que sorprendentemente se aproximan en npmc con las alfombras orientales más finas del mundo.
Es interesante comprobar que a pesar de que nuestra tecnologı́a ha avanzado notablemente y que las
imágenes de nuestros monitores actuales son extraordinariamente fieles y superan con mucho las cifras anteriores, como todos podemos comprobar, los
antiguos artesanos fueron capaces de emprender tareas descomunales como la de realizar una incalculable cantidad de nudo por metro cuadrado. Porque en
el caso de las alfombras que nos ocupa no sólo se trata de una tarea manual en la que cada nudo se amarra individualmente, sino que casi todas ellas son varias veces el tamaño de nuestros monitores, a pesar
de lo cual algunas de las más valiosas compiten notablemente en resolución con ellos.
Por esta razón, si uno ha tenido la curiosidad de observar alfombras orientales (en cualquier tienda especializada) y notar la hermosura de los diseños, la armonı́a de los colores, la calidad de los materiales,
el balance de los patrones, la minuciosidad y el arte con que han sido realizadas, sólo puede maravillarse con la enorme habilidad y paciencia de los artesanos que las han elaborado.
Lo cual no es obstáculo para también apreciar las herramientas que la tecnologı́a nos pone enfrente para disfrutar de una muy buena imagen de alta resolución y con millones de colores en el monitor de la
PC o en una simple fotografı́a digital.
El “copo de nieve”
Y hablando de disponer millones de pixeles en una
pantalla o de anudar pequeños trozos de seda en
un bastidor, por medio de un simple procedimiento es posible desarrollar objetos ficticios muy interesantes como el que se muestra en la Figura 1. Se inicia con un triángulo equilátero, cuyos lados se dividen en tres partes pero el tramo central se sustituye con la punta de un triángulo cuyos lados tienen un tercio de la longitud del triángulo inicial, como puede apreciarse en el primer paso. Esta operación se repite hasta el infinito en cada uno de los nuevos lados, lo que va dando como resultado una intrincada y compleja estructura que semeja un copo de nieve.
Fractales y realidad
El objeto de la Figura 1 es uno de los fractales más
sencillos, que es conocido como el “copo de nieve” de
De yotta a yocto. Caupolicán Muñoz Gamboa.
9
Figura 2. Aumento de la longitud de cada uno de los tres lados del triángulo inicial del fractal de Koch en los primeros
pasos. En cada uno de ellos se incrementa por un factor de 4/3.
Figura 1. Primeros pasos del desarrollo del fractal “copo
de nieve” de Koch.
Koch. Una de las cosas interesantes de este objeto
es que la longitud de su perı́metro crece sin lı́mite,
ya que si se considera que un lado cualquiera del
triángulo inicial tiene una longitud L, la longitud
del primer paso resulta ser 4/3 L, y los que siguen
tendrán una longitud de (4/3)2 L, (4/3)3 L, (4/3)4 L,
etc., tal como se muestra en la Figura 2 para los
primeros pasos, por lo que con cada uno de ellos la
longitud crece indefinidamente hasta el infinito.
Los fractales se obtienen en general por medio de
lo que se conoce como iteración en el plano complejo, lo que no es más que el uso continuo y reiterado de los resultados de una función (procedimiento) como valores de entrada de la misma (esto es, repitiendo el proceso como en el caso del copo de nieve de Koch). Esto significa que una expresión matemática se evalúa con uno o más valores iniciales,
lo que proporciona un primer resultado, con el que
se vuelve a evaluar la función y se obtiene un segundo resultado, con el que se procede nuevamente a evaluar la función y ası́ sucesivamente. En cierta forma este procedimiento es similar al desarrollo del fractal de Koch, en el cual se toma cada uno
de los lados, se divide en tres, se le inserta la punta
de un triángulo a cada uno de ellos, con la figura resultante se procede nuevamente a dividir en tres cada uno de los nuevos lados y se continúa en igual forma hasta el infinito.
Desarrollo de un fractal
Para entender más claramente en qué consiste el proceso de creación de un fractal supóngase que se tiene un plano determinado por sus coordenadas “alto” y “ancho” y que se utiliza una función matemática muy simple para ver como se comporta esta función en dicho plano. Como ejemplo, puede tomarse la función definida por las ecuaciones
A = a2 − b2 + c
B = 2ab + d
En estas ecuaciones a representa el alto y b el ancho,
en tanto que c y d son constantes. Entonces, el proceso se inicia con los datos de las variables, los cuales se conocen como “semilla” y se representan como (a, b), con estas ecuaciones se calculan los nuevos alto A y ancho B, los que a su vez se representan como (A, B). En esta forma las ecuaciones pueden expresarse, por una parte, como ‘el nuevo alto A es igual al alto inicial a multiplicado por el mismo alto inicial a menos el ancho inicial b multiplicado por el mismo ancho inicial b más la constante c’ y,
por la otra, como ‘el nuevo ancho B es igual a 2 veces el alto inicial a multiplicado por el ancho inicial b más la otra constante d.’
Los nuevos valores para ancho y alto, que se han indicado con las letras mayúsculas A y B, son los primeros resultados que se utilizan para evaluar nuevamente las ecuaciones y continuar con el mismo procedimiento en forma sucesiva. Técnicamente, la semilla consistente en el par (a, b), es un punto del
plano complejo con cual se obtiene como resultado un nuevo punto del mismo plano representado
por (A, B) en las ecuaciones. De este modo, con
cada paso se van obteniendo resultados diferentes
en forma sucesiva, lo que produce una secuencia
de puntos del plano los que van definiendo poco a
poco el fractal.
10
Anatomı́a de un fractal
Las distintas secuencias de resultados que se obtienen a partir de diferentes semillas se llaman órbitas, las que pueden tener comportamientos muy diferentes. Cuando en una región se obtienen resultados similares se dice que en esa zona del plano
hay estabilidad. Sin embargo, los resultados tienen
en general comportamientos muy dispares. Por ejemplo, algunos pueden escapar al infinito, otros dirigirse a un punto en particular, ciertos resultados logran
mantenerse en órbitas estables, en tanto que muchos de ellos presentan un comportamiento completamente caótico, siguiendo trayectorias insólitas, como se verá a continuación.
Caso uno.
Por ejemplo, si para el fractal definido por las ecuaciones anteriores la semilla es (0.5, 0), o sea los valores iniciales son a = 0.5 y b = 0 para alto y ancho respectivamente (con las constantes c = −0.25 y
d = 0), se trata de una órbita que después de algunas oscilaciones se dirige al punto (−0.2071, 0), porque el primer resultado es (0, 0); después, en el siguiente paso, se obtiene (−0.25, 0); al repetir la operación una vez más resulta (−0.1875, 0); para continuar con (−0.2148, 0); y seguir aproximándose al
punto (−0.2071, 0) en forma invariable.
Caso dos.
Si, por el contrario, ahora la semilla es −1 y 1 (con
c = −0.75 y d = 0), se tiene una órbita que escapa al
infinito, ya que el primer resultado es (−0.75, −2); la
secuencia sigue con (−4.1875, 3); (7.7852, −25.125);
(−571.4, −391.2); para continuar creciendo sin lı́mite e indefinidamente, como puede observarse en la
Tabla 2.
Caso tres.
Ahora, si la semilla es 0 y 0 (con c = 0 y d = 1), resulta una órbita oscilante que genera primero (0, 1), para después empezar a oscilar entre los valores (−1, 1)
y el par (0, −1) en forma invariable.
Caso cuatro.
Por último, uno de los posibles resultados estables
se obtiene cuando la semilla es −1 y 0 (con c y d =
0), ya que en este caso la serie de resultados consta
siempre del mismo par de valores (1, 0).
El hecho de que algunas semillas muy próximas entre sı́ tengan conductas muy disı́miles genera una estructura de órbitas cuya frontera se denomina fractal. Cuando esta frontera se observa a una escala cualquiera presenta autosimilaridad, lo que quie-
ContactoS 75, 5–13 (2010)
Figura 3. Ejemplo de la autosimilaridad que presenta un
fractal. Un pequeño segmento reproduce el patrón original completo, a una escala menor, pero siempre hasta el infinito.
re decir que la misma estructura (o el mismo ”tipo”de estructura) se manifiesta en todas las escalas, como puede apreciarse en el fractal de la Figura 3. Una pequeña sección reproduce por completo
al fractal aunque en menor escala, por lo que en la figura se han ampliado.
Un ejemplo real de fractal al que siempre se recurre, por ser muy obvio, es la costa de los continentes definida por la orilla que separa la tierra y el mar.
Cuando se mide su longitud con reglas rectas de diferentes largos en mapas con diferentes escalas se observa que mientras más corta es la regla y más grande la ampliación del mapa, también es mayor la longitud medida, lo que se conoce como ”paradoja de la
lı́nea costera”. Si esta serie de resultados se grafican
en una escala logarı́tmica se obtiene una lı́nea recta cuya inclinación se denomina dimensión fractal.
Al respecto, cabe recordar que en geometrı́a el punto tiene dimensión cero; la lı́nea recta, uno; las curvas del plano, dos; en tanto que los volúmenes, tienen dimensión tres. En cambio, la principal caracterı́stica de la dimensión fractal es que nunca toma valores enteros. Por ejemplo, la dimensión fractal del copo de nieve de Koch es ligeramente superior a 1.2618, por lo que es mayor a una recta, pero menor a una superficie.
En los años veinte del siglo pasado Gastón Julia, un
matemático francés, comenzó a estudiar este problema aparentemente académico y poco práctico pero ha resultado que las estructuras fractales sirven
de base para encontrar modelos muy útiles para muchos sistemas naturales de alta complejidad, lo que
ha dado lugar al desarrollo de lo que comúnmente se denomina la ciencia del caos, tema que se analizará a continuación.
Sistemas caóticos
A primera vista el universo es estable, fijo y perfectamente determinado, sin embargo, existen muchos
De yotta a yocto. Caupolicán Muñoz Gamboa.
11
Tabla 2. Secuencias de resultados de los cuatro ejemplos. 1) Convergencia a un punto,
2) crecimiento sin lı́mite, 3) oscilación y 4) resultado estable.
Constantes
Alto y ancho
Semilla
1er. resultado
2o resultado
3er. resultado
4o resultado
Convergencia
Ejemplo
c
−0.25
a
0.5
0
−0.25
−0.1875
−0.2148
−0.2071
1
d
0
b
0
0
0
0
0
0
Ejemplo 2
c
d
−0.75
0
a
b
−1
1
−0.75
−2
−4.1875
3
7.7852
−25.12
−571.4 −391.2
∞
∞
ejemplos de que esta visión no está completa porque
no incluye una serie de situaciones, acontecimientos y fenómenos que no tienen nada de estable, fijo ni determinable. Por ejemplo, el juego de billar parece ser a primera vista un sistema que se comporta en forma perfectamente estable y predecible, pero
resulta que al mismo tiempo puede ser caótico. Para demostrar esta aseveración, supóngase que se tiene una sola bola sobre la mesa, a la cual se le aplica un golpe con el taco respectivo. Los buenos jugadores pueden calcular con mucha precisión la trayectoria que va a seguir, incluso después de que la bola
ha rebotado en una o más bandas, porque en tal habilidad descansa su destreza como jugadores.
Bolas de billar
Este caso se demuestra prácticamente en la Figura 4 a) al observar con cuidado el rebote de una bola
en una banda, porque se ve claramente que el ángulo de choque es igual al ángulo de rebote, por lo
que es más o menos sencillo estimar las trayectorias. Sin embargo, cuando se disponen quince bolas en forma de triángulo al principio del juego, como en la Figura 4 b), ni siquiera con la más potente de las computadoras es posible determinar remotamente lo que ocurrirá con cada una de ellas, cuáles
serán las colisiones que se van a presentar o cuáles
bolas irán a caer en una buchaca.
La diferencia entre ambas situaciones estriba en que en el primer caso se tiene un comportamiento perfectamente definido, llamado determinista, a pesar de que los rebotes en las bandas puedan ser ligeramente diferentes a lo esperado, de que haya imperfecciones en el paño
de la mesa o de que la bola vaya perdiendo velocidad y, por consiguiente, sea más fácil que
se aparte de una trayectoria perfectamente rec-
Ejemplo 3
c
d
0
1
a
b
0
0
0
1
−1
1
0
−1
−1
1
oscila oscila
Ejemplo 4
c
d
0
0
a
b
−1
0
1
0
1
0
1
0
1
0
1
0
ta. La predicción que en este caso un buen jugador está en posibilidades de hacer será más acertada mientras mayor sea su experiencia en
el juego.
Figura 4. Juego de billar en el que se presentan a) trayectoria predecible de la bola, b) trayectorias caóticas que no
es posible predecir y c) efecto de las diferencias del ángulo de choque.
En el segundo caso, en cambio, los sucesos dependen en gran medida de pequeñı́simas diferencias que
pueden existir en la posición de cada bola, las más diminutas irregularidades que puede tener el paño, las
minúsculas variaciones que puede experimentar el
ángulo de choque y de las imperceptibles diferencias que deben producirse en los tiempos de choque
de las bolas entre sı́. Estos hechos se demuestran simplemente jugando una partida, la que es en gran medida un hecho aleatorio que se describe perfectamente como un suceso caótico.
Equilibrio inestable
Otro ejemplo de un sistema aleatorio se tiene al considerar el equilibrio inestable de un objeto cuya base es muy reducida, como un lápiz que se intenta parar apoyado en la punta. Por muchos intentos que se
12
ContactoS 75, 5–13 (2010)
bles desencadenen un proceso aleatorio que domine el comportamiento del sistema y se convierta en el
factor determinante.
Figura 5. Casos del rebote de una pelota sobre a) una
superficie lisa, b) una superficie irregular.
hagan para que permanezca en esta posición siempre caerá en forma espontánea o con la más ligera agitación o movimiento. Lo interesante del asunto es que invariablemente lo hará en alguna dirección cualquiera que no es posible anticipar, porque
ésta depende de la gran inestabilidad del objeto y de
las más mı́nimas variaciones que experimenta el propio agente que lo sacó de su posición.
Rebotes de una pelota
En un tercer caso, una pelota que se lanza desde una
cierta altura describe idealmente una trayectoria parabólica perfecta, siempre y cuando el rebote se produzca en condiciones ideales sobre una superficie pulida, como se muestra en la Figura 5 a). Las parábolas decrecen en forma exponencial y se van haciendo poco a poco más estrechas, hasta que finalmente la bola deja de rebotar. Esta situación se modifica sustancialmente cuando, por ejemplo, la superficie no es completamente lisa o tiene un comportamiento anómalo, situación en la que cada rebote toma una dirección inesperada, como se muestra en la Figura 5 b). Aunque sólo ha variado la rugosidad de la superficie y las alturas máximas de cada parábola disminuyen en forma similar al caso anterior, los rebotes han cambiado notablemente y se
han hecho caóticos.
Los modelos matemáticos que utilizan los cientı́ficos y los ingenieros para explicar o utilizar las virtudes del universo suelen tomar rigurosamente en cuenta sólo a las grandes variables que siempre están
presentes y que pueden determinar casi por completo y en casi toda circunstancia a las situaciones (cuando son modelos deterministas). Sin embargo, con la misma rigurosidad acostumbran (la mayor parte de las veces a propósito, para simplificar
el tratamiento de los problemas) ignorar las variables pequeñas que pasan desapercibidas, que tienen
poca influencia, que se presentan muy esporádicamente o que creen que nunca estarán presentes. Pero puede ocurrir que una o varias de estas varia-
Muchas veces por estas simplificaciones que facilitan los diseños y los cálculos resulta que un puente se desploma, que una máquina experimenta repentinamente fallas imprevistas, que un avión no alcanza la velocidad que se esperaba, que un edificio
se inclina peligrosamente o que los resultados de los
cálculos no tienen nada que ver con la realidad. Porque siempre es más sencillo utilizar modelos deterministas, ya que éstos proporcionan la mayor parte de las respuestas.
Con esta estrategia, sin embargo, hay que confiar
en que los imponderables del caos no lleguen a tener la capacidad suficiente como para hacer que los
pequeños errores, que siempre deben esperarse, crezcan sin proporción.
La perspectiva caótica
Al salir de casa cada mañana tenemos un ejemplo
claro de lo que puede ser una situación que puede estar perfectamente determinada (determinista)
o por el contrario imposible de conocer de antemano (aleatoria), lo que lleva a imaginar que este simple hecho cotidiano puede definir un acontecimiento caótico. Esto es porque al intentar la predicción de un viaje pueden encontrarse dos situaciones extremas: la primera que corresponde al caso en que toda predicción es muy acertada porque,
por ejemplo, ese dı́a no hubo incidentes y el tránsito estuvo muy fluido, circunstancia en la que se aplican perfectamente los modelos deterministas. Por
el contrario, puede suceder que las condiciones del
dı́a sean mucho más complejas que de costumbre las
que producen tal desorden que no es posible aventurar conjeturas plausibles que tengan un éxito razonable, escenario en el cual sólo es posible utilizar modelos aleatorios muy complejos. Las cosas
serı́an muy distintas si siempre supiéramos de antemano cuál es el tipo de modelo que conviene utilizar en la simple rutina diaria de salir de casa con un
rumbo conocido.
Al querer saber de antemano cuál es el mejor modelo aplicable o qué ocurrirá en el futuro próximo, se
está suponiendo lamentablemente que existe la posibilidad de que debe existir un sistema de tipo predictivo que se anticipe a los hechos. Por desgracia
tal hipótesis significa que dicho sistema debe responder antes de que se presente cualquier estı́mulo, lo que conduce a contradicciones teóricas muy
De yotta a yocto. Caupolicán Muñoz Gamboa.
concretas que hacen concluir que no es fı́sicamente
realizable.
Por tales razones puede suponerse que el tipo de modelo establece siempre una plataforma sobre la que
es posible tener una cierta seguridad sobre el comportamiento futuro del sistema, aunque nunca ésta
podrá ser absoluta. Si el modelo no cambia, será posible esperar que la bolsa de valores proporcione buenas ganancias futuras; que el clima seguirá siendo
agradable toda la semana; que el diseño de un puente dará el resultado que se esperaba cuando sea construido; que el camino elegido es el adecuado para el
tiempo que se dispone para recorrerlo; que el combustible que cargamos a un vehı́culo será suficiente para ir y volver en una aventura por terrenos
desolados; que el libro que todavı́a no se imprime
será efectivamente un éxito de ventas cuando salga
al mercado, etc.
Pero todo lo anterior puede ser diferente en cualquier
momento, porque el modelo puede cambiar sorpresivamente en cada uno de los casos del párrafo anterior. La bolsa de valores está sujeta a fuerzas muy sutiles que podrı́an hacerla caer sin previo aviso (como ya ha sucedido); el clima depende de tantas variables que cuando las que se desconocen o no se han tomado en cuenta adquieren preponderancia, no hay
forma de predecirlo; la construcción de una obra de
gran envergadura puede sufrir graves descalabros debido a defectos de los materiales o errores humanos;
una ruta que se desea seguir puede estar interrumpida por múltiples razones circunstanciales; en un viaje de ida y vuelta bien planeado es posible sufrir
pérdidas de combustible (entre otras catástrofes) que
nos impidan regresar; un trabajo editorial puede mal
estimar el entusiasmo del público o una circunstancia
civil o legal podrı́a impedir la distribución del libro, y
ası́ sucesivamente.
Conclusión
En otras palabras, si tenemos un sistema descrito por un modelo estable, determinista y estacionario, el horizonte es perfectamente visible y predecible; pero, si el modelo cambia, deja de ser estacionario o se vuelve aleatorio, el desorden toma
el control haciendo muy difı́cil o imposible ver lo
que sucederá, incluso a corto plazo. Entonces, lo
que era un sistema aparentemente predecible puede también comportarse como un sistema caótico,
circunstancia que ha dado lugar al desarrollo de la
teorı́a del caos.
13
Pensar en el caos significa imaginar exactamente lo
contrario del orden y de lo armónico. Nada parece
más contradictorio para imaginar un modelo del universo, en el cual parece haber una armonı́a y un orden preconcebidos. Sin embargo, ası́ como es inevitable la incorporación del elemento aleatorio a nuestra visión del mundo, también resulta necesario incorporar el concepto del caos cuando se quiere tener una percepción más próxima del mundo real o
un buen modelo del mismo.
En el lenguaje común caos significa la ausencia de orden. En la teorı́a del caos, en cambio, lo que se trata es organizar la anarquı́a en un modelo que permita describirla. Es como si se tratara de ordenar
el desorden o describir lo indescriptible. Lo anterior es posible porque aún en las peores condiciones de desorden puede encontrarse un modelo complejo que describa al menos parcialmente una situación y pueda proporcionarnos una explicación suficientemente satisfactoria, aunque no necesariamente exacta, a cualquier fenómeno por muy complejo que éste sea.
Bibliografı́a
1. Bureau International des Poids et Mesures. The
International System of Units (SI). 8a. Edición.
Parı́s: BIPM Press, 2006.
2. Murray L. Eiland Jr. y Murray Eiland III. Oriental Carpets: A Complete Guide. 4a . Edición. Nueva York: Bulfinch Press, 1998.
3. Kenneth Falconer. Fractal Geometry: Mathematical Foundations and Applications. Nueva York:
John Wiley & Sons, 2003.
4. Edward Ott. Chaos in Dynamical Systems. Nueva
York: Cambridge University Press, 2002.
5. Carl Sagan. Cosmos. Nueva York: Random House, 1980.
6. Kenneth M. Smith, Karl Maramorosch y Max
A. Lauffer. Advances in Virus Research. Vol. 17.
Nueva York: Elsevier, 1972.
7. Arvind Kumar. Chaos, Fractals and Self–
Organization. New Perspectives on Complexity in Nature. Nueva Delhi: National Book
Trust, 2003.
cs
Catenina Beta: caracterı́sticas estructurales y funcionales
Alfredo Trejo Córdova*, Maria del Carmen Navarro Maldonado∗∗ , Adolfo Rosado Garcı́a**
.
ción adhesiva de la cadherina. Posteriormente, se logro establecer una segunda función de la cat-β, esta proteı́na es un componente importante de la vı́a
de señalización intracelular, conocida como Wnt. Estructuralmente, la cat-β está formada por tres dominios, el amino terminal, el central y el carboxilo terminal. El dominio central está formado por doce repeticiones armadillo, las cuales contienen las secuencias de aminoácidos necesarias para la unión de la
cat-β con la cadherina. El complejo de adhesión formado por la cadherina y la cat-β tiene una participación importante en el desarrollo normal del organismo y en la aparición de enfermedades como
los tumores. De ahı́ la importancia de conocer las
caracterı́sticas estructurales y funciones de la catβ como uno de los componentes de este complejo
de adhesión.
Recibido: 19 de noviembre de 2009.
Aceptado: 08 de febrero de 2010.
Abstract
Adherens junctions are formed by adhesion complexes consisting of some adhesion molecules, cadherins, and cytoplasmic proteins called catenins. Betacatenin (β-cat) is a member of the family of catenins that is attached to the E-cadherin and acting
as intermediaries for the binding of adhesion molecules and cytoskeleton at cell junctions. Initially, it
was established that the only function of the β-cat
was involved in the control of cadherin adhesive function. Subsequently able to establish a second function of the β-cat, this protein is an important component of intracellular signaling pathway known as
Wnt. Structurally, the cat-β consists of three domains, the amino terminal, central and carboxyl terminal. The central domain is composed of twelve armadillo repeats, which contain the amino acid sequences necessary for the binding of cat-cadherin
with β. The adhesion complex formed by the cadherin and β-cat has a major role in the body’s normal
development and the emergence of diseases such as
tumors. Hence the importance of knowing the structural characteristics and functions of the β-cat as a
component of this complex.
Introducción
Para que el desarrollo embrionario preimplantacional se lleve a cabo de manera normal, es esencial
un control en la proliferación y diferenciación celular, mismo que requiere a su vez de la participación conjunta de la adhesión celular y la expresión génica. Las células embrionarias se adhieren entre sı́ a través de tres tipos de complejos de adhesión: uniones estrechas, uniones adherentes y desmosomas. Las uniones adherentes tienen como unidad
básica al complejo cadherina-catenina. Dentro de la
familia de las cateninas, la catenina beta (cat-β)
fue descubierta inicialmente como componente importante de los complejos de adhesión, donde participa como intermediario para la unión de la cadherina y el citoesqueleto. Recientemente se estableció otra función de la cat-β, esta proteı́na es un componente importante de la vı́a de señalización Wnt. El
gen wnt ó wingless, responsable de que la mosca Drosophila no tenga alas, está implicado en el establecimiento de la polaridad durante el desarrollo embrionarion en Drosophila y además tiene una participación principal la activación de la transcripción de genes importantes para la proliferación y diferenciación
celular. Debido a esta doble función, la cat-β, ha sido propuesta como un factor integrador de la adhe-
Resumen
Las uniones adherentes están formadas por complejos de adhesión constituidos por unas moléculas de
adhesión, las cadherinas, y proteı́nas citoplasmáticas llamadas cateninas. La catenina beta (cat-β) es
un miembro de la familia de las cateninas que se encuentra unida a la cadherina-E y que actúa como intermediarios para la unión de las moléculas de adhesión y el citoesqueleto en las uniones celulares. Inicialmente, se habı́a establecido que la única función
de la cat-β era participar en el control de la fun* Universidad del Papaloapan, Oaxaca, Oax. Licenciatura
en Zootecnia Estudiante del Doctorado en Ciencias Biológicas. Universidad Autónoma Metropolitana-Iztapalapa email:
[email protected]
** Laboratorio de Reproducción Animal Asistida. Departamento de Biologı́a de la Reproducción, UAM
15
16
sión y de la transcripción génica. De ahı́ la importancia de conocer las caracterı́sticas estructurales y
funcionales de la catenina beta para tratar de entender cómo esta molécula participa tanto en la adhesión celular, como en el proceso de transducción
de señales, procesos que finalmente afectan la expresión de ciertos genes importantes para el desarrollo
embrionario.
Uniones Celulares
Los tejidos epiteliales consisten de laminas continuas
de células que revisten y protegen a los órganos, cavidades y canales del organismo. Las uniones celulares son necesarias para dar al epitelio la integridad estructural y funcional. Aunque son abundantes e importantes en el tejido eptelial también se encuentran en las regiones de contacto célula-célula y
célula-matriz de todos los tejidos.
Funcionalmente las uniones celulares se clasifican en:
estrechas, adherentes y desmosomas.
Las uniones estrechas, sellan el espacio que existe entre células adyacentes de forma que impiden el paso de pequeñas moléculas entre ellas y contribuyen a
la formación de la polaridad células. En la formación
de este tipo de uniones participan unas proteı́nas conocidas como zona de oclusión 1, 2 y 3 (ZO-1, ZO-2 y
ZO-3). En la formación de las uniones estrechas proteı́nas membranales como las claudinas y oculdinas
pueden establecer interacciones homofilicas o heterofilicas con claudinas y ocludinas de células adyacentes y las proteı́nas ZO participan en el acoplamiento de estas proteı́nas citoplasmáticas con microfilamentos de actina.
Las uniones adherentes contienen cadherinas, cuyos dominios extracelulares median interacciones homofilicas, dependientes de calcio, con cadherinas de
células adyacentes, proporcionando especificad a la
unión. El dominio citoplasmático de las cadherinas
interacciona con el citoesqueleto de actina indirectamente, a través de su unión con cat-β y cat-α.
Los desmosomas contienen proteı́nas transmembranales conocidas como desmogleinas y desmocolina
(cadherinas desmosómicas) que a diferencia de las
cadherinas clásicas de las uniones adherentes, pueden establecer uniones heterotipicas con cadherinas
de células adyacentes e intercelularmente conectan
con la red de filamentos intermedios. La unión entre
cadherinas y los filamentos intermedios puede darse
de varias maneras, pero una caracterı́stica importante es la participación de la Desmoplakina en la inter-
ContactoS 75, 15–20 (2009)
acción con los filamentos intermedios. Entra la cadherina y la Desmoplakina pueden encontrarse proteı́nas de anclaje como la plakoglobina o plakofilina (homologas de la cat-β).
Cateninas
Las cateninas son elementos necesarios para el establecimiento de las adhesiones entre células y son un
punto importante para la regulación de los complejos de adhesión.
En las uniones adherentes, tres tipos de cateninas (β,
α y p120) participan en la interacción del dominio intracelular de la cadherina-E con los componentes del
citoesqueleto. De estas la cat-β y la cat-p120 interaccionan directamente con la cadherina-E, mientras
que la cat-β interacciona con la cat-β y con el citoesqueleto (Figura 1, pág. 17).
Catenina beta
Caracterı́sticas estructurales
La cat-β es una proteı́na de 728 aminoácidos (92
kDa), esta proteı́na consta de un extremo amino terminal (N-terminal) de 149 aminoácidos, que contiene los sitios de unión para catenina-α, ası́ como los
sitios donde ocurre la fosforilación por parte de la
glucógeno sintasa quinasa-3 o GSK3 (por sus siglas
en ingles Glycogen synthase kinase 3). Esta fosforilación promueve la degradación de la cat-β que se encuentra libre en el citoplasma, impidiendo su translocación hacia el núcleo. Después del dominio amino
se encuentran una región central de 525 aminoácidos, que contiene 12 repeticiones de 42 aminoácidos, conocidos como repeticiones armadillo (Figura
2, pág. 19). En estas repeticiones se localizan los sitios de unión para la proteı́na de la poliposis adenomatosa coli o APC (por sus siglas en ingles adenomatosis polyposis coli) esta proteı́na participa en
la regulación de la actividad de la cat-β promoviendo su fosforilación y posterior degradación. En las repeticiones armadillo también contiene los sitios de
unión para algunos factores de transcripción como
el factor aumentador de linfoide 1 o Lef (por sus siglas en inglés Lymphoid enhancer factor-1). Cuando la cat-β no es marcada para su degradación (fosforilada) forma complejos con los factores de transcripción Lef/LEF en el citoplasma y se transloca hacia el núcleo. En el núcleo, el complejo cat-β/Lef interacciona con una secuencia especifica en la región
promotora dando por resultado la activación transcripciona génica. Finalmente la cat-β presenta un extremo carboxi terminal de unos 108 aminoácidos.
Catenina Beta. . . Alfredo Trejo C., Maria del Carmen Navarro M., Adolfo Rosado G.
17
Figura 1. Estructura de la catenina beta. La catenina beta está formada por tres dominios o regiones: el dominio
amino terminal, un dominio central que contiene las doce repeticiones armadillo y el dominio carboxilo terminal. En
el amino terminal y en las repeticiones armadillo se encuentran las secuencias de aminoácidos que sirven para la unión
de varias moléculas relacionada con la función de las cateninas.
Caracterı́sticas funcionales
Se han establecido dos funciones para la cat-β:
a) La participación en la formación de uniones adherentes dependientes de cadherina-E, y
b) Como un componente importante en la transducción de señales intracelulares.
Formación de Uniones Adherentes
La cat-β inicialmente fue descrita como una proteı́na estructural que se une con el dominio intracelular de la cadherina-E, formando el complejo de
adhesión cadherina/cat-β (Figura 1). La formación
de este complejo es un requisito para que se lleve
a cabo la unión de la cadherina con los filamentos
de actina.
Complejos de adhesión
Un primer paso para que se formen las uniones adherentes es la formación de complejos de adhesión entre la cadherina y la catenina. El mecanismo a través
del cual se forma este complejo de adhesión, implica la interacción de todas las repeticiones armadillo de la cat-β con al menos cien aminoácidos del dominio intracelular de la cadherina-E.
Para el correcto establecimiento de las uniones adherentes, es indispensable la unión del complejo de adhesión (cadh-E/cat-β) con los filamentos de actina,
unión que se realiza a través de la cat-β. El dominio N-terminal de la cat-α interacciona con cat-α, en
esta unión interviene una secuencia de 31 aminoácidos, del 120 al 151 de la cat-β.
Transducción de Señales.
La cat-β fue conocida inicialmente por su participación en la regulación de la funcionalidad de la cadherina, posteriormente se logró establecer otra función relacionada con la transcripción de genes implicados en el desarrollo tumoral, ya que es un componente importante de la vı́a de señalización Wnt.
Para realizar esta función la cat-β debe traslocar hacia núcleo, lo cual depende de los niveles de la proteı́na no asociada a la cadherina, es decir la proteı́na que se encuentra libre en el citosol. Cuando la
cat-β no se encuentra unida a la cat-β o a la cadherina (en los complejos de adhesión) se encuentra formando un complejo con proteı́nas como la GSK3 y la
APC. Bajo estas condiciones la GSK3 fosforila 4 residuos del extremo amino terminal de la cat-β (serina 33, 37, 45 y treonina 41), lo que da por resul-
18
tado su rápida degración por la enzima proteosómica. El control de los niveles citosólicos de la cat-β
está estrictamente regulado.
Regulación de la señalización a través de catenina beta por la vı́a Wnt
La función de señalización de la cat-β es regulada
principalmente a través de alterar su estabilidad, la
vı́a Wnt induce la estabilización de la cat-β que se
encuentra libre en el citoplasma (Figura 3, pág. 19).
En la ausencia de una señal Wnt, es decir la vı́a Wnt
está inactiva, la cat-β citosólica es capturada y fosforilada a través de un complejo de destrucción formado por las cinasas GSK3 y APC, marcándola para su posterior degradación dependiente de ubiquitina a través de un proteosoma. Por otra parte, en presencia de una señal Wnt, la actividad del complejo GSK3/APC es inhibida dando por resultado que
la cat-β no sea fosforilada y por lo tanto su degradación es bloqueda. De esta manera la cat-β libre se
acumula en el citoplasma y migra hacia el núcleo,
donde se une a proteı́nas activadoras de la familia TCF/LEF encargados de la transcripción de genes Wnt necesarios para desarrollo embrionario.
¿Adhesión o transducción de señales?
La decisión de cuál de estas dos funciones realizará la cat-β, es de gran importancia para un desarrollo normal. Uno de los factores que podrı́an estar determinando si la cat-β participa en la formación de uniones celulares o en la transducción de
señales es la competencia que existe entre moléculas citoplasmáticas y nucleares por la cat-β.
El mecanismo utilizado para regular la interacción
de cat-β con otras proteı́nas es a través de la fosforilación en residuos de tirosina de esta proteı́na.
Dentro de la cat-β hay dos residuos de tirosina que
son de gran importancia para este mecanismo, la tirosina 142 en la primera repetición armadillo y la tirosina 654 en la última repetición armadillo. Se ha
establecido que la fosforilación en estos dos residuos
son determinantes para el desensamble del complejo cadherina-catenina dando por resultado un aumento en la transcripción dependiente de cat-β.
La tirosina 654 en la última repetición armadillo es
determinante para que se lleve a cabo la unión a la
cadherina-E, por ejemplo la fosforilación en este residuo a través de una tirosina cinasa da por resultado la perdida de la unión a cadherina-E e interfiere con la adhesión celular.
ContactoS 75, 15–20 (2009)
Mientras que la tirosina 142 en la primera repetición armadillo es determinante para la unión con la
cat-α, las tirosina quinasas Fer y Fyn inducen la fosforilación de este residuo dando por resultado la inhibición de la unión de cat-β con la cat-α.
El mecanismo molecular de este cambio funcional no
está totalmente establecido, sin embargo, se ha sugerido que la fosforilación en la tirosina 142 promueve
la unión con el coactivador nuclear BCL9-2 o parecido al Linfoma 9 de células B (BCL9-like) (por sus siglas en ingles B-cell Lymphoma 9-like).
Conclusiones
Las cateninas son proteı́nas citoplasmáticas que regulan la función adhesiva de las cadherinas. La unión
celular no es solo que dos células se encuentren estrechamente juntas, sino que es un mecanismo de unión
más complejo en el que participan moléculas de adhesión propias de la célula, su interacción con la matriz extracelular y el citoesqueleto, que en conjunto responden a estı́mulos externos. La unión celular dependiente de cadherinas tiene una participación importante en la morfogénesis y en desarrollo
de algunos tipos de tumores o metástasis. La función de la cadherina-E se encuentra alterada en muchos cánceres epiteliales debido a una inactivación
mutacional de la cadherina-E o de genes de la catenina beta. El papel de las proteı́nas de señalización que se asocian con el complejo cadherinacatenina es un área importante para futuros estudios, particularmente con respecto a las alteraciones en las vı́as de señalización observadas después
del rompimiento del complejo de adhesión. La realización de estudios que permitan valorar la expresión de moléculas de adhesión como la cadherina-E
y cateninas en algunos tipos de tumores podrı́a ayudar a establecer una correlación de estos con el grado histológico, estadio clı́nico y recurrencia de dicha
enfermedad.
Bibliografia
1. Gottardi CJ, Gumbiner BM. Distinct molecular
forms of beta-catenin are targeted to adhesive or
transcriptional complexes. J. Cell Biol 167: 339349, 2004.
2. Gumbiner BM. Regulation of cadherin-mediated
adhesion in morphogenesis. Nat Rev Mol Cell Biol
6: 622-634, 2005
3. Huber AH, Weis WI. The structure of the betacatenin/ E-cadherin complex and the molecular basis of diverse ligand recognition by betacatenin. Cell 105: 391-402, 2001.
Catenina Beta. . . Alfredo Trejo C., Maria del Carmen Navarro M., Adolfo Rosado G.
19
Figura 2. Complejo de adhesión cadherina-catenina. La cadherina se une a través de su dominio intracelular con la
catenina beta. La catenina alfa sirve como intermediario de unión entre el complejo cadherina-catenina beta y los
filamentos de actina.
Figura 3. Vı́a de señalización Wnt. La función de transducción de señales de la catenina beta es regulada a través de
los niveles de catenina beta que se encuentran libres en el citoplasma y que pueden ser translocados hacia el núcleo.
Los niveles de la catenina beta son controlados a través de la via Wnt: a) en su forma inactiva esta vı́a promueva
la fosforilación de la catenina beta a través de un complejo de cinasas (GSK3/APC) provocando su degradación b)
mientras que en su forma activa se inhibe la fosofrilación de la catenina beta dando por resultado su translocación
hacia el núcleo, donde se une a co-activadores de la transcripción génica (Tef/LeF).
20
4. Roura S, Miravet S, Piedra J, Garcia de Herreros
A, Dunach M. Regulation of E-cadherin/catenin
association by tyrosine phosphorylation. J. Biol
Chem 274: 36734-36740, 1999.
5. Huber AH, Nelson WJ, Weis WI. Threedimensional structure of the armadillo repeat region of beta-catenin. Cell 90: 871-882,
1997.
6. Piedra J, Martı́nez D, Castaño J, Miravet S,
Duñach M, Garcı́a de Herreros A. 2001. Regulation of β-catenin structure and activity by tyrosine phosphorylation. J. Biol. Chem. 276:20436-43.
ContactoS 75, 15–20 (2009)
7. Yap AS, Kovacs EM. 2003. Direct cadherinactivated cell signaling: a view from the plasma
membrane. J. Cell Biol, 160:11-16.
8. Gottardi CJ, Wong E, Gumbiner BM. 2001. Ecadherin suppresses cellular transformation by
inhibiting b-catenin signaling in an adhesionindependent manner. J. Cell Biol, 153:1049-1060.
9. Rijsewijk F, M. Schuermann, E. Wagenaar, P. Parren, D. Weigel y R. Nusse.1987. The Drosophila homolog of the mouse mammary oncogene int1 is identical to the segment polarity gene wingless. Cell 50(4):649-657.
cs
Análisis estructural de un motor de corriente directa
S. A. Rodrı́guez Paredes*, R. J. Rodrı́guez Lozoya**
M. González Solano***
Recibido: 21 de diciembre de 2009.
Aceptado: 11 de enero de 2010.
el análisis de pasividad ha sido ampliamente estudiado, por ejemplo: en [2] se aplica la técnica de estabilización y regulación de sistemas no lineales para el caso de un motor DC de escobillas, en cambio en [3] el enfoque es utilizando la forma hamiltoniana controlada por puertos donde aplican la metodologı́a de Interconexión y Asignación de Amortiguamiento (IDA). Los enfoques anteriores son bien
conocidos, sin embargo, se requiere del conocimiento de la fı́sica del sistema, unidades de las constantes que aparecen en el modelo, selección adecuada
de las variables de estado y Hamiltonianas. Esta selección de variables no es evidente, sino más bien resulta de la experiencia en el modelado de sistemas
eléctricos y mecánicos, y ası́ como de la apropiada selección de coordenadas generalizadas de posición, velocidad y cantidad de movimiento.
Abstract
In this paper some classical results of the nonlinear
analysis are presented for a separately excited direct current (DC) motor, the structural term is proposed since the focus of control, in the analysis of
the mathematical structure that keep the dynamics
of the system (the differential equations that describe the model of the motor) and not of the mechanical structures. In this way, the physical knowledge of the variables is avoided.
Resumen
En este trabajo se presenta el análisis estructural de
un motor de CD. Ası́ como algunos resultados clásicos del análisis no lineal un motor de corriente directa con flujo de campo constante e independiente del circuito de la armadura. El término estructural
se propone desde el enfoque de control, en el análisis
de la estructura matemática que guardan las dinámicas del sistema (las ecuaciones diferenciales que describen el modelo del motor) y no de las estructuras mecánicas. De este modo, se evita el conocimiento fı́sico de las variables.
En esta propuesta, se revisa el análisis de pasividad por medio de variables Hamiltonianas y el modelado por medio de sistemas perturbados para el motor de CD bajo dos puntos de vista: uno fı́sico (enfoque clásico) y otro matemático o enfoque estructural. El enfoque fı́sico explota el conocimiento sobre los parámetros y las unidades fı́sicas del motor de
CD, ası́ como cierta experiencia en identificar constantes de tiempo en sistemas eléctricos y mecánicos. En el enfoque matemático, se emplea la teorı́a
de control para la selección de las variables de estado y de las variables Hamiltonianas. Un enfoque estructural permite realizar dicha selección, por medio de las formas canónicas de Brunovsky y compañera [4], ası́ como de la transformada de Legendre.
Las variables encontradas en ambos enfoques no son
iguales, pero equivalentes vı́a una matriz de transformación. Finalmente se concluye comparando ambos
enfoques.
Palabras clave: Forma de Brunovsky, Lagrangiano,
Hamiltoniano, transformación de Legendere.
Introducción
Los motores de corriente directa (CD) son ampliamente usados a nivel industrial. Permiten un amplio rango de velocidad y pueden proporcionar un alto par con control más sencillo y económico que cualquier motor de corriente alterna. En los últimos años
se han diversificado las técnicas de control no lineal,
* SEPIESIME - UA, IPN Av. Las Granjas No. 682, Col.
Sta. [email protected] Tel. 57296000 Ext. 64494.
** División Académica de Ing y Arq., UJAT Carretera Cunduacán-Jalpa Km 1, Cunduacán, Tab. [email protected] Tel. 9933155800.
*** División Académica de Ing y Arq., UJAT Carretera Cunduacán-Jalpa Km 1, Cunduacán, Tab. [email protected] Tel 9933155800
El modelo del motor de CD
El modelado matemático del motor de CD requiere de dos ecuaciones, una ecuación mecánica y otra
ecuación eléctrica. Estas ecuaciones están acopladas
y se basan en las Leyes de Euler y Kirchhoff, res21
22
ContactoS 75, 21–26 (2010)
pectivamente. Por una parte, la ecuación mecánica modela principalmente el movimiento del rotor.
Esta consiste en la ecuación clásica de segundo orden, más un término de origen eléctrico:
M θ̈ + N θ̇ + Ñ θ = τem
(1)
Donde M es el momento de inercia del rotor, N el
coeficiente de fricción, Ñ es una constante que se relaciona con la energı́a potencial, y τe m es el par electromagnético generado por el subsistema eléctrico.
τem
= Ki
vem
= Kω
Donde K es constante y ω = θ̇, entonces las simplificaciones anteriores permiten reescribir (1)-(2) de la
siguiente forma vectorial
M dω
dt
di
L dt
=
0
K
−K −R
ω
i
+
0
1
u (3)
Forma de Brunovsky del Motor de CD
Enseguida se discuten algunas representaciones alternativas del modelo del motor de CD (3) y se determina la Forma de Brunovsky del motor de CD.
La representación clásica en variables de estado para
el motor de CD es
Figura 1. Circuito equivalente motor CD.
Por otra parte, el subsistema eléctrico consiste en
λ̇ + Ri + vem = u
dω
dt
di
L dt
=
0
−K
L
K
M
−R
L
ω
i
+
0
1
L
u
(4)
La cual se acostumbra escribir simplemente como
(2)
ẋ = Ax + Bu
(5)
Donde λ es el vector de enlaces de flujo, R es una matriz cuadrada diagonal de las resistencias del estator
y el rotor, i y u son los vectores de corriente y voltaje, respectivamente, en los embobinados del motor y
vem es la fuerza contralectromotrı́z debida al movimiento mecánico.
donde x = (x1 x2 )T = (ω i)T , B = (0 1/L)T y A es
la matriz cuadrada en (4).
Ası́ los sistemas mecánico (1) y eléctrico (2), describen la dinámica de un motor eléctrico en general. En el caso del motor de CD controlado por armadura, el sistema de ecuaciones (1)-(2), se simplifica para describirlo en variables de estado bajo la siguiente hipótesis: suponga que la excitación del estator es constante, y el rotor se alimenta mediante una fuente de CD, por lo que λ es un escalar. Suponga que la inductancia del rotor L es una constante real. De hecho, cuando se tiene θ̇ constante, el promedio de L es constante, sin embargo, en la práctica la hipótesis anterior funciona razonablemente bien
aún en el control de posición. Finalmente, si se desprecian los términos N y Ñ y los términos de acoplamiento de las ecuaciones (1)-(2), se suponen lineales, entonces
xH = (π λ)T
Sin embargo, la representación en variables de estado
no es única, por ejemplo, se puede seleccionar como
vector de estado
donde π = M ω es la cantidad de movimiento angular, y obtener
π̇
λ̇
=
0
K
−M
K
L
−R
L
π
λ
+
0
1
u
(6)
Es decir
ẋH1 = AH1 + BH1 u
(7)
Con BH1 = (0 1)T y AH1 es la matriz cuadrada en
(6).
Análisis estructural de un motor. . . S. A. Rodrı́guez P., R. J. Rodrı́guez L. M. González S.
Se hace notar que el par de matrices (A, B) y
(AH1 , BH1 ), en (4) y (6) respectivamente, son diferentes y están relacionadas en este caso mediante la transformación
T = CA =
K
ML
23
0
1
L
0
(9)
define el cambio de variables
TH1 =
1
M
0
1
L
0
xL = T −1 x =
Lo cual introduce el cambio de variables
T
ML
ω Li
K
Luego el sistema
−1
XH1 = TH1
x
Una forma más general que se relacionan dos pares
de matrices es mediante el grupo feedback, el cual introduce una relación de equivalencia entre pares de
matrices y los caracteriza mediante la forma canónica de Brunovsky [1]. Ası́, para el par (A, B) se obtiene su forma de Brunovsky (AB, BB), mediante el grupo de transformaciones (T, F, G), de dimensiones apropiadas, tal que
(AB , BB ) = (T −1 (A + BF )T, T −1 BG)
(8)
donde T y G no son singulares. El significado fı́sico
de este grupo es: un cambio de variable en el estado
mediante la matriz T y la retroalimentación
u = F x + Gv
ẋL = AL xL + BL u
donde AL está en forma compañera
AL =
0
K2
−M
L
C=
K
M
− LR2
1
L
La matriz
A=
R
L
1
1
0
donde se utilizó el coeficiente de s del polinomio caracterı́stico de A,
det(sI − A) = s2 +
por lo que
, BL =
0
1
(11)
K2 R
F =
ML L
T
y G=I
(12)
Entonces se obtiene el sistema
ẋB = AB xB + BB v
donde el par
En el caso de (5), se puede encontrar la forma de Brunovsky con la ayuda de la matriz de
controlabilidad
0
1
−R
L
Finalmente, si se selecciona
donde v es una nueva entrada de control.
(10)
R
k2
S+
L
ML
(AB , BB ) =
0
0
1
0
,
0
1
está en forma de Brunovsky, xB = xL , y las transformaciones T, F y G están dadas por (9) y (12).
Enfoque variacional del motor de CD
Ahora se verán los enfoques Lagrangianos y Hamiltonianos para el modelo del motor de CD. Considérese nuevamente el sistema (10). La estructura del par (AL , BL ) en la ecuación (11) y
las componentes del vector de estado (variables
Lagrangianas)
(AB , BB ) =
0 1
0 0
0
1
determinan la ecuación de segundo orden
M Lq̈ + RM q̇ + K 2 q = M Lu
(13)
24
ContactoS 75, 21–26 (2010)
De aquı́ se concluye que la posición q y la velocidad q̇ son variables generalizadas, mientras que los
términos M Lq̈, RM q̇,K 2 q y M Lu, son las fuerzas
de la inercia, de fricción o disipativas, potenciales y
las fuerzas generalizadas que actúan sobre el sistema respectivamente.
q̇
ṗ
Por lo anterior, se propone el siguiente Lagrangiano:
Con energı́a cinética K(q̇) = 12 M Lq 2 y energı́a potencial V(q) = 12 K 2 q 2 , lo cuál satisface la ecuación
Euler–Lagrange (13)
d ∂L ∂L
−
=τ −f
dt ∂ q̇
∂q
(14)
Donde τ = M Lu y f = RM q̇.
La ecuación (13) se puede escribir en variables de
estado como
q̇
q̈
=
0
K2
−M
L
1
−R
L
q
q̇
+
+
0
−1
1
0
u
0
ML
−
0
0
0 RM
∂H
∂q
∂H
∂p
!
(18)
donde se seleccionó y = p como salida pasiva. En
forma simplificada el sistema (18) es
L(q, q̇) = K(q̇) − V(q),
=
0
1
u
(15)
ẋH2 = (S − P )∇h + BH2 u
(19)
T
y = BH2
∇H
(20)
Donde S y P son las matrices simétricas y antisimétricas en (18) respectivamente, y P ≥ 0.
Se remarca que la selección de las variables generalizadas q, q̇, p no es única, de hecho es fácil verificar que si selecciona como vector de estado xH1 =
2
(M ω Li)T , Hamiltoniano H1 = L2 i2 + M
2 ω y la salida pasiva y1 = i, entonces el sistema (3) con salida pasiva y1 se escribe como
O en un sistema Hamiltoniano. Para obtener dicha representación, recuerde que el Hamiltoniano
H(q, p) se puede ver como la transformada de Legendre del Lagrangiano, como función de q̇:
ẋH1 = (S1 − P1 )∇H1 + BH1 u
(21)
T
y1 = BH1
∇H1
(22)
donde
H(p) = pq̇ − L(q̇)
Donde p =
∂l
∂ q̇ .
S1 =
Luego
2
p
1 2 2
H(p, q) = 2M
L + 2 K q y se obtiene la siguiente
representación
q̇
ṗ
=
0
−K
2
1
ML
−R
L
q
p
+
0
ML
u (16)
La cual se representa también como
ẋH2 = AH2 xH2 + BH2 u
(17)
donde ẋH2 = [q p]T , B = [0 M L]T y AH2 es la
matriz cuadrada en (16). Ahora, considere ∇H =
[K 2 q M1L p]T , por lo que se reescribe (16) como el
sistema Hamiltoniano
BH 1 =
0
−K
0
1
K
0
, P1 =
0
0
0
R
, S1 = S1T , P1 = P1T ≥ 0
La selección de las variables Hamiltonianas no es trivial. La selección de xH1 = (M ω Li)T en (7) como variables Hamiltonianas se basó en los hechos
fı́sicos, mecánicos y eléctricos (cantidad de momento angular y enlaces de flujo). Mientras que la selección de xH2 = [q p]T en (16), se desarrolló solo en
hechos matemáticos como cambios de base, Lagrangianos, Hamiltonianos y transformaciones de Legendre. Ambas representaciones se relacionan mediante
un cambio de vector de estado xH2 = T21 xH1 y cambio de gradiente de los Hamiltonianos H = T1 H1 ,
con
Análisis estructural de un motor. . . S. A. Rodrı́guez P., R. J. Rodrı́guez L. M. González S.
T21 =
L
M
0
LM
0
, T1 =
KLM
0
0
L
Finalmente, se concluye que como P y P1 son semidefinidas positivas en H y H1 están acotadas por
abajo, entonces el modelo del motor de CD es pasivo como una función de almacenamiento H o H1 dependiendo de las variables seleccionadas.
Modelo de perturbación singular
del motor de CD
En esta sección se revisa el modelo perturbado del
motor de CD. Esto es, se busca un parámetro de perturbación pequeño en el modelo. Esta labor se puede realizar cuando se tiene conocimiento del proceso fı́sico. En el caso del motor, el parámetro pequeño es la inductancia L. Para buscar este parámetro se acostumbra adimensionar los parámetros fı́sicos (lo cual requiere de las unidades fı́sicas de las variables). Se considera el sistema (4)
dω
dt
di
dt
=
0
−K
L
K
M
−R
L
ω
i
+
0
1
L
El proceso anterior para encontrar el modelo perturbado del motor de CD no es evidente, aún con conocimiento fı́sico de las variables mecánicas y eléctricas. Por esta razón se propone un método alternativo, el cual se puede extender a otros sistemas de segundo orden distintos del motor.
Considere el sistema (15)
q̇
q̈
=
0
−ωn2
1
−2ζωn
ω
i
u
, ir =
, ur =
Ω
KΩ
KΩ
=
0
−1
1
−1
ωr
ir
+
0
1
ur
donde el término ε = Te /Tm . Finalmente se obtiene
el modelo reducido
2
Mω = −
K
K
ω+ u
R
R
+
0
1
u
Donde ζ representa el coeficiente de amortiguamiento, ωn es la frecuencia natural de la oscilación del sistema, 2ζωn = B/L y −ωn2 = K 2 /M L.
Como el recı́proco de ωn tiene unidades de tiempo y 0 ≤ ζ ≤ 1 es adimensional, se propone
el cociente
ε=−
2ζωn
2ζ
RM
−
−
2
ωn
ωn
K2
Luego, si la prima (′ ) denota la derivada respecto de
τr , se tiene
q′
q ′′
=
0
−ωn2
1
−2ζωn
2ζωn
q
q′
+
0
ωn
2ζ
u
dq
ω2
ωn
= − nq +
u
dτr
2ζ
2ζ
Finalmente, en términos de la velocidad angular ω,y
q = M Lω/K,
ω=−
dωr
dt
r
ε di
dt
q
q̇
Se desprecia ε y se determina el modelo reducido
Posteriormente se identifican las constantes de tiempo mecánicas Tm = JR/K 2 y eléctricas Te = L/R.
Luego por conocimiento fı́sico se sabe que Tm ≫
Te , se introduce una variable de tiempo adicional
tr = t/Tm y se obtiene el sistema perturbado del motor de CD
cuando ωn ≫ 2ζ (caso general), de otro modo su
recı́proco y el tiempo τr = εt
u
Se adimensionan las variables relativas de velocidad angular, corriente y voltaje respectivamente,
con respecto a un valor caracterı́stico de velocidad
angular Ω
ωr =
25
(23)
K
K2
ω+
u
MR
MR
(24)
Por lo anterior se concluye que la estructura del sistema (23) y (24) es la misma, pero la determinación de (24) solo se utilizó la descripción en variables Lagrangianos del motor de CD evitando adimensionar las variables Lagrangianas y el tiempo.
Conclusiones
En este trabajo se presentó el modelo del motor de
CD. Se revisó la descripción en variables de estado,
26
Lagrangianos y Hamiltonianos, ası́ como el modelo de perturbación singular. Las anteriores representaciones se desarrollaron bajo un enfoque matemático, el cual consiste en cambio de variables, formas
canónicas, Lagrangianos, Hamiltonianos y transformacion de Legendere. Los resultados se compararon
con la literatura clásica, la cual explota los hechos
fı́sicos y el conocimiento de las unidades de las variables utilizadas.
ContactoS 75, 21–26 (2010)
3. Morillo Pina, Atilio, Rios, E. Miguel y Acosta, Vivian. Stabilization of a brushed DC motor with
the port controlled Hamiltonian approach. Rev.
Téc. Ing. Univ. Zulia, ago. 2006, vol.29, no.2,
p.111-118. ISSN 0254-0770.
4. Pei Yuan Wu, Hwa-Long Gau. Companion matrices: reducibility, numerical ranges and similarity to contractions. Linear Algebra and its Applications, Volume 383, 15 May 2004, Pages 127-142
Referencias
1. Brunovsky, P. A. A Classification of Linear controllable Systems. Kibernetica Vol. 6, No. 3, 173178, 1970.
2. Chouch S, Said Nait Saud M. Backstepping Control Design for position and Speed Tracking of
DC Motor. Asian journal of Information Technology 5(12): 1367 - 1372, 2006.
cs
Curiosidades de la fı́sica, parte XII
José Marı́a Filardo Bassalo,
Fundación Minerva, Prof. retirado de la Universidad de Pará
www.bassalo.com.br
Recibido: 08 junio 2008.
Aceptado: 27 mayo 2009.
Las leyes de Galileo del péndulo, de la caı́da
libre y de la composición de velocidades
Son bien conocidas las narraciones acerca de las experiencias que llevaron al fı́sico y astrónomo italiano Galileo Galilei (1564–1642) al descubrimiento de las leyes del péndulo y de la caı́da libre. Sin embargo, en los dos casos, no hay fechas precisas ni registro de las razones que lo llevaron a realizar los experimentos que permitieron la formulación de las leyes mencionadas.
Estas imprecisiones, según el fı́sico e historiador de la
ciencia, el norteamericano Tony Rhotman, en su libro “Todo es relativo y otras fábulas de la ciencia y la
tecnologı́a” (DIFEL, 2005) se deben a que tales historias nunca fueron escritas por Galileo en ninguno
de sus libros sino por uno de sus discı́pulos, el fı́sico italiano Vincenzio Viviani (1622–1703), en una
obra inconclusa que escribió a la muerte de su maestro. Como era un perfeccionista, empleó cincuenta
años en revisar lo que escribı́a y murió sin verlo publicado, lo que ocurrió en 1717. Es por lo anterior que
los historiadores de la ciencia presentan fechas y versiones diferentes acerca de la motivación en el estudio de esos fenómenos.
Réplica del reloj de Galileo.
Fuese o no motivado por esa observación, el hecho es
que Galileo comenzó a experimentar con péndulos de
diferentes longitudes y pesos. Observó que las oscilaciones de éstos, a pesar de tener amplitudes diferentes, siempre implicaban el mismo tiempo en una oscilación completa, y ası́ lo comunicó al marqués italiano Guidobaldo del Monte (1545–1607) en la carta del 29 de noviembre de 1602.3
Es oportuno destacar tres hechos curiosos acerca del
péndulo. El primero es que el isocronismo galileano
llevó al médico italiano Sanctorius Sanctorius (1561–
1636) a inventar el pulsilogium, útil para diagnósticos médicos. Aprovechemos para decir que también
inventó el primer termómetro clı́nico al adaptar una
escala termométrica rudimentaria al termoscopio inventado por Galileo en 1592 ó 1597.
En el caso de las leyes del péndulo, fue en 15811 o
15832 que Galileo observó, durante una ceremonia en
la Catedral de Pisa, que el periodo de oscilaciones de
un candelabro puesto en movimiento por el viento,
no dependı́a de que tales oscilaciones fueran lentas o
rápidas. Midió los perı́odos de las oscilaciones con su
propio pulso. Destaquemos que este isocronismo ya
habı́a sido observado en el siglo X por el astrónomo
árabe Ibn Junis, según afirma Geymonat.
El segundo hecho acerca del péndulo se refiere a la
correcta formulación de sus leyes. Ésta fue presentada por el fı́sico holandés Christiaan Huygens (1629–
1695), en 1659, al demostrar que la trayectoria ci-
1 Según el quı́mico e historiador de la ciencia Isaac Asimov,
“Genios de la humanidad” (Bloch Editores, 1972).
2 Según los historiadores de la ciencia James Reston Jr. en
“Galileo: una vida” (José Olympio, 1995) y Ludovico Geymonat en “Galileo Galilei” (Nova Fronteira, 1997).
3 Stillman Drake “Galileu” (Publicações Dom Quixote,
1981) y Cortes Pla “Galileo Galilei” (Espasa–Calpe Argentina, S. A., 1946).
27
28
ContactoS 75, 27–35 (2010)
por lo que, después del impacto, ambas masas oscilan con la misma velocidad. Hoy se sabe que, en primera aproximación (ya que se desprecia la energı́a
térmica), se puede aplicar el principio de conservación de momento linear y de energı́a (cinética y potencial) para calcular la velocidad aproximada del
proyectil al salir del arma.
Termoscopio de Sanctorius: el aire caliente desplazaba
hacia abajo a la columna de lı́quido.
cloidal hace que el perı́odo del péndulo sea independiente de su amplitud. Con esto determinó la relación entre el tiempo de caı́da de un cuerpo a lo largo de una cicloide (curva generada por un punto situado sobre un cı́rculo que se desplaza a lo largo de
una lı́nea recta) y el tiempo de caı́da a lo largo del
diámetro del cı́rculo generador de la cicloide. A partir de esa relación obtuvo por primera vez la expresión para el perı́odo T (mitad del tiempo de una oscilación completa) de un péndulo simple:
s
ℓ
T =π
g
expresión con la que determinó el valor de la aceleración gravitacional, g = 9.806 m/s2 . En ese experimento utilizó un péndulo con ℓ = 6.18 pulgadas y 4,964 oscilaciones dobles por hora. Es oportuno anotar que Huygens publicó en 1673 su famoso
libro Horologium Oscillatorium sive de Motu Pendulorum, donde describe sus experimentos con péndulos (simples y compuestos) e, incluso, la construcción de su reloj de péndulo.
El tercer hecho acerca del péndulo está relacionado con su uso en la determinación de la velocidad de
los proyectiles: el péndulo balı́stico, inventado por el
matemático e ingeniero militar inglés Benjamin Robins (1707–1751) y descrito en su libro New Principles of Gunnery, publicado en 1742. Básicamente este péndulo consiste de un cuerpo suspendido por un
hilo hacia el que se dispara el proyectil cuya velocidad y, por consiguiente, su energı́a cinética, se quiere determinar. Se trata de una colisión inelástica
Veamos a continuación los experimentos realizados
por Galileo para formular las leyes de caı́da libre.
Según escribe Reston Jr., Galileo habrı́a observado en la torre del campanario de la catedral de Pisa, la caı́da de esferas de distintos tamaños y materiales (plomo, cobre, oro, ébano, pórfido) para contrastar el resultado descrito por el filósofo italiano
Girolamo Borro (1512–1592), esto es, que la esfera más pesada caı́a más rápidamente, lo que confirmarı́a lo propuesto por el filósofo griego Aristóteles de Estagira (382–322 a.n.e.).
Galileo, en el supuesto experimento de la Torre de
Pisa, observarı́a que las bolas de pesos y materiales diferentes caı́an al mismo tiempo. Según esta leyenda, después del experimento, Galileo fue aclamado por una multitud compuesta de estudiantes, profesores y filósofos. Probablemente, los aristotélicos
empedernidos hicieran algunos abucheos al ver que
no llegaban al mismo instante. Y Galileo habrı́a respondido que la diferencia se explicaba por la resistencia debida al aire, en el vacı́o todas las bolas llegarı́an en el mismo instante.
Cuando Neil Armstrong, en su histórica llegada a
la Luna (sin atmósfera), el 20 de julio de 1969,
dejó caer un martillo y una pluma exclamó “¿Lo
vieron? ¡Galileo tenı́a razón!”. Es también oportuno
anotar que, según afirma el fı́sico Peter R. Holland
en The Quantum Theory of Motion: An Account of
the de Broglie–Bohm Causal Interpretarion of Quantum Mechanics (Cambridge University Press, 1993),
los cuerpos en el vacı́o no caen con la misma aceleración independiente de su masa, esto es:
~a 6= −~g
la confirmación podrı́a hacerse con objetos cayendo
desde grandes alturas en un ambiente sin atmósfera, lo que confirmarı́a a la mecánica cuántica no–
ortodoxa.
Regresando a la legendaria observación de Galileo en
la catedral de Pisa sobre el isocronismo del péndulo y la caı́da de cuerpos en el campanario, anotemos que estos experimentos no fueron descritos en
sus trabajos acerca del movimiento de los cuerpos.
Curiosidades de la fı́sica, XII. José Marı́a Filardo Bassalo
En efecto, el libro De Motu, donde relata sus estudios de 1589 a 1592, no menciona los experimentos de la torre inclinada de Pisa; sólo señala que, las
conclusiones de los experimentos que realizó acerca de la caı́da de los cuerpos son:
1. Las velocidades de los cuerpos en caı́da en un determinado medio son proporcionales a la diferencia entre sus pesos y el medio en cuestión.
2. En el vacı́o, la velocidad del cuerpo depende de
su propio peso total.
Tanto la legendaria observación en la catedral de Pisa, como la del campanario, fueron descritas por Viviani, según afirman Reston, Jr. y Rothman.
Es interesante observar que el matemático flamenco Simon Steviun (Stevin) de Bruges (1548–1620),
en 1586, en Bélgica, realizó experimentos acerca de la
caı́da de los cuerpos; observó que dos esferas de plomo, una diez veces más pesada que la otra, al ser
arrojadas de una altura de 30 pies, llegaron al suelo al mismo tiempo.
Galileo escribió el 16 de octubre de 1604 a su amigo, el fraile Paolo Sarpi (1531–1623) (conocido como “el Maquiavelo de Venecia”) sus ideas iniciales
respecto a las leyes que rigen el movimiento de los
cuerpos, mismas que fueron presentadas y discutidas en sus dos famosos libros: Dialogo supra i due
Massimi Sistemi del Mondo Tolemaico e Copernicano (1632) y Discorsi e Dimostrazione Mathematiche intorno a Due Nuove Scienze Attenenti alla Mechanica ed i Movimenti Locali (1638)4
En el Dialogo Galileo examinó la caı́da de los cuerpos en un navı́o parado o en movimento y de lo alto de una torre (¿serı́a la de Pisa?), el movimiento
de los proyectiles y el vuelo de las aves en una Tierra en movimiento. De ese modo, mostró mediante argumentos lógicos la imposibilidad de determinar si un barco está anclado o moviéndose tranquilamente en el mar. Según Galileo, si un observador estuviera en un camarote, ninguna observación simple como el movimiento de los insectos en el aire,
o de los peces en una pecera, bastarı́a para determinar el estado de movimiento del barco, esto es,
si se halla parado o en movimiento rectilı́neo uniforme. En este libro también discute los experimentos ideales acerca del movimiento ascendente y descendente de cuerpos en planos inclinados y relacio4 “Diálogo acerca de los dos máximos sistemas del mundo ptolomaico y copernicano” y “Discursos y demostraciones matemáticas alrededor de dos nuevas ciencias acerca de
la mecánica y los movimientos locales”.
29
nados con el impetus, tema estudiado en 1613; también trata de otros temas polémicos: las mareas y la
rotación de la Tierra.
Acerca de la rotación de la Tierra, Galileo refutó el
argumento principal de los aristotélicos y ptolomeicos, es decir, que si el planeta girase alrededor de su
centro los cuerpos no estarı́an fijos en su superficie
pues serı́an arrojados hacia fuera y que la propia Tierra serı́a despedazada. A favor de su tesis, Galileo argumentó que, cuando un cuerpo es arrojado horizontalmente a partir de un punto de la superficie terrestre, tiene un “ı́mpetus” para moverse según una tangente, pero también tiene una tendencia a bajar, debido a la gravedad. Y esta desviación, por menor
que sea, basta para retener a ese cuerpo en la superficie de nuestro planeta. Para justificar esa conclusión presentó argumentos geométricos donde comparó la distancia recorrida por el cuerpo en la tangente y la recorrida por acción de la gravedad; observó que esta última es mucho mayor que la primera. Con todo, no supo precisar qué tanto mayor. En
1636 el matemático, fı́sico y teólogo, el franciscano
francés Marin Mersenne (1588–1648) mostró que Galileo habı́a cometido un error de interpretación en su
argumentación.
En cuanto al problema de las mareas, Galileo cometió una vez más el mismo error de 1616: afirmar que las mareas se deben a los movimientos de
la Tierra de rotación y traslación. Según ese argumento, la asociación de los dos movimientos hacı́a
que en algunos puntos de la Tierra hubiera velocidades resultantes mayores que en otros lo que provocarı́a un ciclo de mareas igual a 24 horas. Sin embargo, el ciclo de mareas es aproximadamente de 12 horas. La explicación correcta de las mareas fue presentada por el fı́sico y matemático Sir Isaac Newton (1642–1727) con su ley de gravitación universal de 1687.
En toda la discusión referida, Galileo usó el principio de relatividad del movimiento que, en lenguaje actual, está representado por las expresiones:
x′ = x + V t
y′ = y
z′ = z
t′ = t
(o, equivalentemente, v ′ = v), donde x′ es la posición de una partı́cula que se desplaza con una velocidad v ′ respecto a un observador fijo O′ , y x es la posi-
30
ContactoS 75, 27–35 (2010)
ción de esa misma partı́cula que se desplaza con velocidad v respecto a otro observador O que, a su vez, se
desplaza con velocidad constante V en relación al observador O′ en la dirección de una recta seleccionada (en este caso, el eje de las x′ (x)). Es interesante resaltar que este “principio galileano”, que deja invariante la segunda ley de Newton
ẍ′ = ẋ
fue nombrado transformación de Galileo por el fı́sico alemán Philipp Frank (1884–1966) en un artı́culo de 1909.5 Destaquemos también que la invariancia indicada demuestra la afirmación de Galileo de
que es imposible determinar el movimiento de un
navı́o que se desplaza a velocidad constante.
En los Discorsi Galileo abordó geométricamente las
leyes de equilibrio de los cuerpos, la hoy conocida resistencia de los materiales (su primera ciencia) y
las leyes del movimiento (su segunda ciencia). Estudió el movimiento uniforme y el movimiento uniformemente acelerado para, en seguida, aplicarlos a la
caı́da libre de los cuerpos, al movimiento de los cuerpos en planos inclinados, al movimiento del péndulo
y el de los proyectiles. Al estudiar la caı́da libre descubrió sus célebres leyes:
1. Las velocidades (v) de los cuerpos en caı́da libre
son proporcionales a los tiempos (t) empleados en
las mismas: v ∝ t,
2. Los espacios recorridos por los cuerpos en caı́da
libre son proporcionales a los cuadrados de los
tiempos empleados: s ∝ t2 .
Es interesante notar que Galileo usó un instrumento ingenioso para medir esos tiempos. Empleó un recipiente con grandes dimensiones transversales, hizo un orificio pequeño en su fondo y lo llenó de agua,
la cual fluı́a a una balanza. Debido a las grandes dimensiones horizontales del recipiente, la altura del
nivel de agua era prácticamente invariable, de modo que el tiempo de vaciado era proporcional al peso de agua que llegaba a la balanza.
En 1784 el fı́sico y matemático inglés George Atwood (1745–1807) publicó A Treatise on the Rectilinear Motion donde describe un instrumento (más
tarde conocido como máquina de Atwood) compuesto de dos masas (m) iguales, unidas por un hilo ligero que pasa sobre una polea también ligera y con fricción despreciable respecto a su eje de rotación. Cuan5 Sitzungsberichte Berlin Akademie der Wissenschaften
(Wien) 118, p. 373.
do se añade una tercera masa (m′ ) a una de las extremidades de la máquina, el sistema se desequilibra con una aceleración constante (a) dada por:
a=
m′ g
(2m + m′ )
expresión consistente con las leyes de caı́da libre obtenidas por Galileo. También mediante la máquina de Atwood fue posible medir la aceleración gravitacional (g) con gran precisión, ya que el método del péndulo debió esperar el desarrollo de relojes
precisos.
En los Discorsi, además de aplicar sus leyes de movimiento uniforme y uniformemente acelerado al movimiento de proyectiles, Galileo mostró que su trayectoria es parabólica (al obviar el efecto del aire). Demostró también que el alcance máximo de los proyectiles en lanzamiento oblicuo ocurre a un ángulo
de 45◦ y que el mismo alcance se tiene para ángulos
simétricos respecto a 45◦ . Anotemos que su alumno,
el fı́sico italiano Evangelista Torricelli (1608–1647)
habı́a llegado en 1630 al mismo resultado. Es interesante resaltar que durante la Primera Guerra Mundial (1914–1918) se descubrió accidentalmente que el
mayor alcance se logra un poco por encima de 45◦ ,
según escribe el fı́sico norteamericano Keith R. Symon en Mechanics (Addison–Wesley, 1961).
En la parte referente a la segunda ciencia, Galileo
describió en los Discorsi sus experimentos con lı́quidos y de resistencia de materiales en los que llegó a
determinar la resistencia a la tracción de hilos de cobre, de lo que propuso algunas teorı́as.
Según Asimov (op. cit.), Galileo fue el primero en
mostrar que, si un cuerpo crece uniformemente en todas las dimensiones lo hace a costa de un adelgazamiento progresivo. Ası́, el volumen aumenta al cubo, pero la resistencia aumenta apenas al cuadrado. Debido a esta ley, después conocida como “ley del
cubo–cuadrado”, los animales de gran tamaño necesitan patas proporcionalmente más robustas que las
de pequeña alzada. También en esa Segunda Ciencia, Galileo estudió la adhesión y adherencia de los
cuerpos y la semejanza fı́sica entre ellos. Con todo,
no llegó a ninguna relación entre la tracción ejercida y el alargamiento resultante, relación obtenida por el fı́sico inglés Robert Hooke (1635–1703) en
1678 y conocida como ley de Hooke.
Creemos oportuno concluir esta sección acerca del
trabajo de Galileo precisando que, a pesar de su
Curiosidades de la fı́sica, XII. José Marı́a Filardo Bassalo
31
aspecto revolucionario, principalmente en su intento de reformular la fı́sica aristotélica, tiene momentos de actitud reaccionaria. Mencionemos, por ejemplo, su afirmación de que los cometas eran ilusiones atmosféricas, contradiciendo las observaciones de
su propio telescopio, usado, además, para refutar las
afirmaciones de Aristóteles. Otra una de sus actitudes reaccionarias, quizá la mayor, fue ignorar los trabajos del astrónomo alemán Johannes Kepler (1571–
1630), principalmente la forma elı́ptica de las órbitas planetarias que éste propuso en A Nova Astronomia (1609); Galileo sólo concebı́a el movimiento de los cuerpos celestes en términos de cı́rculos
y epiciclos.
la desviación de aquellas leyes ocurre un significativo aumento de las fuerzas moleculares. En sus experimentos, Corwin y de Boer usaron un equipo conocido como nanotractor.9
No es de extrañar que Galileo considerara al modelo de Copérnico, que tan arduamente defendió, constituido de cı́rculos y epiciclos ¡como lo era el modelo de Ptolomeo!
4. La fuerza de fricción es independiente de la velocidad, una vez iniciado el movimiento.
Fricción
Según cuenta el fı́sico norteamericano Frederick Palmer (1787–1967) en su artı́culo intitulado “Fricción”6 fue el artista, inventor y cientı́fico italiano
Leonardo da Vinci (1452–1591) quien comenzó a realizar experimentos para estudiar la fricción alrededor de 1500. Sus resultados se encuentran en el Codex
Atlanticus, una colección de los escritos de da Vinci organizada por el escultor italiano Pompeo Leoni (1533–1608) y pueden ser resumidos en las siguientes leyes:
1. La fricción provocada por el mismo peso tendrá la
misma resistencia, al inicio del movimiento, aunque las áreas de contacto sean diferentes.
2. La fricción provoca el doble de esfuerzo si se duplica el peso.
3. La fricción depende de la naturaleza de los materiales en contacto.
Nótese que da Vinci llegó a encontrar el valor de 1/4
para el coeficiente de fricción.7 Esas leyes fueron redescubiertas en 1699 por el fı́sico francés Guillaume
Amontons (1663–1705). Es oportuno mencionar que,
en 2004, A. D. Corwin y Maarten de Boer8 confirmaron las leyes de da Vinci–Amontons para fuerzas normales en el intervalo 1×10−3 mN−50×10−6 µN donde 1 N (newton) = 1 kg m s−2 . Debajo del valor mı́nimo del intervalo referido, estos fı́sicos observaron que
6 Scientific
American, p.55, feb.1951.
Truesdell. Essays in the History of Mechanics,
Springer–Verlag, 1968.
8 Applied Physic Letters 84, p.2451.
En el siglo XVIII, un nuevo resultado en las leyes
de fricción fue obtenido por el fı́sico francés Charles Augustin Coulomb (1736–1806). En efecto, en
1781, presentó a la Academia Francesa de Ciencias
una memoria intitulada Théorie des Machines Simples, donde describe sus experimentos sobre la fricción y donde confirma las tres leyes de da Vinci–
Amontons; también presentó lo que hoy se conoce como la cuarta ley de la fricción:
De este modo mostró que habı́a una diferencia entre la fricción estática y la fricción dinámica. Hoy
esas leyes son resumidas en el siguiente conjunto de
ecuaciones:
Fi = µe N,
Fe ≤ µe N,
Fd ≤ µd N,
Fe 6= Fd ,
µe > µd ,
donde Fi representa la fuerza inicial necesaria para vencer las uniones moleculares (“soldaduras”) estre las superficies de contacto; Fe y Fd representa, respectivamente, las fuerzas de fricción estática y dinámica; µe y µd significan, respectivamente,
los coeficientes de fricción estático y dinámico, que
dependen del tipo de material en contacto (hierro–
hierro, hierro–madera, madera–madera, etc.); y N
es la reacción normal entre las superficies en contacto y se calcula mediante la ley de acción–reacción formulada por Newton en 1687. Nótese que, en el trabajo referido, Coulomb también formuló el concepto de fuerza de torsión al estudiar la torsión en alambres; concluyó que esa fuerza depende de la longitud y del diámetro del alambre.
Uno de los primeros estudios acerca del origen microscópico de la fricción fue presentado en 1929 por
el fı́sico inglés G. A. Tomlinson10 al afirmar que los
fonones son los responsables de los mecanismos de
7 C.
9 J.
Krim, www.nanotechweb.org
Magazine 7, p.905.
10 Philosophical
32
fricción.11 Una de las primeras medidas de la fuerza
de fricción en escala nanométrica (10−9 N) fue realizada en 1987 por los fı́sicos norteamericanos C. Mathew Mate, Gary M. McClelland, Ragnar Erlandsson y Shirley Chiang12 mediante un instrumento que
ellos inventaron: el microscopio de fuerza atómica.
En ese experimento observaron que la fuerza de fricción que actúa en un alambre de tungsteno cuya punta se desliza sobre una superficie plana de grafito no
dependı́a de la carga normal aplicada (< 10−4 N).
Observaron, además, que para el intervalo de velocidad comprendido entre 40 y 4 angstroms/s la
fuerza de fricción presentaba poca dependencia de
la velocidad.
En la segunda mitad de la década de 1980, fue objeto de estudio la fricción a nivel atómico por parte de la fı́sica norteamericana Jacqueline Krim mientras trabajaba en la Northeastern University de Boston, U.S.A. En 1991, Krim y sus colaboradores D. H.
Solina y R. Chiarello13 descubrieron que las pelı́culas de kriptón (36 Kr) deslizándose sobre superficies
cristalinas de oro (79 Au) eran más resbaladizas cuando estaban secas. Descubrieron además que la fuerza de fricción para las pelı́culas lı́quidas era cinco veces mayor que para las sólidas y confirmaron los mecanismos fonónicos de fricción.
En sus experimentos Krim y colaboradores usaron
una microbalanza de cuarzo. Es oportuno anotar
que, en ese artı́culo, apareció por primera ocación
el término nanotribologı́a para el estudio de la fricción en nanoescala. En 1996 Krim14 analizó los experimentos realizados en los últimos años en nanotribologı́a para concluir que las leyes macroscópicas
de fricción de da Vinci–Amontons–Coulomb no eran
válidas en la escala atómica. En ésta, valen las siguientes leyes:
1. La fuerza de fricción es proporcional al grado
de irreversibilidad (facilidad de adherencia) de la
fuerza que comprime dos superficies, en vez de la
simple magnitud de la fuerza.
2. La fuerza de fricción es proporcional al área de
contacto real en lugar de la aparente.
3. La fuerza de fricción es proporcional a la velocidad de deslizamiento de las superficies en
contacto.
11 Nótese que el fonón es el quantum de energı́a de vibración
de una red cristalina.
12 Physical Review Letters 59, p.1492.
13 Physical Review Letters 66, p.181.
14 Langmuir 12, p.4564, September; Scientific American
275, p.74, October.
ContactoS 75, 27–35 (2010)
Concluimos esta sección recomendando la página
www.nanotechweb.org donde el lector hallará información novedosa acerca de este tema y los artı́culos de Krim de 2005.15
Onnes y el descubrimiento de la
superconductividad
El fı́sico holandés Heike Karmelingh–Onnes (1853–
1926) nació en la ciudad de Groningen, Holanda. En
1870 entró a la Universidad de Groningen y, al año siguiente, ganó la medalla de oro con un trabajo sobre densidad de vapor en un concurso promovido
por la Facultad de Ciencias Naturales de la Universidad de Utrecht. En 1872 participó en un acto similar de la Universidad de su ciudad natal,
en el que ganó la medalla de plata. Entre 1871 y
1873 fue estudiante del quı́mico alemán Robert Wilhelm Bunsen (1811–1899) y del fı́sico alemán Gustav
Robert Kirchoff (1824–1887) en la Universidad de
Heidelberg.
En 1879 se doctoró (magna cum laude) en la Universidad de Groningen con la tesis Nieuwe bewijzen voor de aswenteling der aarde (“Una nueva prueba de la rotación de la Tierra”). En 1882, fue nombrado profesor de fı́sica experimental y meteorologı́a
en la Universidad de Leiden donde, en 1894, reestructuró el Laboratorio de bajas temperaturas (criogenia) que hoy lleva su nombre. En este laboratorio
desarrolló sus investigaciones sobre la Teorı́a Cinética de los Gases Reales (TCGR) desarrollada por su
compatriota, el fı́sico Johannes Diederick van der
Waals (1837–1932, premio nobel de fı́sica en 1910),
en 1873 y 1881.
Esta TCGR es hoy sintetizada en la famosa ecuación
de van der Waals:
a P + 2 (V − b) = RT
V
donde la constante a resulta de la colisión entre las
moléculas (presión interna), la constante b es el covolumen, esto es, el volumen propio de las moléculas,
P , V y T representan, respectivamente, la presión,
el volumen y la temperatura absoluta del gas, y R
es la constante universal de los gases.
Según narra el fı́sico norteamericano Robert L. Weber16 (n.1913) en la conferencia inaugural en la Universidad de Leiden (11 de noviembre de 1881), Onnes usó un aforismo que lo caracterizó durante to15 Physics
World 18, p.31.
of Science: Nobel Prize Winners in Physics
(The Institute of Physicas, 1980).
16 Pioneers
Curiosidades de la fı́sica, XII. José Marı́a Filardo Bassalo
33
presión:
1
−
2
*N
X
i
F~i r~i d~
ri
+
donde F~i es la fuerza que actúa sobre la i-ésima
molécula (de energı́a cinética media εi ) definida por
el vector r~i y h. . .i representa el valor medio de la expresión contenida en su interior. Cuando la expresión anterior se iguala a la energı́a cinética total
* n +
X
εi
i
de las N moléculas, se obtiene el famoso Teorema
del virial.
Kamerlingh Onnes (sentado) y van der Waals.
da su vida: Door meten tot weten (“Conocimiento a
través de la medida”).17
Con el objetivo de realizar medidas más precisas a
bajas temperaturas, Onnes estudió los trabajos de
van der Waals. Ası́, en 1901,18 propuso la siguiente
ecuación de estado de los gases reales:
B
C
D
E
F
PV
=1+ + 2 + 4 + 6 + 8
RT
V
V
V
V
V
donde B, C, D, E, F fueron llamados coeficientes viriales y dependen de T de acuerdo a:
T = b1 +
b2
b3
b4
b5
+ 2+ 4+ 6
T
T
T
T
con expresiones semejantes para las demás constantes. A partir de esa ecuación, Onnes obtuvo algunos resultados para gases reales. Con todo, quedaba un serio problema, la descripción teórica de aquellos coeficientes. Es oportuno recordar que el virial
fue definido por el fı́sico alemán Rudolf Julius Emmanuel Clausius (1822–1888) en 1870,19 con la ex17 Más detalles sobre la vida de Onnes en: Dictionary of
Scientific Biography de J. van den Handel (Charles Scribner’s
Sons, 1981).
18 Communications from the Physical Laboratory at University of Leiden 74.
19 Annalen der Physis 141, p.124.
Pero, regresemos al trabajo de Onnes. Durante la
temporada que trabajó en su Laboratorio de Criogenia, el único de los gases permanentes que no habı́a
sido licuado era el helio (He), de aquı́ el interés de
Onnes para transformarlo en lı́quido.20 A fin de obtener helio lı́quido, Onnes realizó una serie de experimentos para la medición de bajas temperaturas en 1904,21 por la celebración de los 329 años
de la fundación de la universidad de Leiden, cuando Onnes ya era su rector. En 190622 Onnes anunció que habı́a obtenido hidrógeno lı́quido a la temperatura de 20.4 K (−252.7 ◦ C).
A pesar de esos logros el principal objetivo de Onnes, la licuefacción del helio, presentaba grandes dificultades pues era necesario enfriarlo y después expandirlo para que, de acuerdo con el efecto Joule–
Thomson (1862), la expansión libre disminuyera su
temperatura.
Con la colaboración de un maestro artesano, el holandés Gerrit Jan Flim (1875–1970) y del jefe de sopladores de vidrio, el holandés Oskar Kesselring, Onnes consiguió licuefacer al helio al cubrir el frasco
que contenı́a al helio con otro conteniendo hidrógeno
lı́quido, rodeado, a su vez, por otro frasco conteniendo aire lı́quido. Al medir la temperatura del helio lı́quido, observó que era 4.2 K (−268.9 ◦ C). Esto ocurrió el 10 de julio de 1908.23
20 Otros gases, oxı́geno,nitrógeno, monóxido de carbono, ya
habı́an sido licuados por los cientı́ficos polacos Zygmunt Florent Wroblewski (1845–1888) y Karol Stanislaw Olszewski
(1846–1915) en 1883. El hidrógeno fue licuado en 1898 por
el inglés James Dewar (1842–1923), inventor del termo.
21 Communications from the Physical Laboratory at University of Leiden, Supplement 9.
22 Communications from the Physical Laboratory at University of Leiden, Supplement 94.
23 Communications from the Physical Laboratory at University of Leiden 108.
34
Esta técnica, método de cascada, permitió obtener
las temperaturas más bajas jamás conseguidas. Onnes sugirió que su alumno, el fı́sico holandés Gilles Holst (1886–1968), juntamente con Flim, midiesen la temperatura de un cilindro congelado de mercurio puro. Al realizar el experimento observaron
que, cuanto la temperatura llegaba a 4.2 K, la resistencia eléctrica del mercurio caı́a bruscamente a
10−5 ohms. En un principio Onnes no daba crédito a lo que ocurrió, por lo que repitió varias veces el experimento hasta convencerse de la certidumbre de los resultados. Ası́, en 1911,24 propuso el nombre supraconductividad al fenómeno hoy conocido como superconductividad. Gracias a este descubrimiento, Onnes recibió el premio nobel de fı́sica de 1913.
En 1913,25 Onnes presentó el resultado de un experimento en el que la corriente eléctrica deshacı́a el estado superconductor del mercurio. En 1916,26 F. B.
Silsbee observó que la ruptura del estado superconductor se debı́a al campo magnético asociado a la corriente eléctrica y no a ésta.
Es interesante registrar que, además de sus investigaciones en superconductividad, Onnes investigó las
bajas temperaturas relacionadas con otro sorprendente fenómeno fı́sico, explicado mucho después de
su muerte. Se trata de la superfluidez. En efecto,
en 1911, Onnes notó que la densidad del helio lı́quido (más tarde conocido como He II) obtenı́a un valor
máximo a la temperatura aproximada de 2.19 K. En
1924, ese lı́quido lo sorprendió nuevamente pues su
calor especı́fico crecı́a anómalamente cuando la temperatura se aproximaba a 2.19 K. Antes, en 1922,27
habı́a notado que los niveles de helio lı́quido colocado en dos vasos Dewar concéntricos alcanzaban
la misma altura, efecto que atribuyó a la destilación de uno en otro.
Estos extraños comportamientos del helio lı́quido
sólo fueron explicados con el descubrimiento de la superfluidez. Ello ocurrió en 1938 con los experimentos de los fı́sicos, el ruso Pyotr Leonidovich Kapitza (1894–1984, premio nobel de fı́sica en 1978) y los
canadenses John Frank Allen (1908–2001) y Austin Donald Misener (1911–1996).
24 Communications
from the Physical Laboratory at University of Leiden 122B y 124C.
25 Communications from the Physical Laboratory at University of Leiden 34B, p.55.
26 Journal of the Washington Academy of Sciences 6, p.597.
27 Communications from the Physical Laboratory at University of Leiden 159.
ContactoS 75, 27–35 (2010)
Además de su calidad cientı́fica, Onnes era conocido por su diplomacia en el trato con las personas, si bien exigı́a a sus colaboradores que trabajasen al extremo máximo de sus posibilidades. Con todo, era muy apreciado por sus ayudantes.
El fı́sico holandés Karl Mendelssohn narra28 que durante el funeral de Onnes, ocurrida el 21 de febrero de 1926, el cortejo siguió el camino de la iglesia al cementerio. Como hubo un retraso a la salida de la iglesia, el cortejo debió apurar el paso para llegar a tiempo al cementerio. Flim y Kesselring,
parte del cortejo del maestro comentaron: Muy propio del viejo. ¡Incluso ahora nos obliga a correr!
Berti, Torricelli y la medición de
la presión atmosférica
Ya las antiguas civilizaciones conocı́an las bombas
aspirantes y con ellas conseguı́an elevar el agua sólo
hasta determinada altura. En el siglo XVII era sabido que esa altura no superaba a los 10 metros aproximadamente. El apotegma aristotélico: La naturaleza tiene horror al vacı́o era empleado por los filósofos
de la antigüedad para explicar la elevación del agua.
Afirmaban que, como no podı́a haber vacı́o entre el
émbolo de la bomba y la columna de agua, ésta siempre seguı́a al émbolo. Sin embargo, no podı́an explicar porqué la columna no podı́a llegar a cualquier
altura.
Acerca de la dificultad de elevar la columna de agua a
cualquier altura existe el siguiente hecho. Alrededor
de 1630, un jardinero construyó una bomba aspirante para los jardines del Gran Duque Ferdinando II de
Toscana (1610–1670), en Florencia, Italia, esa bomba pretendı́a elevar el agua más allá de los 10 metros. Sin embargo, por más que el jardinero se esforzaba en lograr la altura deseada sólo llegaba a 18 brazas, esto es, unos 10.33 metros; el agua dejaba de seguir al émbolo formando vacı́o, algo inaceptable para
los aristotélicos. Cuando el Gran Duque se dirigió al
fı́sico, matemático y astrónomo italiano Galileo Galilei (1564–1642) para resolver el problema, éste respondió que “La naturaleza tiene horror al vacı́o, pero sólo hasta cierto lı́mite”.
Una respuesta semejante dió al fı́sico italiano Giovanni Battista Baliani (1582–1666) quien le escribió de Génova en 1630 relatándole la siguiente experiencia: intentaba, sin éxito, extraer agua de un
depósito pasando por lo alto de una colina de unos
28 Em
Demanda do Zero Absoluto (Editorial Inova, 1968).
Curiosidades de la fı́sica, XII. José Marı́a Filardo Bassalo
21 metros de altura con un sifón. El agua sólo llegaba a unos 10 metros cuanto el tubo sifón era destapado. En su carta, Galileo decı́a que la ruptura de la
masa de agua se debı́a a que era incapaz de soportar ese esfuerzo lı́mite. Lo mismo, afirmaba, debı́a
ocurrir con otros lı́quidos.
Conforme veremos más adelante, la solución de esta cuestión está ligada con el “peso del aire”. Al
parecer Galileo no llegó a esta solución pues, desde 1612, cuando escribió Discorso intorno alle cose
que stanno in su l’acqua (Discurso acerca de las cosas que están bajo el agua) sostenı́a que el aire no
tenı́a peso. Con todo, en 1614, el fı́sico holandés Isaac
Beeckman (1588–1637) afirmó que “el aire es pesado y nos presiona por todos lados de una manera uniforme”, Galileo29 en 1615 afirmó “todo el aire, en
sı́ mismo y encima del agua, nada pesa. . . Que nadie se sorprenda porque todo el aire no tiene absolutamente ningún peso, porque es como agua”.
Uno de los primeros experimentos realizados para explicar el problema descrito fue el de Gasparo Berti
(c.1600–1643). En 1639, inspirado por el libro Discorsi e Dimostrazioni Mathematiche intorno a Due
Nuove Scienze Attenenti alla Meccanica e Movimenti Locali de Galileo (1638) Berti construyó un tubo de plomo de 11 metros de largo, sumergido en
agua, que terminaba en una larga porción de vidrio, lo fijó en la fachada de su casa en Roma. Con
ese dispositivo verificó que el agua en el tubo permanecı́a equilibrada aproximadamente a los 10 metros de altura; además observó que el agua en el tubo comenzaba a burbujear pues el aire disuelto en
el agua escapaba formando burbujas. Las observaciones eran bastante comprometedoras para los partidarios de la existencia del vacı́o, como el propio
Berti, mientras que para los aristotélicos eran prueba de la imposibilidad del vacı́o.
En el experimento anterior colaboraron tres amigos italianos: Athanasius Kircher, Raffaello Magiotti y Niccoló Zucchi. Otros dos amigos de Berti, los
italianos Emmanuel Maignan y Evangelista Torricelli (1608–1647), discı́pulo de Galileo, no presenciaron el experimento. Según Rhotman, fue Magiotti quien puso al tanto a Torricelli de ese experimento,
según se deduce de una carta que escribió en 1648 para el padre franciscano Marin Mersenne (1588–1648)
que vivı́a en Parı́s. En esa carta, Magiotti afirma29 Tony Rhotman Tudo é Relativo e Outras Fábulas da
Ciência e da Tecnologia (Difel, 2005).
35
ba “nosotros (sin duda él mismo y Torricelli) realizamos ya muchos experimentos con mercurio”.
Una vez más, según Rhotman, el noble florentino
Carlo Roberto Dati (1619–1676), alumno de Galileo y de Torricelli, fue quien primero relató “el
experimento de Torricelli” en las cartas que escribió a Michelangelo Ricci con el pseudónimo de
Torricelli.
A pesar de lo descrito arriba, la gran mayorı́a de
los libros que tratan del experimento de Torricelli para medir la presión atmosférica (1643), afirman
que él la descubrió. En efecto, en 1643, este discı́pulo de Galileo y de Benedetto Castelli (1577–1644)
tomó un tubo de vidrio de cerca de cuatro pies de
largo con un extremo cerrado, lo llenó de mercurio y sumergió la parte abierta en una cuba con mercurio; observó que el nivel de mercurio descendı́a a
unos 76 centı́metros. Para explicar ese hecho, Torricelli afirmó que la columna se mantenı́a por el “peso del aire” que presionaba al mercurio en la cuba;
también observó que la altura de la columna de mercurio variaba diariamente.30 Sin embargo, el experimento fue realizado sólo después de haber recibido la
información de Magiotti acerca de las investigaciones de Berti. Añadamos que, según Rothman, Torricelli sugirió a Vincenzo Viviani (1622–1703), discı́pulo de Galileo, algunos experimentos que el mismo Torricelli nunca realizó.
Concluyamos esta sección resaltando que la presión
atmosférica se define como la presión (fuerza/área)
resultante del peso de la capa atmosférica sobre la
superficie de la Tierra. Esta presión, al nivel del mar,
representada por P0 tiene el siguiente valor en el SI
(Sistema Internacional de Unidades):
P0 = 101, 325 pascales (Pa) = 101, 325 N/m
2
que corresponde a la presión ejercida por una columna de mercurio de 760 mm. Esta unidad de presión
también es conocida como 1 atmósfera ó 760 torr.
cs
30 José Ma. Filardo Bassalo Nascimentos da Fı́sica:
3500 a.C.–1900 a.D. (EDUFPA, 1996).
De viandas y brebajes
Ensaladas
Escancio “Kansho” Almazara
La ensalada suele considerarse como un elemento secundario de la comida, como si fuera un platillo de
menor importancia. La excepción a este punto de vista la tienen, por supuesto, quienes llevan una dieta vegetariana o especial, ya que para ellos es apreciada como un platillo básico. Al respecto, se supone
que para nuestras costumbres occidentales una comida completa o un banquete debe estar compuesto de
cuatro o cinco “tiempos”, lo cual es consecuencia de
la fuerte influencia culinaria europea, ya que en muchos paı́ses orientales todos los platillos se sirven en
forma simultánea. Aunque no hay nada oficial ni definitivo sobre el particular, los tiempos de una comida occidental pueden ser los siguientes: Entremeses, Entrada, Sopa, Ensalada, Pasta, Plato de Fondo, Quesos y Postre, pero no existe una norma precisa para ofrecerlos en la mesa y muy rara vez se utilizan todos. Sin embargo, vale la pena ahondar en el
tema con una breve descripción de ellos.
embargo, la sopa también puede ser aguada o seca, y las tradicionales son de arroz y pastas.
Continuando con el siguiente tiempo, se considera
como Ensalada a un platillo normalmente frı́o compuesto de verduras casi siempre crudas que se aderezan tı́picamente con aceite, vinagre y sal. También
puede sazonarse con diferentes salsas y estar elaborado con variados ingredientes como quesos, carnes,
pescados y otros alimentos. El siguiente tiempo, la
Pasta, es tı́pica aunque no única de la cocina italiana, por lo que en ocasiones se sirve como un platillo previo al principal o puede ser una buena guarnición o convertirse en el propio Plato de Fondo. Este último acostumbra ser el objeto principal de la
comida, por lo que en ocasiones se sirve como plato único acompañado de alguna guarnición, una ensalada o simplemente de pasta. Por último, los Quesos de sabor suave acompañados quizá por frutas y
el Postre, usualmente dulce, deben ser platillos pequeños con los cuales se concluye el festı́n. Por último, hay que recordar que cada tiempo debe acompañarse con bebidas refrescantes o alcohólicas, ya
sean frı́as o calientes, sobre las que habrá que profundizar más adelante.
Los Entremeses son básicamente una mezcla de verduras crudas que se untan en diversas salsas y
otros comestibles sencillos los que sirven como acompañamiento de una copa de aperitivo, costumbre que
es clásica en bares y cantinas de nuestro paı́s, aunque éstos pueden tener una infinidad de variaciones.1 Por Entrada se entiende un primer plato ligero un poco más elaborado que el anterior, normalmente frı́o, aunque también hay versiones calientes, el que puede estar compuesto de frutas o mariscos en cóctel, carnes frı́as y quesos o vegetales asados y sazonados que se acompañan de diversas salsas. Las Sopas, por su parte, son de una enorme variedad ya que en su preparación se utiliza toda clase de vegetales, carnes, pastas, granos, frutas y especias en preparaciones normalmente caldosas, si bien
cuando son algo espesas se les llama cremas, que la
mayor parte de las veces se sirven calientes, aunque también pueden ser frı́as. En nuestro paı́s, sin
El origen de la ensalada se pierde en el tiempo, ya
que se remonta a las más antiguas civilizaciones en
las cuales se consumı́an diversas legumbres tanto cocidas como crudas pero sazonadas con aceite, vinagre y sal. Al parecer de ahı́ proviene su nombre:
en–salada, ya que los expertos aseguran que se deriva del latı́n vulgar salata—salada.2 En general, se
consumı́an lechugas, cebollas y diversos granos cocidos como lentejas y habas. Sin embargo, de acuerdo con algunos autores, la ensalada no entró de lleno
en la dieta habitual occidental sino hasta que inició el
siglo XX, ocasión en la que se convierte en un platillo muy elaborado que ha ido adquiriendo notoriedad a causa de las dietas modernas, del “salad bar”, y
de la popularidad que alcanza la actualmente llama-
1 Escancio “Kansho” Almazara. “De viandas y brebajes.
Botanas”, Contactos No. 59, Págs. 35–37 (2006).
2 The American Heritage Dictionary of the English Language, 4a. Edición, Houghton Mifflin Co. (2006).
36
Ensaladas. Escancio “Kansho” Almazara.
37
da “alimentación saludable”. En México, por el contrario, las ensaladas y las salsas han sido parte de la
comida tradicional al menos desde el siglo XVI, como lo atestiguan diversos cronistas.
Ensalada Caprese.
Ensalada tailandesa.
Ensaladas famosas
Algunas ensaladas han llegado a ser muy famosas
y conocidas ampliamente, como la Ensalada César,
la Ensalada Waldorf, la Ensalada Rusa, la Ensalada
Cobb y la Ensalada Noche Buena, sobre las cuales
ahondaremos un poco.
Aunque es fácil suponer que la Ensalada César debe
su nombre al emperador romano homónimo, la verdad es que su creación es moderna ya que las versiones más convincentes sobre su origen la sitúan a principios del siglo XX en el Hotel Cesar Palace de Tijuana. La paternidad se atribuye al chef Alessandro
Cardini quien supuestamente usó el nombre de su
hermano César para denominarla, aunque otros dicen que fue el propio César quien la creó cuando el
hotel sufrı́a de escasez de provisiones y no podı́a ofrecer otros platos más elaborados. Una de las caracterı́sticas relevantes de esta ensalada es que se acostumbra prepararla en presencia de los comensales en
un platón de madera, lo que le agrega un toque ceremonial a la comida. En cuanto a sus ingredientes,
éstos suelen depender de quién la prepare, pero habitualmente lleva una mezcla de lechugas, las que se
sazonan con una salsa ligera confeccionada con anchoas, huevos tibios o crudos, ajo, mostaza, salsa inglesa, jugo de limón, aceite de oliva, sal y pimienta. La preparación se corona con queso parmesano
rallado y croutones (trozos de pan tostado y ligeramente frito).
Por su parte, la versión más difundida dice que la Ensalada Waldorf fue creada en el hotel predecesor del
actual Waldorf–Astoria de Nueva York, a fines del siglo XIX, por el maı̂tre d’hôtel Oscar Tschirky, ya que
este lugar se asegura que también creó otros platillos famosos, como los huevos benedictinos y la ternera Oscar. En las preparaciones más conocidas esta ensalada se elabora con manzanas y peras cortadas en láminas finas o en cubitos, apio blanco rallado o picado, nueces peladas y picadas, jugo de limón
y perejil picado. Sobre estos ingredientes mezclados (aunque hay versiones en las que se incluye pollo, mostaza, pasas y piñones), se vierte una salsa hecha con mayonesa o miel, ralladura de limón y nata. Normalmente se sirve frı́a y procurando que la
salsa quede jugosa para que la mezcla de los sabores le proporcione su habitual sazón.
El origen más aceptado de la Ensalada Rusa, también conocida como Ensalada Olivier, se sitúa a fines del siglo XIX en el restaurante Hermitage de
Moscú. Se atribuye su creación al chef francés Lucien Olivier, quien se dice mantuvo en secreto hasta su muerte los ingredientes que utilizaba, por lo
que actualmente se encuentran muchas versiones de
esta conocida ensalada. Una de las más difundidas
consta de variados vegetales cocidos, salteados, crudos y en conserva; diversas carnes de pollo, perdiz,
lengua de vaca, cerdo y jamón; mariscos como camarones, carne de cangrejo y langostinos, ası́ como salmón ahumado y caviar. Los ingredientes más
grandes se pican en pequeños cubos y para que se adhieran entre sı́ se mezclan con una salsa de mayonesa adicionada de mostaza, vodka, salsa tipo inglesa y un toque de picante. Algunos autores aseguran que los ingredientes originales de la ensalada incluı́an carne curada de oso, pato ahumado, urogallo asado y trufas, algo muy diferente de las versiones modernas.
La historia cuenta que la Ensalada Cobb fue creada casi por casualidad en 1937 por Robert H. Cobb,
dueño del restaurante “The Brown Derby” en Hollywood. La leyenda agrega que reunió diferentes in-
38
La Ensalada de Navidad es muy popular en México por razones muy obvias ya que se sirve en las cenas de fin de año, temporada en la cual suele acompañar otros platillos de celebración como el bacalao a la vizcaı́na, los romeritos y los buñuelos. También de ella existe gran diversidad de preparaciones, siendo una de las más conocidas la que consta de zanahorias y betabeles cocidos, jı́cama y lechuga como ingredientes principales. Además, puede llevar pasas, caña, almendras y cacahuates, todo aderezado al momento de servir con una salsa de ajo, pimienta, aceite, vinagre, jugo de naranja y una pizca
de azúcar, y puede completarse finalmente con manzana, naranja, perón, plátano, rábanos, chiles y aceitunas. Muchas de estas versiones han sido publicadas desde el siglo XIX en distintos recetarios por varios autores, por lo que actualmente es difı́cil saber cuál fue la receta original que dio lugar a este platillo y porque, además, cada quién la prepara según su gusto o con los ingredientes que tenga disponibles.
También en nuestro paı́s es tı́pica la Ensalada de Nopalitos, hecha con nopales, cebolla, queso fresco, tomates, aguacate, chiles jalapeños y cilantro. Otras
que es común encontrar son la Ensalada de Coditos elaborada con pasta frı́a, jamón y una salsa a base
de crema; la Ensalada a la Mexicana, de tomate y cebolla principalmente; y la Ensalada del Chef, preparada en muy diversas formas aunque a base de lechuga, pepinos, aguacate, tomate, jamón de pavo, queso chihuahua, aceitunas, anchoas, pollo y huevo cocido con aderezo al gusto.
Por su parte, Italia nos regala con la Ensalada Caprese, a base de rebanadas de tomate y queso mozarella, con hojas grandes de albahaca condimentadas con aceite de oliva, sal y pimienta. En Estados
Unidos son tradicionales (entre otras) las de col, como la Coleslaw (del holandés koolsla por kool, col y
sla, apócope de ensalada), hecha con col blanca, zanahoria, piña o manzana picadas y aliñadas con una
salsa a base de mayonesa, mostaza y ajo. De Grecia nos llega obviamente la Ensalada Griega a base
de tomate, pepino, cebolla, aceitunas negras y queso feta todo cortado en dados y aderezado con aceite de oliva, vinagre y sal. En Francia es tı́pica la Ensalada Nicosia (salade niçoise) hecha a partir de crudités (verduras frescas), alcaparras, huevo duro, anchoas y atún, todo regado con aceite de oliva. Y del
Norte de Africa proviene el Tabule (del árabe tabbula) ensalada frı́a de cous–cous, tomate, pepino y cebolla picados, aderezada con sal, hierbabuena, aceite y limón.
Ensalada griega.
Menos conocidas son la Pipirrana de España (cebolla, tomate, pimiento verde y pepino, con huevo cocido e incluso pescado y embutidos); la Çoban Salatası 3 (ensalada del pastor) o Ensalada Choban de
la cocina turca (tomates, pepinos, cebollas, pimientos verdes y cilantro); la Ensalada Shopska de Bulgaria (tomates, pepino, cebolla, pimiento y queso feta); el Gado—Gado de Indonesia (diversas verduras
tı́picas con tofu, huevo y fideos, aliñadas con una salsa de cacahuates, ajo, azúcar de coco y de palma, salsa picante, jugo de lima, salsa de pescado y de soya); el Som Tam, Tam Som o Tam Mak Hung4 de
Laos (del laosiano som–ácido, tam-machacado y mak
hung-papaya), es una ensalada especiada cuyo principal ingrediente es la papaya verde laosiana, pe3 La
letra ı pertenece al alfabeto turco que en 1928 reemplazó la grafı́a árabe por un alfabeto latino modificado que
consta de 29 letras, 8 vocales y 21 consonantes. Esta letra es
una vocal distinta de la “i” latina, aunque sólo le falta el punto, ya que su pronunciación es diferente y un poco difı́cil para quienes no hablan el turco. Corresponde a una letra entre i y e, cuyo sı́mbolo fonético es [ ].
4 Escancio “Kansho” Almazara. “De viandas y brebajes.
La cocina de Laos”, Contactos No. 71, pp. 57–60 (2009).
m
gredientes un poco al azar a los que añadió un aderezo clásico. Del experimento resultó esta ensalada,
la que se prepara originalmente con corazones y hojas de lechuga, berros, achicorias, tomates, aguacate, pollo, huevo duro, cebollines, tocino y queso Roquefort. Adicionalmente, el aderezo especial se elabora a base de vinagre de vino tinto, ajo, azúcar,
jugo de limón, aceite de oliva y de maı́z, salsa inglesa, mostaza, sal y pimienta negra. La preparación de la ensalada es simple y sólo requiere cortar los ingredientes en pequeños cuadros para presentarlos separados en un platón para después sazonarlos con la salsa.
ContactoS 75, 36–39 (2010)
Ensaladas. Escancio “Kansho” Almazara.
ro lleva tomate, col, chile, ajo y se aliña con salsa de pescado y jugo de lima; en Alemania se entiende por Wurstsalat (wurst-embutido y salat-ensalada)
un tipo de ensaladas hechas a partir de salchichas
que pueden llevar pepinos, cebollas, quesos, pepinillos, arenque, salami, hierbas, aceite, sal y vinagre o mayonesa; y, entre muchas otras, la Kartoffelsalat (ensalada de papa) también de la cocina alemana, que tampoco tiene una única receta ya que
además de papas cocidas puede llevar cebolla, tocino, pepino, manzanas, carne, arenque, salchicha y
huevo aliñada con vinagreta o mayonesa.
Por último, hay que decir que el aliño de todas estas ensaladas consiste generalmente en una salsa tipo mayonesa o en una emulsión de aceite y vinagre (la popular vinagreta) que puede llevar jugo de
limón y sal, entre otros ingredientes. Sin embargo,
actualmente es posible comprar en cualquier supermercado una gran variedad de aderezos industrializados que facilitan mucho la cocina, como las salsas “mil islas”, “ranchera” y “barbacoa”, entre otras,
pero no siempre son la solución óptima para la calidad de la gastronomı́a.
La receta fácil
Aunque la primera ensalada que presento en esta
ocasión requiere un poquito de trabajo, es en realidad fácil de hacer, pero puede dificultarse por los
ingredientes ya que algunos de ellos son de temporada. Su origen es árabe, ya que es muy apropiada para los climas cálidos. Esta versión, sin embargo, ha sido modernizada para utilizar otros ingredientes. En cuanto a la segunda, que fue creada hace algunos años con el propósito de complementar una comida especial con mi familia, se basa en mezclar pequeños ingredientes, fundamentalmente vegetales, para lograr el aspecto de una mini ensalada.
Ensalada tropical
Ingredientes:
Para la salsa:
2 dientes de ajo.
1 cucharadita de consomé en polvo.
1 cucharada de mostaza para untar.
1/4 de taza de miel de abeja.
1/2 litro de jugo de naranja.
2 cucharadas de vinagre (opcional).
1/2 taza de aceite de oliva.
39
Para la ensalada:
Camarones grandes frescos y pelados.
Endivia rebanada gruesa.
Col morada rebanada gruesa.
Papaya Maradol o hawahiana en trozos.
Kiwi verde en rebanadas.
Kiwi dorado en rebanadas.
Espárragos blancos grandes cocidos o en lata,
escurridos.
Mostaza de Dijón en grano.
Pimiento morrón triturado.
Preparación:
Licuar todos los ingredientes de la salsa y posteriormente agregar una cucharada de mostaza de Dijón
en grano. Freı́r los camarones en el aceite de oliva y
el pimiento morrón. Si son grandes, crudos y enteros, resulta muy elegante cocerlos previamente, quitarles la cabeza y pelarlos con cuidado, exceptuando el extremo de la cola para que sea más fácil tomarlos con la mano. Acomodar la papaya y los kiwis en rebanadas, sobre la lechuga y la col, para culminar el plato con los camarones y los espárragos enteros. Finalmente cubrir con la salsa.
Ensalada Escancio o mini–ensalada
Ingredientes:
Tomates cóctel.
1 frasco de esparraguitos verdes.
1 frasco de elotitos.
1 frasco de cebollitas de Cambray.
1 frasco de pepinillos pequeños.
Queso feta en cuadritos.
Aceitunas negras deshuesadas.
1 terrina de paté de pato.
1 lata de angulas.
1 lata de champiñones pequeños (opcional).
Preparación:
Todos los pequeños ingredientes se disponen sobre
una charola o un plato, poniendo en el centro la terrina. El platillo se adorna con las aceitunas, las angulas se esparcen sobre los ingredientes y se sazona abundantemente con el aceite de oliva de la misma lata de angulas.
cs
Análisis gráfico. Parte I.
Escalas lineales y logarı́tmicas.
Angel Manzur Guzmán
Depto. de Fı́sica*
Las gráficas más comunes son las que se obtienen
usando un sistema de ejes cartesianos. Es costumbre
que el eje de las abscisas (eje X) represente a la variable independiente o la variable controlada y en el
eje de las ordenadas (eje Y ) la variable dependiente, aunque en algunos casos podrı́a convenir lo contrario. Se hace referencia a la gráfica como Y en función de X, Y contra X, Y versus X o como Y vs.
X. Las cantidades que representan los ejes se escriben, preferentemente, con sı́mbolos seguidos de las
unidades entre paréntesis o después de una diagonal. Las escalas se deben escoger de modo que se
utilice eficientemente el espacio destinado a la gráfica, y que permitan una lectura fácil de los puntos
experimentales; la mı́nima división de la escala debe ser en números sencillos (múltiplo de 2, 5, o 10).
Recibido: 03 noviembre 2009.
Aceptado: 26 noviembre 2009.
Abstract
The graphic representation importance of the experimental data is discussed. First, the lineal relations
are analyzed when direct graphics are made of data. After, changes of variables are proposed to obtain rects. Finally, the characteristic, parameters are
discussed.
Resumen
Se enfatiza la importancia de representar gráficamente los datos que se obtienen experimentalmente.
Primero se analizan relaciones lineales que se obtienen al graficar directamente los valores experimentales. Después se analizan los cambios de variables
que deben efectuarse en las relaciones de potencia y
relaciones exponenciales con el fin de que al graficar se obtenga una recta. Se determinan los parámetros que caracterizan a la recta para finalmente escribir la relación matemática que cumplen los datos originales.
Se recomienda hacer una gráfica preliminar antes de
desarmar el dispositivo experimental, ya que cualquier desviación o punto sospechoso (porque queda alejado de la tendencia que los otros puntos siguen en la gráfica) puede ser eliminado o comprobado al repetir las mediciones en las mismas condiciones. Aun en los casos en que se repite varias veces una misma medida, es conveniente graficar la medida contra el número de medidas o contra el tiempo, para detectar posibles variaciones con la temperatura ambiente, presión atmosférica, intensidad
de luz, cambio de experimentador, etc.; esto se hace ya que en una gráfica se pueden mostrar claramente las desviaciones sistemáticas alrededor del valor medio.
Introducción
En el campo de las ciencias experimentales, cada experimento proporciona un conjunto de datos que, para que sea de utilidad, debe ser analizado para obtener la información que se busca. Los datos numéricos que están entre sı́ relacionados se presentan de
tal modo que cada par de estos valores pueden tomarse como coordenadas de un punto; el resultado
de unir estos puntos mediante una curva es la gráfica (también se llama gráfico). En general, se busca la relación matemática que los datos guardan entre sı́. Una vez que se ha realizado un experimento y se tiene una tabla de datos, se puede hacer
una gráfica con ellos, la cual facilitará la interpretación de los resultados.
Se grafican los puntos experimentales con su incertidumbre, y se unen con una curva suave (sin discontinuidades) lo más simple posible. Cuando los puntos
están dispersos, la curva se traza siguiendo la tendencia de los puntos. Esta curva representa una predicción acerca de posibles valores de la variable dependiente para valores intermedios de la variable independiente que no fueron medidos experimentalmen-
* CBI, UAM–I. Apartado Postal 55–534, México, D. F.
09340. e–mail: [email protected]
40
Análisis gráfico. Parte I. Angel Manzur Guzmán
te o, inversamente, se predicen valores de la variable independiente que corresponderı́an a magnitudes de la variable dependiente. Esta predicción en la
gráfica, dentro del intervalo de valores medidos experimentalmente, se llama interpolación. Por otra parte, el proceso de prolongar la tendencia de la curva
más allá de los puntos experimentales (fuera del intervalo en que se realizó el experimento) se llama extrapolación; es una suposición acerca del comportamiento del fenómeno observado, sugerida por la tendencia de la curva hacia regiones antes o después del
intervalo experimental.
Una gráfica con los puntos experimentales es de gran
utilidad porque con una sola mirada se puede tener
rápidamente una visión clara sobre la validez del experimento en cuanto a:
1. el tamaño del intervalo seleccionado de la variable
independiente,
2. el número adecuado de puntos experimentales,
3. la distribución de los puntos experimentales
4. la magnitud del error experimental,
5. si la interpolación está o no debidamente justificada,
6. la tendencia que siguen los puntos experimentales,
7. los posibles fenómenos o procesos involucrados en
el experimento.
A través de la gráfica se pueden comparar los resultados experimentales con las predicciones teóricas,
si éstas existen. Además, una gráfica facilita la interpretación de la información relevante proporcionada por el experimento y se puede usar para proponer conclusiones.
El objetivo aquı́ es mostrar cómo encontrar la función matemática que relaciona los datos experimentales. Se analizan tres tipos de relaciones matemáticas: lineal, de potencia y exponencial; cada caso se
ilustra con un ejemplo. Con el propósito de fijar la
atención en la obtención de la función matemática, en estos ejemplos no se toma en cuenta la incertidumbre en los datos experimentales. En las referencias 1-4 se expone bastante información sobre el tema de análisis gráfico.
Relaciones lineales
En un experimento se miden directamente los valores
de algunas cantidades variables y después se determinan otras cantidades a partir de las que fueron medidas directamente. Supóngase un experimento en
41
que interesa determinar la relación entre dos cantidades X y Y (léase equis y ye), cuyos valores experimentales medidos o determinados son x y y, y que
son proporcionales. Por ejemplo, la distancia recorrida por un vehı́culo moviéndose en lı́nea recta con velocidad constante es proporcional al tiempo transcurrido. Decir que los valores x y y son proporcionales
es equivalente a decir que los puntos (x, y) están sobre una lı́nea recta.
Relaciones de la forma y = mx + b
Suponiendo que se haya obtenido que los datos experinenta1es (x, y) se encuentren a lo largo de una lı́nea
recta, subsiste el problema de encontrar la expresión analı́tica que los relaciona; es decir, la ecuación
que satisfacen. En otras palabras, es necesario determinar los valores de los parámetros m y b en la ecuación general de una recta
y = mx + b.
(1)
Al parámetro m se le llama la pendiente de la recta y
a b se le llama la ordenada al origen (es el valor de la
ordenada cuando x = 0). Si b = 0, entonces la recta
pasa por el origen. Si m = 0, entonces y no depende
de x y la recta es paralela al eje de las abscisas. A
partir de la expresión (1) es claro que b tiene las
mismas unidades de y, y que m tiene unidades de y
entre unidades de x.
Para trazar la recta se sugiere usar una regla transparente, colocándola de modo que pase por todos los
puntos experimentales. Si los puntos no están alineados, se traza la recta de tal manera que los puntos experimentales estén simétricamente distribuidos a lo
largo de la recta tanto por arriba como por debajo de la recta y tanto en la mitad derecha como en la
mitad izquierda; ésta será la mejor recta que se pueda ajustar visualmente.
Determinación de m y b
Para encontrar el valor de b sólo se necesita leer
de la gráfica el valor de la ordenada al origen
(cuando x = 0); es el punto (0, b) donde la recta (o su prolongación) se interseca con el eje de las
ordenadas.
Para encontrar el valor de la pendiente se utilizan los
valores de las coordenadas de dos puntos (x1 , y1 ) y
(x2 , y2 ) sobre la recta, no experimentales, tan separados como se pueda para que no se afecte la precisión en la determinación de la pendiente, estas coordenadas se sustituyen en la expresión analı́tica de la
pendiente:
y2 − y1
m=
(2)
x2 − x1
42
ContactoS 75, 40–52 (2010)
perimentalmente. El trazo de la curva teórica se simplifica si se efectúan los cambios de variable necesarios para que sea una recta, pues ésta es fácilmente distinguible de cualquier otra curva.
Figura 1. Gráfica de la velocidad en función del tiempo.
En general, la pendiente se determina como el cociente de la diferencia de ordenadas y la diferencia
de abscisas entre dos puntos.
Ejemplo
Considérese la tabla 1 en la que se registran los valores experimentales de la velocidad de un cuerpo en
caı́da libre y el tiempo, después de un tiempo arbitrario t = 0. Se quiere determinar la relación que existe entre la velocidad v y el tiempo t.
Al graficar v vs. t se obtiene la recta de la figura 1.
La recta fue trazada siguiendo las recomendaciones
antes mencionadas. Las longitudes de las rectas de
trazos representan las diferencias de ordenadas y de
abscisas entre los dos puntos (0.05, 1.2) y (0.35, 4.2)
sobre la recta; con el cociente de ellas se calcula la
pendiente que resulta ser alrededor de 10 m/s2 . En
este ejemplo la pendiente representa la aceleración
con que el objeto cae, a. La teorı́a indica que debe ser
igual a la aceleración de la gravedad. En la gráfica se
ve que la ordenada al origen es alrededor de 0.75 m/s;
representa el valor de la velocidad en t = 0, llámesele
v0 . Con los valores de la pendiente y la ordenada al
origen, la recta v = at + v0 queda completamente
especificada; se puede escribir como
v = 10t + 0.75
Cambio de variables
Se dice que hay acuerdo entre la teorı́a y el experimento cuando la curva teórica coincide con la curva trazada a través de los puntos determinados ex-
La situación es sencilla cuando en el experimento solamente se miden los valores de dos variables
que están relacionadas de forma simple. Considérese la expresión general representada por la fórmula y = axn . Si la teorı́a predice el valor del exponente, entonces una gráfica puede usarse para verificar la predicción. Se puede hacer el siguiente cambio de variables: X = xn y Y = y; con lo que se obtiene Y = aX, la cual es la ecuación de una lı́nea recta en las nuevas variables X y Y . La gráfica de Y
vs. X producirá una lı́nea recta si la teorı́a describe adecuadamente al fenómeno. Tales gráficas son
posibles solamente si el análisis teórico sugiere qué
graficar.
La situación parecerı́a complicada cuando en el
fenómeno bajo estudio se miden los valores de tres o
más variables, pero resulta manejable si la teorı́a predice que las variables están relacionadas a través de
una función especı́fica f (x, y, z, t) = 0. Al conocer esta función se pueden hacer gráficas de una de las variables en función de otra, manteniendo fijos los valores de las restantes variables, combinándolas de la
manera conveniente para que se obtenga una recta y ası́ obtener los parámetros de esta primer recta.
Después se escogen otras dos variables (con una diferente a las de la primera pareja), manteniendo constante el valor de las otras; se repite el procedimiento
hasta obtener las relaciones entre las diferentes parejas de variables. Finalmente se hace la comparación de las relaciones obtenidas, como resultado del
análisis de los datos experimentales, con la predicción teórica.
Algunos ejemplos ponen de manifiesto las ideas expresadas en los párrafos anteriores.
Tercera ley de Kepler.
Considérese el conjunto de valores del perı́odo de
traslación (T ) de cada planeta alrededor del Sol y de
la distancia media (D) entre cada planeta y el Sol. El
interés aquı́ es verificar la relación que existe entre
T y D. Esta relación conocida como la tercera ley
de Kepler establece que el cubo del radio medio de
la órbita de un planeta es proporcional al cuadrado
de su perı́odo.
Los valores se presentan en la tabla 2, en la que
se han usado dos tipos de unidades. En un tipo se
Análisis gráfico. Parte I. Angel Manzur Guzmán
43
Cuadro 1. Velocidad y tiempo de un cuerpo que cae*. Las unidades son m/s y s.
t
v
0.033
1.08
0.067
1.50
0.100
1.64
0.133
1.96
0.167
2.34
0.200
2.66
0.233
3.11
0.267
3.48
0.300
3.66
0.333
3.84
0.367
4.27
*Datos tomados de la referencia 1, página 62.
Figura 3. Gráfica D3 vs. T 2 para los primeros planetas
Figura 2. La gráfica D3 vs. T 2 es una recta que pasa por
el origen.
usan como unidad las cantidades correspondientes a
la Tierra; es decir, T en años terrestres y D en distancia Tierra–Sol (T − S). En el otro tipo de unidades se usan dı́as y kilómetros.
Una manera de lograr la verificación es haciendo
un adecuado cambio de variables. Como se conoce la relación que existe entre D y T se puede graficar D3 vs. T 2 para obtener la lı́nea recta mostrada
en la figura 2. Otro cambio de variables adecuado es
graficar D vs. T 2/3 . En la figura 2 se usaron las unidades T − S y año, pero debido a la escala, se presenta la dificultad de que los primeros puntos aparecen encimados. Para ver estos puntos se deberı́a graficar usando escalas menores. Sin embargo, la gráfica se hará usando unidades en km y dı́a, con lo cual
los valores son muy grandes, pero se aprovechará la
oportunidad para hacer ver que si los valores se
multiplican por factores adecuados, la graficación se
facilita.
La figura 3 muestra la gráfica D3 vs. T 2 para los primeros cuatro planetas; en ella los valores de D3 y
T 2 se han multiplicado por factores constantes para que las escalas sean pequeñas, en contraste con
las escalas de la figura 2. Aquı́ se quiere enfatizar
que cambiar de variables y de escalas es importante para el análisis gráfico. El tema de escalamiento de gráficas será tratado en general y en forma detallada más adelante.
Gas ideal.
Los gases reales en condiciones especı́ficas de presión
(p) y densidad bajas se comportan como uno ideal,
cuyo comportamiento se describe a través de
pV = N kT
o en forma equivalente como
pV = nRT
donde V representa el volumen, N el número de
moléculas, k la constante de Boltzmann, T la temperatura, n el número de moles y R la constante de
los gases. Supóngase que en el laboratorio se controlan las variables de presión, volumen, temperatura y cantidad de gas, y se quiere encontrar las relaciones entre parejas de estas variables.
V vs. N
Al escoger como variables el volumen y la cantidad
de moléculas, manteniendo constantes la presión y la
temperatura, y graficar V vs. N se obtendrá una recta que pasa por el origen; es decir, V ∝ N , con p y T
constantes, lo cual significa que los volúmenes iguales de gases distintos contienen la misma cantidad
44
ContactoS 75, 40–52 (2010)
Cuadro 2. Perı́odo de traslación (T ) y distancia media al Sol (D) de los planetas del Sistema Solar*.
Planeta
Mercurio
Venus
Tierra
Marte
Júpiter
Saturno
Urano
Neptuno
Plutón
T (año)
0.241
0.615
1.000
1.881
11.862
29.456
84.011
164.780
248.823
D(T − S)
0.389
0.725
1.000
1.530
5.221
9.570
19.255
30.168
39.597
T (dı́a)
87.97
224.70
365.26
686.98
4,332.59
10,759.20
30,685.93
60,187.64
90,885
D (km)
0.58 × 108
1.08 × 108
1.49 × 108
2.28 × 108
7.78 × 108
14.26 × 108
28.69 × 108
44.95 × 108
59.00 × 108
*Datos de T (dı́a) y D (km) tomados de la referencia 6, página 3414.
de moléculas (ley de Avogadro). Es claro que a partir del valor de la pendiente se puede obtener el valor de k.
p vs. V −1
Si ahora se escogen p y V , manteniendo constante la
temperatura de una cantidad fija de gas, y se grafica
p vs. V −1 nuevamente se obtendrá una recta que
pasa por el origen; con palabras se dice que la presión
del gas es inversamente proporcional al volumen que
ocupa (ley de Boyle).
V vs. T
Si ahora se mantiene constante una cantidad fija de
gas, el experimento demuestra que el volumen de
gas será directamente proporcional a su temperatura
(V ∝ T con p y N constantes). Esta relación se
conoce como ley de Gay–Lussac o ley de Charles.
Péndulo simple.
Otro ejemplo lo proporciona el péndulo simple donde la teorı́a establece que el perı́odo de oscilación T
está dado por
s
T = 2π
L
g
donde L es la longitud del hilo y g es la aceleración de la gravedad. Al hacer el experimento para determinar el valor de g, se usan diferentes valores de L (que es la variable controlada) y se miden los
√ correspondientes valores de T . Si se2πgrafica
T vs. L se obtiene una recta de pendiente √
g . Otro
cambio de variables para obtener una recta es grafi2
car T 2 vs. L donde la pendiente es 4πg . En ambos casos el valor de g se determina a partir del valor de
la pendiente.
Relaciones de potencia
Ahora se estudiarán relaciones de potencia; es de-
cir, relaciones en que una variable es proporcional a
la otra variable elevada a un exponente ya sea positivo o negativo, entero o fraccionario. Este tipo de relaciones aparece con mucha frecuencia. Por ejemplo,
la posición, como función del tiempo, de un cuerpo con movimiento unidimensional uniformemente
acelerado es de tipo parabólico; o sea, es una función cuadrática en el tiempo.
Relaciones de la forma y = xn
En general, con sólo ver la curva no es fácil identificar una relación analı́tica entre las variables, excepto cuando es evidente como en el caso de una lı́nea
recta. La figura 4 muestra algunas curvas de la forma y = xn . Es difı́cil distinguir las curvas correspondientes a las funciones con exponentes 2 y 3 o 12 y
1
3 ; la situación se complica aun más cuando solamente se observa un pedazo de curva. Sin embargo, a veces se tiene una idea de qué tipo de curva es, ya sea
porque existe un modelo teórico que predice cierta
curva o porque la gráfica directa tiene cierto parecido con alguna bien conocida. Si haciendo cambios de
variable se puede lograr que la gráfica sea una recta,
entonces se puede identificar la relación analı́tica correspondiente. Una forma adecuada para hacer que
todas las curvas de la figura 4 (pág. 45) se conviertan en rectas es usar escalas logarı́tmicas, como ilustra la figura 5 (pág. 45). En realidad, cualquier curva que satisface la forma analı́tica y = xn puede convertirse en recta sin importar el valor del exponente n, el cual puede ser un número positivo o negativo, entero o fraccionario.
Logaritmos
De alguna manera existe familiaridad con el concepto de logaritmo. Se ha escuchado de la escala Richter para medir la magnitud o energı́a de un terremoto, del decibel usado principalmente en acústi-
Análisis gráfico. Parte I. Angel Manzur Guzmán
45
Figura 4. Curvas de la forma y = xn en función de x
para varios valores de n.
Figura 5. Al usar escalas logarı́tmicas, las curvas de la
figura 4 se transforman en rectas.
ca y en señales eléctricas, del pH que se usa como
indicador de la acidez o alcalinidad de una sustancia; en estos casos el concepto de logaritmo está involucrado. El logaritmo de un número es simplemente el exponente al cual un número fijo debe ser elevado para igualar el número en cuestión; ese número fijo es llamado base (por ejemplo el 10 o cualquier otro número positivo). Ası́, el logaritmo de
100 es 2 porque 102 = 100; el logaritmo de 1000
es 3 porque 103 = 1000; el logaritmo de 0.1 es 1 porque 10−1 = 0.1. Para números entre potencias de 10, el logaritmo está entre los dos exponentes de 10 más cercanos. Por ejemplo, el logaritmo
de 700 está entre 2, el logaritmo de 100, y 3, el logaritmo de 1000; resulta ser alrededor de 2.85. Las
caracterı́sticas y propiedades de los logaritmos pueden consultarse en la referencia 5.
ras: con logaritmos o con un adecuado cambio de variables cuando se conoce el valor del exponente n.
Relaciones de la forma y = axn
Ahora se verá por qué al usar escalas logarı́tmicas
las curvas de la figura 4 se convierten en las rectas
mostradas en la figura 5. Supóngase que la relación
entre las cantidades medidas (x, y) es del tipo
y = axn
(3)
donde a y n son constantes. Observe que esta forma de función es más general que la usada en la figura 4 (a = 1 en la figura 4). El interés es que al graficar se obtenga una lı́nea recta y que, a partir de la
recta, los parámetros a y n puedan ser determinados. Para lograrlo se puede proceder de dos mane-
Ahora se usarán logaritmos. Al calcular el logaritmo
de ambos miembros de la fórmula (3), se obtiene
log y = log a + n log x
Llamando X = log x y Y = log y, esta ecuación se
transforma en
Y = log a + nX.
(4)
Comparando las ecuaciones (1) y (4), se puede observar que esta última es la ecuación de una recta en las nuevas variables X y Y , con ordenada al
origen igual a log a y con pendiente igual a n; estos parámetros se obtienen directamente de la recta. Esto significa que si, en vez de graficar los puntos (x, y) en escalas lineales, se grafican los puntos (log x, log y) en escalas lineales se obtiene una
recta. Otra manera de obtener la recta, como se
verá más adelante, es graficar en papel log–log; es
un papel especial para graficar y que tiene escalas logarı́tmicas en los ejes horizontal y vertical. Las gráficas de las funciones de la forma (3) serán lı́neas rectas, y el valor de la pendiente de esa recta y el valor de la ordenada al origen proporcionan los detalles
necesarios para escribir la ecuación que satisfacen
los datos.
Es conveniente mencionar los detalles que se presentan al determinar la pendiente y la ordenada al ori-
46
ContactoS 75, 40–52 (2010)
gen cuando las escalas son lineales o cuando son logarı́tmicas. Cuando se calculan los logaritmos de todos los datos y se grafican usando escalas lineales
en ambos ejes, para determinar la pendiente se escogen dos puntos en la recta y se usa la fórmula
(2). En cambio, cuando se grafican los datos originales (sin calcular sus logaritmos) en escalas logarı́tmicas en ambos ejes, para determinar la pendiente es necesario calcular los logaritmos de los dos
puntos escogidos sobre la recta y usar la fórmula
siguiente
pendiente =
log y2 − log y1
log x2 − log x1
Este valor de la pendiente corresponde al parámetro
n de las expresiones (3) y (4).
Ejemplo
Considérense nuevamente los valores de T y de D
dados en la tabla 2. Ahora el interés es determinar la
relación que existe entre T y D, ignorando la tercera
ley de Kepler.
Primero se buscará la relación usando los valores
en las unidades de años y T − S. En la figura 6
aparece la gráfica D vs. T en escalas lineales. Se
observa que los puntos siguen una tendencia que
no corresponde a una lı́nea recta y que, debido a
la escala, no se distinguen con claridad los primeros puntos. En cambio, en la figura 7 se presenta la gráfica de los logaritmos comunes (en base
10) de D y T . Se observa que los puntos están sobre una recta y que, a diferencia de la figura 6,
en la gráfica se distinguen todos los puntos. Nótese que las escalas en ambos ejes de la figura 7 también
son lineales.
En las figuras 6 y 7 aparecen fórmulas, pero hay que
observar que el significado de las variables que aparecen como x y y son diferentes en cada fórmula. La x
en la figura 6 representa a T , en la figura 7 representa a log T ; análogamente, la y en la figura 6 representa a D y en la figura 7 representa a log D. La ecuación mostrada en la figura 6 indica que los puntos se
ajustan a una ecuación en forma de potencia, mientras que la ecuación mostrada en la figura 7 representa a una lı́nea recta. Ambas fórmulas contienen la
misma información pues log 1.0007 = 0.0003. Es decir, el logaritmo del coeficiente en la fórmula de la figura 6 es igual a la ordenada al origen en la fórmula de la figura 7. Las fórmulas tienen las formas dadas en las expresiones (3) y (4), respectivamente. Debido a que el valor del exponente 0.6672 puede apro-
Figura 6. D y T en escalas lineales.
ximarse como 2/3, entonces resulta que D y T satisfacen la relación (fórmula que aparece en la figura
6) D = 1.0007T 2/3 . Si se considera que el coeficiente difiere muy poco de la unidad, la relación se puede expresar como
D3 = T 2
(5)
Esta relación corresponde a la tercera ley de Kepler.
Figura 7. Los logaritmos de D y T graficados en escalas
lineales.
Papel log–log
Una forma equivalente que no requiere el cálculo
explı́cito del logaritmo de los puntos, como sı́ fue hecho para obtener la gráfica de la figura 7, es utili-
Análisis gráfico. Parte I. Angel Manzur Guzmán
zar papel cuadriculado con escalas logarı́tmicas en
los dos ejes coordenados (llamado papel log–log) en
el cual cuando se localiza el punto (x, y), las escalas son tales que el punto corresponde a (log x, log y).
Es decir, este papel hace el cambio de variable Y =
log y, X = log x.
Para graficar se toma en cuenta que a partir de la intersección de los ejes coordenados, origen en (1, 1),
cada ciclo (o década) es mayor que el anterior por
un factor de 10. Ası́, el primer ciclo representa los logaritmos de los números del 1 al 10, el siguiente ciclo representa a los logaritmos del 10 al 100, etcétera; el primer ciclo a la izquierda del origen representa los logaritmos de los números del 1 al 0.1, el siguiente ciclo a la izquierda representa a los logaritmos de los números del 0.1 al 0.01, etc. Por ejemplo, para graficar el logaritmo de 5 en uno de los ejes,
en el primer ciclo se escoge el 5; la posición del logaritmo de 50 serı́a en el 5 del ciclo siguiente; la posición del logaritmo de 0.5 serı́a en el 5 del primer ciclo a la izquierda del origen.
47
punto donde la recta interseca al eje vertical que pasa por el origen (1, 1).
Tomando los puntos (0.3, 0.45) y (200, 34) de la recta
de la figura 8, se obtiene que la pendiente es
n=
log 34 − log 0.45
= 0.662
log 200 − log 0.3
La ordenada al origen que se lee en la gráfica es
log a = log 1. Por tanto, a = 1. La ecuación que
corresponde a la recta es
log D = log 1 + 0.6662 log T = log 1 + log T 0.6662
o sea que log D = log T 0.6662 . Por tanto, D =
2
T 0.6662 = T 3 , como se obtuvo anteriormente.
En la figura 8 se muestra la gráfica de los valores de
D y T usando papel log–log de 3 × 4 ciclos (3 ciclos en la dirección vertical y 4 ciclos en la dirección
horizontal). La posición que tiene un punto cualquiera (D, T ) en el papel log–log (por ejemplo, el punto (11.86, 5.2) para Júpiter) es la posición que ocuparı́a este punto en papel milimétrico. Este punto en
papel log–log se lee (log D, log T ). Por tanto, al graficar log D vs. log T , usando este papel, no es necesario calcular los logaritmos de cada uno de los datos de D y T , se grafica directamente D vs. T .
Determinación de a y n
La recta de la figura 8 es de la forma Y = log a+nX,
expresada en la ecuación (4). Por las propiedades de
los logaritmos, corresponde a una relación de potencia de la forma y = axn , ecuación (3). El exponente n se obtiene calculando la pendiente de la
recta en papel log–log y la constante a se lee directamente como la ordenada al origen. Para calcular la pendiente se escogen dos puntos de la recta (x1 , y1 ) y (x2 , y2 ), que se leen como (log x1 , log y1 )
y (log x2 , log y2 ), y se usa
n=
log y2 − log y2
log x2 − log x1
La ordenada al origen de esta recta de la figura 8 corresponde al término loga de la fórmula (4). Como
la recta está graficada en papel log–log, y considerando que log 1 = 0, la ordenada al origen es el punto con coordenadas (log 1, log a), o sea que log a es el
Figura 8. D en función de T . Datos trazados en papel
log–log.
Escalas logarı́tmicas
Cuando no se quiere usar papel log–log se puede
proceder de la manera siguiente. Si se dispone de
una computadora con un programa que permita hacer gráficas (Excel, por ejemplo), se hace la gráfica D vs. T y después se cambian las escalas de lineales a logarı́tmicas en ambos ejes. Siguiendo este procedimiento se obtuvo la gráfica de la figura 9. Nótese que en las figuras 7 y 9 hay dos diferencias im-
48
ContactoS 75, 40–52 (2010)
portantes: escalas lineales en la figura 7 y logarı́tmicas en la figura 9, y las coordenadas de los orı́genes;
el origen en escalas lineales es el punto (0, 0), mientras que en escalas logarı́tmicas el origen está en la
posición (1, 1). La fórmula que aparece en la figu-
donde n es la pendiente de la recta en la gráfica log–
log y k es la intersección de la recta con el eje vertical, k debe ser determinada en X = 1. Supóngase que se ha graficado Y vs. X, pero la recta no corta al eje vertical; en cambio, si se grafica Y ′ vs. X ′
con Y ′ = Y × 10b y X ′ = X × 10a , la recta sı́ se interseca con el eje vertical. Los puntos de la recta Y ′
vs. X ′ satisfacen la relación Y ′ = k ′ X ′n . Al escribir la relación log Y ′ = log(k ′ X ′n ) en términos de Y
y de X, se obtiene
log(Y × 10b ) = log(k ′ × 10an ) + log X n
Al despejar log Y se obtiene
log Y = n log X + log
k ′ × 10an
10b
De donde se obtiene la relación de potencia
Y =
Figura 9. Valores de D y T graficados en escalas logarı́tmicas.
ra 9 es la misma que aparece en la figura 6, lo cual
ası́ debe ser porque son los mismos datos. Pero debe notarse que la forma de las curvas es diferente
y que en la figura 6 las escalas son lineales mientras que en la figura 9 son logarı́tmicas (obsérvese la separación entre las marcas que definen las escalas en D y T).
Escalamiento de gráficas
En ocasiones se presenta la dificultad que se obtuvo en la figura 6 de que, debido al valor de los datos y a la escala, los primeros puntos aparecen muy
cercanos entre sı́, casi encimados. Serı́a muy conveniente lograr que en la recta trazada se vean todos los puntos y que la escala no cause problema alguno. Bajo ciertas circunstancias, los datos no pueden ser graficados adecuadamente a menos que los
ejes horizontal y vertical sean escalados; es decir, cada uno multiplicado por un factor. El escalamiento es necesario para la determinación de la ordenada
al origen si su valor se quiere leer directamente en la
gráfica.
El escalamiento es general aunque aquı́ se ilustra
para gráficas log–log. En la ecuación general de
la forma
Y = kX n
k ′ × 10an n
X
10b
(6)
En esta expresión se ve que la relación entre k y k ′
es
k ′ × 10an
k=
10b
Recuérdese que k ′ es el valor leı́do en el cruce de la
recta con el eje vertical en la gráfica Y ′ vs. X ′ ; es
decir, en la gráfica Y × 10b vs. X × 10a .
Para ilustrar este procedimiento se usará nuevamente el ejemplo de los planetas del Sistema Solar. Para resaltar el efecto de números grandes, se usarán
los valores de T en dı́as y D en kilómetros (ver tabla 2). Al graficar D en km y T en dı́as, el origen
de las coordenadas queda lejos de la zona de trazado de los puntos en el papel y la recta no cruza el eje vertical, como lo ilustra la figura 10. Esta dificultad se presenta cuando se quieren graficar
números muy grandes o muy pequeños. En estos casos se acostumbra escalar apropiadamente los ejes
vertical y horizontal; es decir, multiplicar las variables por factores adecuados. Este procedimiento es
muy simple cuando se hace en escalas lineales (papel milimétrico, por ejemplo); pero en el caso de escalas logarı́tmicas o de papel log–log, la determinación de la ordenada donde se intersecan la recta y
la vertical X = 1 se ve afectada por estos factores
de escala.
Los valores de D en km y T en dı́a satisfacen la relación general D = kT n , pero si en lugar de graficar D
y T se grafican D′ = D × l0−8 y T ′ = T × 10−2 , entonces la ordenada de intersección no representa al
Análisis gráfico. Parte I. Angel Manzur Guzmán
Figura 10. Gráfica de D en km y T en dı́as en escalas
logarı́tmicas.
valor de k, sino otro, digamos k ′ . Esta última gráfica se presenta en la figura 11. Observe que las fórmulas que aparecen en las gráficas (figuras 10 y 11) tienen el mismo valor del exponente de T , pero el coeficiente de T es diferente. Ambas fórmulas deben contener la misma información. En la gráfica de la figura 11, la recta tiene ordenada al origen k ′ = 0.63
y pendiente n = 32 ; para usar la expresión (6) debe emplearse a = −2, b = −8, T en vez de X y D
en vez de Y . Se obtiene que
4
2
k ′ × 10an n
0.63 × 10− 3 2
D=
T
=
T 3 = 2.92×106 T 3
10b
10−8
Este valor del coeficiente de T , redondeado a entero, es el que aparece en la fórmula de la figura 10. Por
tanto, las fórmulas dadas en las figuras 10 y 11 contienen idéntica información.
Si se hubiera querido graficar T en años (en vez de T
en dı́as) y D en km, no habrı́a sido necesario escalar
T (el exponente a habrı́a sido cero).
Relaciones exponenciales
Muchos fenómenos están regidos por una ley exponencial; es decir, una cantidad del fenómeno se puede
expresar como otra cantidad constante, llamada base, elevada a un exponente representado por otra
cantidad variable del mismo fenómeno. Por ejemplo, fenómenos como la carga y la descarga de capacitores, el decaimiento de una sustancia radiactiva, la temperatura de un objeto que se enfrı́a ba-
49
Figura 11. Al graficar D′ (= D × 10−8 ) vs. T ′ (= T ×
10−2 ) la recta corta el eje vertical sin que sea necesario
extrapolar.
jo ciertas condiciones, o el crecimiento de poblaciones biológicas, todos ellos como función del tiempo satisfacen relaciones exponenciales.
Relaciones de la forma y = abcx
Ahora considérese la relación del tipo y = abcx donde
a, b y c son constantes; es usual que la constante b
esté representada por el número 10 o por el número
e. Si se toma como base el número e, la expresión es
y = aecx
(7)
Al calcular el logaritmo natural en ambos miembros
de esta fórmula, se obtiene
ln y = ln a + cx
(8)
Al identificar X = x y Y = ln y, esta expresión
(8) queda como Y = cX + ln a la cual corresponde a una lı́nea recta en las variables (X, Y ). La ordenada al origen está representada por ln a y la pendiente por la constante c. En otras palabras, si los valores (x, y) satisfacen una relación del tipo expresado por la fórmula (7), para hacer que los puntos queden a lo largo de una lı́nea recta, se debe graficar
ln y vs. x.
Cuando solamente se calculan los logaritmos naturales de los valores de la variable dependiente y se grafican ambas variables (dependiente e independiente) usando escalas lineales en ambos ejes, para determinar la pendiente se escogen dos puntos en la
recta y se usa la fórmula (2). En cambio, cuando
50
ContactoS 75, 40–52 (2010)
se grafican los datos originales (sin calcular logaritmos), las equis en escala lineal y las yes en escala logarı́tmica, para determinar la pendiente es necesario calcular los logaritmos solamente de las ordenadas de los dos puntos escogidos sobre la recta y usar la fórmula siguiente
pendiente =
ln y2 − ln y1
x2 − x1
(9)
Este valor de la pendiente corresponde al parámetro
c de las expresiones (7) y (8).
Ejemplo
Al investigar el efecto que producen los rayos gamma sobre una cierta clase de virus en la papa, se determinó la fracción de virus sobrevivientes (S) después de aplicar cierta dosis de radiación (D, en unidades arbitrarias). Se quiere determinar la relación
que D y S guardan entre sı́. Los valores aparecen
en la tabla 3*. En la tabla se observa que al aumentar la dosis D la fracción S disminuye, pero solamente esto puede decirse. Para saber cómo están relacionadas estas cantidades, conviene graficarlas. La figura 12 muestra la variación de S en función de D. La
curva que describen estos puntos es la de una función
exponencial decreciente. La forma general de la función exponencial se ha dado en la fórmula (7), la cual
en su forma logarı́tmica está expresada en la fórmula (8). En la figura 13 se trazaron los valores del logaritmo natural de S en función de D, a diferencia de la figura 12 donde se trazaron los valores de
S y D tal como aparecen en la tabla 3. Las fórmulas que aparecen en las figuras 12 y 13 tienen las formas dadas en las expresiones (7) y (8), respectivamente. El exponente que aparece en la figura 12, aparece como la pendiente en la figura 13; el coeficiente que aparece en la figura 12 es la ordenada al origen que aparece en 13, pues el logaritmo natural de
1.0596 es igual a 0.0579. Otra forma equivalente de
obtener la recta que aparece en la figura 13, a partir de los datos graficados en la figura 12 y sin calcular logaritmos, es cambiar las ordenadas a escala logarı́tmica. Haciendo este cambio se obtuvo la recta
de la figura 14, la cual difiere de la figura 13 en la escala de las ordenadas y en la presentación de la función que satisfacen los puntos.
El proceso recién descrito también puede realizarse manualmente. Al graficar los datos de la tabla 3
se observa que la curva no es una recta, se obtiene una curva como la de la figura 12. Si uno procede a calcular los logaritmos naturales de los valores de S y grafica ln S en función de D se obtiene
Figura 12. Datos de la tabla 3 graficados en escalas lineales.
Figura 13. Para esta gráfica se calculó explı́citamente el
logaritmo natural de los valores de S.
una recta como la mostrada en la figura 13. La pendiente se calcula aplicando la fórmula (2) a dos puntos sobre la recta, el valor de la ordenada al origen se lee directamente en la gráfica.
Papel semilog
Una manera de evitar el cálculo de los logaritmos
de los valores de S, pero que al graficarlos se obtenga una recta, es hacerlo con los valores de S y D en
papel semilogarı́tmico (llamado papel semilog a secas). Es un papel para graficar que tiene en un eje
una escala lineal y en el otro eje una escala logarı́tmica. Evitar el cálculo de los logaritmos es muy conveniente cuando se dispone de una cantidad grande de
puntos. Para graficar los valores de la tabla 3, escoger dos ciclos en la escala logarı́tmica serı́a suficiente pues en ella caben todos los valores de S. Sin embargo, al extrapolar la recta de la figura 13 se obtiene que la ordenada al origen queda ligeramente
Análisis gráfico. Parte I. Angel Manzur Guzmán
51
Cuadro 3.
D
S
3
0.400
5
0.250
6
0.175
8
0.100
10
0.050
12
0.030
14
0.015
*Datos tomados de la referencia 2, página 85.
Figura 14. La escala de las ordenadas es logarı́tmica
mientras que la escala de las abscisas es lineal.
arriba del origen; en forma equivalente, la ordenada al origen en la fórmula de la figura 13 ası́ lo informa. Debido a conveniencia de que el valor de la
ordenada al origen se lea directamente en la gráfica, en este ejemplo se ha decidido usar papel semilog de tres ciclos. La gráfica se muestra en la figura 15 (la cual es semejante a la de la figura 14).
Determinación de a y c
Para calcular la pendiente se usan las coordenadas de dos puntos que estén sobre la recta y se aplica la fórmula (9). Escogemos los puntos
(3, 0.44) y (14, 0.016), con lo cual se obtiene que la
pendiente es
c=
ln 0.016 − ln 0.44
= −0.301
14 − 3
En la gráfica de la figura 15 la ordenada al origen tiene el valor 1.06, aproximadamente. Insertando estos
valores de c y a en la ecuación (8), que es la ecuación de la recta, se obtiene
ln S = ln 1.06 − 0.301D = ln 1.06e−0.301D
la cual se reescribe como
S = 1.06e−0.301D
Ésta es la relación que satisfacen los valores D y S
dados en la tabla 3.
Figura 15. Datos de la tabla 3 graficados en papel semilogarı́tmico.
Nota final
Para analizar los datos experimentales, siempre conviene graficarlos. Si los puntos están contenidos en
una recta lo que resta por hacer es determinar, a
partir de la gráfica, los parámetros que la describen. Por el contrario, si los puntos experimentales
no se ajustan a una recta, sino más bien a una curva, entonces se recurre a graficarlos usando escalas logarı́tmicas en ambos ejes coordenados o solamente en uno y escala lineal en el otro. El propósito es que, con el uso de gráficas log-log o semilog,
los puntos describan una recta ya que su identificación es muy fácil e indudable. Otra manera de lograr
que los puntos experimentales estén sobre una recta es mediante un adecuado cambio de variables, el
cual usualmente es sugerido por el análisis teórico del
problema.
52
Todas las curvas de la forma y = axn pueden ser
transformadas para que sean lı́neas rectas usando
escalas logarı́tmicas en ambos ejes coordenados. La
otra familia de curvas que pueden ser convertidas en
rectas son las que tienen la forma analı́tica y = abcx .
Es usual que el parámetro b sea sustituido por el
número 10 o por el número e; en el primer caso el
cálculo se facilita usando logaritmos decimales y en
el segundo al usar logaritmos naturales. Se obtiene
una recta al graficar con escala logarı́tmica en uno
de los ejes coordenados.
Bibliografı́a
1. L. H. Greenberg. Discoveries in Physics for scientists and engineers, second edition. Saunders,
Philadelphia, PA, 1975.
2. B. Oda Noda. Introducción al análisis gráfico
de datos experimentales, 3a. edición. Facultad de
Ciencias, UNAM, México, 2005.
ContactoS 75, 40–52 (2010)
3. D. C. Baird. Experimentación. Una introducción
a la teorı́a de mediciones y al diseño de experimentos. Segunda edición. Prentice–Hall Hispanoamericana, México, 1991.
4. C. Gutiérrez Aranzeta. Introducción a la metodologı́a experimental, segunda edición. Limusa,
México, 1998.
5. E. W. Swokowski. Álgebra y trigonometrı́a con
geometrı́a analı́tica, segunda edición. Grupo Editorial Iberoamérica, México, 1988.
6. C. D. Hodgman, Ed. Handbook of Chemistry
and Physics, 43 ed. Chemical Rubber, Cleveland,
1961.
cs
¡A cuenta gotas! Parte II.
Marı́a del Pilar Beltrán Soria*, René Gerardo Rodrı́guez Avendaño**
Como muchos otros cientı́ficos (del pasado y del presente) el principal objetivo de Millikan al principio de su carrera era el reconocimiento cientı́fico, y
aunque, ya habı́a escrito algunos buenos textos escolares con anterioridad, estaba deseoso de realizar
una contribución verdaderamente importante en el
área de la Fı́sica. Millikan contaba ya con cuarenta años de edad y por esa época el interés estaba situado en la determinación de la magnitud de la carga del electrón, aunque dedicarse de lleno a tal labor
podı́a haber representado justamente todo lo contrario de lo que Millikan anhelaba.
Recibido: 10 noviembre 2009.
Aceptado: 24 noviembre 2009.
2. El problema (descripción a detalle del experimento de Millikan)
Roberts Andrews Millikan nació en Morrison Illinois,
Estados Unidos de Norteamérica, el 22 de Marzo del
año 1868, bajo el signo piscis del zodiaco, fue hijo de un ministro, obtuvo su doctorado en fı́sica en
la Universidad de Columbia y realizó trabajo post
doctoral en Berlı́n Alemania, ası́ como en la Universidad de Gotinga. Se incorporó al cuerpo docente de la Universidad de Chicago en 1896, y en 1910
fue profesor de fı́sica. Fue precisamente en la Universidad de Chicago donde estudio bajo la dirección
del astrofı́sico estadounidense Albert Abraham Michelson, quien recibió el premio Nobel de fı́sica en
1907 por desarrollar un extraordinario instrumento
para medir distancias mediante interferencia de ondas luminosas, con lo cual en 1878 determinó la velocidad de la luz, que cifró en 299,910 km/s, y posteriormente demostró, mediante el llamado experimento de Michelson–Morley (1901), que la velocidad
de propagación de la luz es independiente del movimiento de la Tierra.
Hay que establecer que en esa época en Inglaterra
otro de los grandes cientı́ficos J. J. Thomson después de haber descubierto la existencia del electrón
también se habı́a abocado a la tarea de la determinación de la carga del electrón (demostrando que el
átomo tenı́a partes internas) siendo además el director de tesis de Millikan y teniendo a su cargo el laboratorio Cavendish de la Universidad de Cambridge las posibilidades se hacı́an cada vez menores para Millikan. Uno de los colaboradores de Thomson
habı́a inventado ya un dispositivo llamado “cámara de niebla” (que inicialmente habı́a sido inventada
simplemente para estudiar las nubes de la atmósfera)
el cual era útil para seguir trayectorias de partı́culas cargadas y de movimiento rápido, esto se lograba haciendo que el aire supersaturado (lleno de vapor de agua) de su interior se condensara alrededor
de las partı́culas de polvo y otras partı́culas que flotaban libremente llamadas iones, lo cual suponı́a una
ventaja sobre otros cientı́ficos en la carrera por determinar antes que nadie la carga del electrón.
Michelson construyó instrumentos ópticos de precisión, con los que llevó a cabo diversas investigaciones espectroscópicas, y logró determinar de forma absoluta el diámetro de algunas estrellas, indudablemente la influencia de Michelson sobre Millikan fue determinante y quizá fue el principal motivo por el cual Millikan no abandonó la universidad hasta el año de 1921, cuando se le requirió para un puesto de mayor importancia al convertirse
en director del laboratorio Norman Bridge de fı́sica en el Instituto de Tecnologı́a de California.
Paradójicamente el dispositivo de niebla que parecı́a trazar la ruta adecuada para la determinación de la carga eléctrica del electrón dado que se
podı́an manipular las partı́culas cargadas eléctricamente (iones) tuvo un efecto negativo al retardar
la determinación adecuada, principalmente porque
utilizaba agua y presentaba la dificultad de que se
evaporaba rápidamente a este método se le conoció como método “Wilson” quien fue un estudiante
de Thomson.
* IEMS Plantel “Iztapalapa I” Calzada Ermita Iztapalapa No. 4163, Col. Lomas de Zaragoza, Del Iztapalapa. C.P. 09620, México D.F. [email protected], tel.
(55)59764790
** IEMS Plantel “Salvador Allende” GAM II. Av. Ferrocarril Hidalgo No. 1129, Col. Constitución de la
República, Gustavo A. Madero GAM. C.P. 07469, México
D.F.a [email protected]
53
54
Una breve descripción de algunos detalles de éste
método son que los iones generados por radiación externa en la cámara de niebla, actuaban como centros de nucleación de las gotas de agua por acción de la atracción de las moléculas de agua con
el vapor de agua supersaturado. Estas pequeñas gotas, podı́an ser observadas con ayuda de iluminación, cuando descendı́an lentamente por acción de
la gravedad.
Claro está que Millikan seguı́a los pasos de su director de tesis y también utilizaba la “cámara de
niebla” y para ionizar la nube gaseosa en la cámara utilizó primero los rayos X de Roentgen y posteriormente pequeñas cantidades de radio, haciendo
la prueba con un campo eléctrico más potente en la
cámara, con el fin de contrarrestar la fuerza de la gravedad suspendiendo la nube manteniéndola inmóvil
todo con el afán de que por un hecho milagroso pudiera adelantarse a los resultados de los mismos creadores del dispositivo, cosa que a todas luces parecı́a
irracional, sin embargo Millikan acertó un golpe de
suerte cuando en un congreso en la universidad de
Chicago y después de haber expuesto sus primeros
resultados el afamado cientı́fico neozelandés Ernest
Rutherford (que habı́a demostrado que las sustancias radiactivas producen tres tipos de emanaciones
a las que llamo rayos alfa, rayos beta y rayos gamma)
le hizo ver a Millikan que una de las grandes dificultades era la gran velocidad con la que se evaporaban
las diminutas gotas de agua. Además se encontraba
el hecho de las propias limitaciones de la Ley de Stokes, que describe el movimiento de gotas minúsculas en un fluido y que desde tiempo atrás el equipo
de Thomson utilizaba para calcular el tamaño promedio de las gotas individuales que componı́an la
nube simplemente midiendo la velocidad con la que
caı́a la nube.
Rutherford le hizo ver que el generar una nube completa en la “cámara de niebla” no era adecuado para obtener el valor correspondiente de la carga del
electrón y, hay que considerar, que sabı́a de lo que estaba hablando ya que la naturaleza de los rayos beta que trabajaba Rutherford fue determinada después de cinco años de investigación, en los cuales utilizaba el propio aparato de Thomson para obtener finalmente la naturaleza de tales rayos y dar a conocer que estaban constituidos de electrones (misma conclusión a la que habı́a llegado Becquerel en el
año de 1900).
Pero ¿en donde radicaba entonces el error cometi-
ContactoS 75, 53–63 (2010)
do por el equipo de Thomson? quizá la respuesta tenga que ver con el procedimiento del cálculo que proseguı́a a la obtención de la velocidad de caı́da de la
nube ya que sabiendo además el volumen total de vapor de agua dentro de la nube y el tamaño medio de
las gotas, Thomson pudo calcular (con la colaboración de su estudiante de doctorado Charles Wilson) el número de gotas que contenı́a la nube y bajo la suposición de que cada gota de la nube se habı́a
condensado alrededor de un único electrón, se podı́a
dividir la carga de la nube por el número de gotas para obtener una estimación aproximada de cada electrón, sin embargo los valores tenı́an una muy
baja precisión.
Millikan después de las recomendaciones hechas por
Rutherford, modificó su aparato para estudiar gotas individuales en lugar de medir toda una nube. La nueva versión consistı́a en una cámara en
la que las gotas de agua cargadas caı́an por un
pequeño agujero, originado en una placa horizontal, entrando ası́ en un área donde, con la ayuda de un microscopio (que utilizó porque las gotas eran extremadamente pequeñas, tanto que aún
con el microscopio Millikan sólo observaba la gota como si estuviera viendo a una estrella lejana
en el firmamento), podı́a verse cómo subı́an o bajaban entre dos marcas de medición hechas al interior
de la cámara.
En 1909 Millikan envió su primer artı́culo sobre el
método que denominó “equilibrio de las gotas” (en
el cual se mantenı́a una nube en estado estacionario por efecto de un campo eléctrico lo suficientemente fuerte para evitar que se cayera por efecto gravitatorio) que fue publicado en febrero de 1910. El
artı́culo fue notable por la honestidad de su presentación, tanto ası́ que el historiador de la ciencia Gerald Holton lo describe como un gesto poco común
en la literatura cientı́fica. Millikan incluyo sus juicios personales sobre la fiabilidad y validez de cada una de las 38 observaciones de gotas. Cuestión
que seguramente después lamentarı́a.
Ese mismo año Felix Ehrenhaft (1879–1952) utilizarı́a diminutas partı́culas de metal en lugar de gotas afirmando, en una publicación que saldrı́a en
1910, que sus resultados probaban la existencia de
“subelectrones” con cargas inferiores a las que Millikan sostenı́a que era la menor, a la vez establecı́a que los mismos experimentos de Millikan soportaban la teorı́a de la continuidad de la carga
eléctrica.
¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A.
La siguiente modificación al experimento tenı́a que
ver con la rápida evaporación de agua que anteriormente habı́a sido cuestionada por Rutherford, Millikan trataba de resolver el problema, cuando la respuesta le llegó en un momento de inspiración (según
se establece en su autobiografı́a) en el cual comprendió que no tenı́a sentido luchar contra la evaporación de las gotas de agua cuando los aceites de relojerı́a se habı́an desarrollado explı́citamente para resistir a la evaporación. Por lo tanto la idea de Millikan era utilizar una sustancia más pesada que el agua
y que tuviera una tasa de evaporación menor como el mercurio o un aceite.
Tal idea, posteriormente ha sido causa de disputas
acerca de la originalidad ya que el mismo Millikan la
atribuye en los artı́culos escritos en esa época a su colega J. Y. Lee, mientras que un estudiante de doctorado de Millikan, Harvey Fletcher, afirmó más tarde
que era a él a quien se le habı́a ocurrido la idea de utilizar gotitas de aceite. En este punto habrá que establecer que Millikan habı́a asignado a Fletcher la
misión de encontrar el mejor método experimental,
y discernir entre utilizar mercurio, glicerina o aceite, por lo que no es nada descabellado pensar que
en realidad tal idea pudo provenir de los resultados de Fletcher. Sobre todo si se analiza el hecho
de que Fletcher fue quien diseño el instrumento mediante el cual una gota de aceite permanecı́a suspendida en el aire como si bailara, este fenómeno es conocido como movimiento Browniano, y actualmente es de gran interés cientı́fico. Cuando Fletcher comunicó sus resultados a Millikan éste desecho todo lo que se habı́a obtenido utilizando agua y puso su atención a los resultados obtenidos con las gotas de aceite.
Ası́ pues Millikan y Fletcher trabajando sobre el
nuevo y mejorado dispositivo encontraron dos valiosos resultados. Uno era la determinación de la carga eléctrica (conocida como e) y el otro era, la determinación del producto NA e donde NA es el número de Avogadro. El producto NA e pudo ser obtenido gracias a las observaciones del movimiento browniano de las gotitas de aceite en el experimento. Justo en este punto se establece uno de los pasajes más
oscuros dentro de la vida cientı́fica de Millikan ya
que le propuso a su estudiante de doctorado Fletcher ser el único autor del resultado del trabajo acerca del movimiento Browniano, siempre y cuando Millikan apareciera como el único autor en la determinación de la carga eléctrica del electrón, ya que
Fletcher necesitaba una publicación en donde apa-
55
reciera como autor único para poder obtener el grado de Doctor. Sin duda alguna Millikan sabı́a que
la medición de la carga del electrón podrı́a elevar en
gran medida su reputación como investigador y él
querı́a todo el crédito para sı́ mismo. Fletcher, también lo entendió ası́ y estuvo en desacuerdo con Millikan, pero Millikan habı́a sido su mentor y protector ası́ que no tuvo más remedio que aceptar el trato.
Según se tiene reportado aún con este incidente Millikan y Fletcher permanecieron siendo buenos amigos y fue hasta la muerte de ambos cuando finalmente se hizo público tal hecho. Sin embargo hay que tomar en cuenta que cuando Fletcher finalmente obtuvo el grado de Doctor en Fı́sica se separó indefinidamente de Millikan.
Como sea, la idea era crear cargas eléctricas negativas en el interior de una gota y dejarla caer durante unas pocas fracciones de segundo bajo la sola influencia de la gravedad. Sin embargo las gotas
de aceite eran también muy pequeñas y nuevamente tuvo que verlas a través de un microscopio.
En septiembre de 1910, Millikan publicó en solitario su segundo artı́culo importante sobre la carga de
los electrones, el primero basado en gotas de aceite, en la prestigiosa revista Science. En este artı́culo
no ordena las gotas según su fiabilidad, dice explı́citamente no haber incluido varias de ellas en sus
cálculos de la carga de un electrón. En algunos casos, según explica, la causa era un error experimental grande.
En 1913 Millikan publicó un artı́culo en el cual asegura que los datos que los datos que presenta provienen de una serie de observaciones sobre 58 gotas que, según señala no es un grupo selecto de gotas
sino que constituye el conjunto completo de las observadas experimentalmente. Posteriormente un examen cuidadoso de Holton sobre los cuadernos que incluı́an los datos experimentales de Millikan reveları́a
que en realidad habı́a estudiado 140 gotas y no las
58 que mencionaba en él, este el periodo comprendido entre el 11 de Noviembre de 1911 al 16 de Abril
de 1912 según obra en los archivos de Caltech. Los
divulgadores cientı́ficos al leer el trabajo presentado por Holton, han centrado su atención en la omisión de las gotas, y especialmente en la falsa afirmación de Millikan en su artı́culo de 1913, de que habı́a
incluido todas las observaciones.
3. Las consecuencias
La disputa entre R. Millikan y F. Ehrenhaft, que
56
duró varios años (1910 a 1925) concluyó finalmente cuando Ehrenhaft abandonó la causa de defender la teorı́a de los subelectrones. Años más tarde se obsesionó con otra: los monopolos magnéticos, algo ası́ como imanes con un solo extremo
imantado.
Sin embargo Holton y muchos otros historiadores de
la ciencia han centrado su atención y analizado tal
disputa desde otro punto de vista, presentado una
detallada reconstrucción de la metodologı́a de experimentación de Millikan y Ehrenhaft estipulando que
Ehrenhaft seguı́a el método cientı́fico tradicional (como el que se presenta en los libros de texto) permitiendo que la teorı́a sea dictada por datos experimentales. Mientras que la metodologı́a experimental
de Millikan fue guiada por las presunciones, cuando
Holton analizó los cuadernos que contenı́an los datos experimentales de las gotas de aceite del artı́culo de 1913 encontró que el 59 % de los datos de las gotas estudiadas fueron descartados ya que no concordaban con la hipótesis de Millikan de la carga eléctrica fundamental del electrón.
Es importante resaltar el hecho de que en muchos libros de texto actuales no se menciona la controversia Millikan–Ehrenhaft y que tiene gran importancia en la historia de la ciencia, sobre todo si se analiza que en muchos libros se enaltece el uso del método cientı́fico tal como lo hizo Ehrenhaft y que actualmente este cientı́fico se encuentra totalmente ignorado y olvidado. Para entender los diferentes puntos de vista entre ambos cientı́ficos habrá que establecer el contexto en el que se presenta tal discrepancia del método cientı́fico, es importante considerar que a finales del siglo XIX existen dos posiciones antagónicas sobre el carácter del trabajo
cientı́fico.
Una de ellas la podemos identificar con cientı́ficos como el fı́sico y filósofo austriaco Ernest Mach, quienes
siguen una lı́nea filosófica que defiende una base fenomenológica basada en correlaciones de observaciones directas evitando usar cantidades “hipotéticas”.
Por otro lado tenemos a cientı́ficos como el fı́sico austriaco Ludwing Boltzmann que defienden el uso de
entidades ocultas a la observación directa como medio para entender la realidad. Sin embargo, para ambas concepciones el carácter experimental del método cientı́fico es crucial.
Esta distinción de posiciones filosóficas es fundamental porque es claro que el éxito de una teorı́a depende no de uno, sino de muchos experimentos realiza-
ContactoS 75, 53–63 (2010)
dos por muchas personas y la importancia asignada a los diferentes experimentos depende de las diferentes orientaciones filosóficas, además de que un
mismo experimento puede significar cosas diferentes en diferentes tradiciones.
Bajo este punto de vista, quizá se pueda establecer el por qué los resultados obtenidos por Ehrenhaft fueron desechados y los de Millikan prevalecieron, más allá de considerar que existı́a entre ambos cientı́ficos una rivalidad mal canalizada. Aunque hay que establecer que realmente Ehrenhaft nunca fue considerado por Millikan como su más reconocido adversario, sino más bien fue su propio director de tesis J. J. Thomson quien hasta la fecha es recordado como el “padre del electrón”.
Por otra parte los resultados no mostrados del trabajo de Millikan han provocado que el hecho sea presentado como ejemplo de conducta contraria a la ciencia, y especı́ficamente al método cientı́fico, quizá esa
sea la razón por la cual en la universidad de Chicago no exista evidencia alguna de la labor realizada por este gran cientı́fico. Holton establece como
hipótesis en su trabajo de 1982, la importancia trascendental que tienen los factores temáticos o metafı́sicos en la investigación cientı́fica de Millikan
y Ehrenhaft.
Lo cierto hasta ahora y lo que aparece en los libros
de texto es que a través del experimento de Millikan y otros experimentos adicionales, se ha determinado que la carga de un electrón es 1.6 × 10−19 C
(Coulombios). A continuación se presenta la secuencia matemática que describe la fenomenologı́a
fı́sica en el experimento de la gota de aceite de
Millikan.
Descripción cuantitativa del experimento de
las gotas de aceite de Millikan.
Una descripción de este experimento puede ser resumida de la siguiente manera: en primera instancia
hay que considerar que el comportamiento de las gotas de aceite, es muy diferente a la nube de agua que
se formaba en la cámara de niebla, ya que las gotas individuales de aceite se pueden manipular individualmente, esto se debe a que la gota queda cargada eléctricamente entre las placas, cuyo voltaje se
puede variar para que la gota no caiga al fondo. Modificando el voltaje entre las placas se podrı́a hacer
que las gotas de aceite ascendieran a velocidad constante. La carga en cada una de las gotas fue generada utilizando irradiación con rayos X, la cual se ad-
¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A.
hirió a las gotas, implicando con ello un pequeño
número de electrones (n = 0, 1, 2, 3, . . .).
Cuando se eliminaba el campo eléctrico la gota estaba sometida exclusivamente a la fuerza de la gravedad y, debido a la resistencia del aire, la gota no
caı́a aceleradamente sino que alcanzaba una velocidad terminal. Para la descripción matemática de lo
anteriormente comentado se puede considerar que
el aire tiene una viscosidad η conocida y que se
puede establecer el valor de la fuerza gravitacional
como:
F g = m∗ g = F f
Donde Fg es la fuerza de la gravedad, y m∗ es la masa
aparente, tomada en cuenta en la frontera del aceite
y el aire, mientras que Ff es la fuerza de fricción
que se opone al movimiento por lo que la ecuación
se puede escribir como:
Entonces despejando el radio de una de las gotas de
aceite
s
9ηv0
r=
(ρaceite − ρaire )2g
puede ser estimado ya que como se estableció anteriormente la viscosidad del aire η es conocida. Si un
campo eléctrico E0 ahora es aplicado, entonces una
fuerza eléctrica F = qE0 actúa sobre la gota de aceite, donde q = −ne, donde finalmente aparece la carga eléctrica del electrón. Con el campo eléctrico adecuado compensando la gravedad se tiene:
4
meE0 = −g(ρaceite − ρaire ) πr3
3
Con lo cual se puede calcular la carga de la gota de
aceite de la manera siguiente:
−q = ne = −
Fg = (ρagua V − ρaire V )g = −6πηrv
Donde m∗ = ρagua V − ρaire V y Ff = −6πηrv para partı́culas esféricas (considerándose a la gota como tal) según se establece en la ecuación de Stokes,
(la resistencia opuesta por un fluido al movimiento de una esfera en su seno es proporcional a la velocidad relativa) la cual debe su nombre al fı́sico y matemático irlandés George Gabriel Stokes.
4
F = qE1 − g πr3 (ρaceite − ρaire ) − 6πηrv
3
En la cual la velocidad terminal en este caso:
v1 =
Fg = g(ρagua − ρaire )V = −6πηrv
4
Fg = (ρagua − ρaire ) πr3 = −6πηrv
3
De donde se puede despejar la velocidad terminal
constante y obtener:
v=
m∗ g
6πηr
La cual depende de la viscosidad del gas (ηaire ), el
radio de la gota r (que puede ser determinado a partir de la masa total condensada en la parte inferior de la cámara de niebla), la constante de aceleración gravitacional g, y la masa de la gota m.
Retomando la definición hecha para la masa aparente m∗ se tiene que se puede calcular la velocidad de caı́da v0 .
v0
g(ρaceite − ρaire ) 34 πr3
6πηr
g 4 3
πr (ρaceite − ρaire )
E0 3
Una variación del experimento de un campo eléctrico
mayor E1 es aplicado, con lo cual se mueve la gota de
aceite hacia arriba, y la gota experimenta una fuerza
total de:
Por lo que se puede reescribir como:
O bien, considerando el volumen de una partı́cula
esférica.
57
qE1 − g 43 πr3 (ρaceite − ρaire )
6πηr
Por lo que al restar v1 − v0 se obtiene:
v1 − v0 =
qE1
6πρr
De la cual la carga es:
q
= −ne = 6πηr(v1 − v0 )
η 23 r
36π
v0
=
(v1 − v0 )
E1
2
g(ρaceite − ρaire )
Cuando la gota cambia su carga, su velocidad terminal v1 cambiará. La carga más pequeña será observada cuando ∆n = 1. Lo cual proporciona la carga elemental del electrón.
Se puede obtener valores para la carga elemental del
electrón que sean dos veces la carga elemental, tres
veces la carga elemental, nueve veces la carga elemental y muchos otros números enteros de esta carga elemental. Pero nunca se verá una parte fraccional de esta carga elemental, asumiendo que la carga no se puede dividir.
58
ContactoS 75, 53–63 (2010)
q
q
q
q
Peso de cada canica
= 3.2 × 10−19 C
= 6.4 × 10−19 C
= 8.0 × 10−19 C
= 11.2 × 10−19 C
1g
2g
1/2 g
Cuadro 1.
Número de canicas
en el saco
8
4
16
Cuadro 2.
Es decir, para cada una de las gotas individuales se
puede establecer que:
Qgota = n(1.6 × 10
−19
C)
Peso de cada canica
8g
4g
Número de canicas
en el saco
1
2
Cuadro 3.
Donde n es un número entero positivo, que denota
el número de electrones que fueron añadidos en el
experimento de Millikan a cada una de las gotas de
aceite y que en conjunto contribuyen a la carga neta
de la gota.
Millikan obtuvo valores para la carga del electrón
como los mostrados en la tabla 1.
Teorı́as actuales de fı́sica declaran que cargas de
1/3 y 2/3 de la carga elemental del electrón pueden existir. Hay evidencia para estas cargas fraccionadas y los cuarks (los componentes más pequeños de los cuales está hecha la materia) están
asociados.
Para poder acoplar los resultados de Millikan con estas nuevas teorı́as habrá que considerar que los resultados de la gota de aceite de Millikan hasta ahora pueden establecer la conclusión de que los cuarks
siempre se unen para hacer una carga total de +1
ó −1, lo cual no contradice de ninguna manera los resultados del experimento de las gotas de aceite.
Una manera muy práctica y fácil de entender los resultados obtenidos por Millikan, es a través de la situación de encontrar la masa y la cantidad de canicas que se encuentran en un costalito, con la condición de que no se puede abrir y observar su contenido y con la ayuda que se conoce la masa de varios de ellos que contienen diferentes números de canicas, tal y como se describe en el ejemplo numero uno y dos que a continuación se presentan.
Ejemplo 1
Se tienen varios sacos cada uno con un número determinado de canicas. Los pesos de los sacos son de
8, 14, 18, 20, 26, 40 gramos respectivamente. ¿Cuál
es el peso de cada canica y cuantas canicas hay en
cada saco?
En el primer saco las posibilidades más sencillas de
pesos en las canicas son: 1, 2, 4, 8. A esos números
les llamaremos los factores o divisores del 8 ya que
son los números naturales que dividen al 8 y no hay
más. Si formamos parejas, primer número con último
y segundo con penúltimo, podemos formar las dos
primeras filas de la tabla 2.
Hay que hacer notar que también es permitido considerar que el peso de una canica sea un número fraccional, por sencillez nos limitaremos al análisis de
1/2 g exclusivamente. Para los dos primeros pesos
de canicas, también funciona intercambiando los datos de las columnas, tabla 3.
O podemos ponerlo en una sola tabla 4, p. 58.
Sin embargo cuando se propone que cada canica pese
16 g se obtiene la tabla 5, p. 59.
Lo cual es fı́sicamente imposible ya que el número de
canicas debe ser siempre un número entero positivo,
con lo cual queda descartado el hecho de que cada
canica pueda pesar 16 gramos y con esto cualquier
otro peso en el cual se obtenga un número de canicas
no entero positivo.
Restricción 1: el número de canicas en los sacos debe ser un número entero positivo.
Hay que hacer notar una restricción adicional, en
el primer saco el número de gramos obtenidos es
de ocho, por lo tanto ninguna canica puede pesar
más de esa cantidad lo cual nuevamente concuerda con la eliminación de 16 g como respuesta.
Peso de cada canica
1
2
4
8
Número de canicas
en el saco 1
8
4
2
1
Cuadro 4.
¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A.
Peso de cada canica
16 g
Número de canicas
en el saco
1/2
Peso de cada
canica
Cuadro 5.
Peso de cada
canica
1/2
1
2
7
14
59
Número de
canicas en el
saco 2
28
14
7
2
1
Factibilidad
del
resultado
SI
SI
SI
SI
NO∗
Cuadro 6. *El peso de una canica no debe ser mayor de
8 g derivado del primer saco de canicas.
1
2
1
2
4
5
10
20
Número de canicas
en el saco 4
40
20
10
5
4
2
1
Factibilidad del
resultado
SI
SI
SI
SI
SI
NO*
NO*
Cuadro 8. *El peso de una canica no debe ser mayor de
8g derivado del primer saco de canicas.
¿Qué pasa para el segundo saco? véase tabla 6, p. 59.
¿Qué pasa para el tercer saco? véase tabla 7, p. 59.
¿Qué pasa para el cuarto saco? véase tabla 8, p. 59.
¿Qué pasa para el quinto saco? véase tabla 9, p. 59.
¿Qué pasa para el sexto saco? véase tabla 10, p. 59.
Ya tenemos todas las posibilidades, pero las canicas
en los seis sacos son iguales, por lo que deben pesar
lo mismo, entonces se reducen las posibilidades. De
las seis tablas, los pesos que coinciden en las 6 tablas
son el 1/2, 1 y el 2.
En este problema tenemos las siguientes posibles soluciones:
Si cada canica pesa 1/2 gramo:
Para el saco uno tenemos 16 canicas.
Para el saco dos tenemos 28 canicas.
Para el tercer saco tenemos 36 canicas.
Para el cuarto saco tenemos 40 canicas.
Para el quinto saco tenemos 56 canicas.
Para el sexto saco tenemos 80 canicas.
Peso de cada
canica
1/2
1
2
3
6
9
18
Número de canicas
en el saco 3
36
18
9
6
3
2
1
Factibilidad
del resultado
SI
SI
SI
SI
SI
NO∗
NO∗
Cuadro 7. *El peso de una canica no debe ser mayor de
8 g derivado del primer saco de canicas.
Peso de cada
canica
1/2
1
2
13
26
Número de canicas
en el saco 5
56
26
13
2
1
Factibilidad del
resultado
SI
SI
SI
NO*
NO*
Cuadro 9. *El peso de una canica no debe ser mayor de
8g derivado del primer saco de canicas.
Peso de cada
canica
1
2
4
5
8
10
20
40
Número de canicas
en el saco 6
40
20
10
8
5
4
2
1
Cuadro 10.
Factibilidad del
resultado
SI
SI
SI
SI
SI
NO*
NO*
NO*
60
Si cada canica pesa 1 gramo:
Para el saco uno tenemos 8 canicas.
Para el saco dos tenemos 14 canicas.
Para el tercer saco tenemos 18 canicas.
Para el cuarto saco tenemos 20 canicas.
Para el quinto saco tenemos 26 canicas.
Para el sexto saco tenemos 40 canicas.
Si cada canica pesa 2 gramos:
Para el saco uno tenemos 4 canicas.
Para el saco dos tenemos 7 canicas.
Para el tercer saco tenemos 9 canicas.
Para el cuarto saco tenemos 10 canicas.
Para el quinto saco tenemos 13 canicas.
Para el sexto saco tenemos 20 canicas.
Otra posible solución a este problema es observar
los números de los pesos en cada uno de los sacos de
canicas y determinar si existe alguna relación entre
ellos. Si se obtiene la diferencia que existe entre estos
valores tenemos la tabla 11, p. 61.
Analizando los incrementos nos damos cuenta de que
el menor de ellos es de 2 g por lo que debe existir un
número entero positivo de canicas que proporcione
dicha cantidad. Elaboremos, entonces, la tabla 12,
p. 61.
Llegando nuevamente a los valores de 1/2 g, 1 g y
2 g que se habı́an obtenido con el método anterior
sólo que este método presenta la ventaja de que puede aplicarse aún cuando las mediciones de los pesos no sean números enteros como se presenta a continuación, en el ejemplo número dos. Los valores que
son las tres posibles respuestas pueden también escribirse como:
Primera posibilidad: mc = 21 g ó mc = 0.5g ó mc =
2−1 g.
Segunda posibilidad: mc = 1g ó mc = 20 g.
Tercera posibilidad: mc = 2g ó mc = 21 g.
Ejemplo 2:
Consideremos ahora que las mediciones en cada uno
de los sacos que contienen las mismas canicas del
ejemplo uno son 2.82, 6.58, 10.34, 14.1, 17.86 y 23.5
gramos respectivamente y que tenemos que determinar la masa y el número de canicas de cada uno y
que además concuerden con los resultados del ejemplo uno.
Habrá que establecer nuevamente lo siguiente:
Restricción 1: el número de canicas en los sacos debe
ser un número entero positivo.
ContactoS 75, 53–63 (2010)
Masa
propuesta
Masa
propuesta
Diferencia de
valores
Ejemplo 1
Ejemplo 2
1g
0.94 g
0.6 g
0.5 g
0.47 g
0.3 g
Cuadro 15.
A continuación si se obtiene la diferencia que existe
entre estos valores tenemos la tabla 13, p. 61.
Analizando los incrementos nos damos cuenta de que
el menor de ellos es de 3.76 g por lo que debe existir un número entero positivo de canicas que proporcione dicha cantidad. Hay que hacer notar que en el
primer saco solamente se tienen 2.82 g por lo automáticamente se tiene la restricción de que una canica no puede pesar más de esa cantidad.
Restricción 2: mcanica ≤ 2.82 g
Elaboremos entonces, la tabla 14, p. 61.
De los resultados de la tabla se puede verificar que las
cantidades que son enteros positivos para el número
de canicas dentro de los sacos son:
Primera posibilidad: mc = 0.94 g.
Segunda posibilidad: mc = 0.47 g.
Con lo cual al comparar con los resultados del ejemplo número uno, tenemos que, la masa de cada una
de las canicas debe ser de 0.47g, ya que si analizamos la diferencia entre ambos problemas tenemos
que la diferencia es menor, tabla 15, p. 60.
Ejemplo 3:
Una vez realizada la metodologı́a para el caso de
las canicas y los sacos podemos extrapolar el procedimiento al problema de la determinación de la carga del electrón con los datos obtenidos por medio del
experimento de Millikan, los datos son los de la tabla 16, p. 62.
A continuación si se obtiene la diferencia que existe
entre estos valores tenemos la tabla 17, p. 62.
Por lo que la menor diferencia es de 3.2×10−19 C, con
lo cual habrá que determinar ¿Cuántos electrones
son necesarios para generar tal carga? véase tabla 18,
p. 63.
Lo cual establece que los posibles valores para la carga eléctrica del electrón son: 1.6 × 10−19 C y 0.8 ×
10−19 C. Sin embargo Millikan nunca encontró valores de carga eléctrica menores a 1.6 × 10−19 C, por
¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A.
Peso de los sacos de canicas
8g
14 g
18 g
20 g
61
26 g
40 g
Diferencia entre cada uno de los sacos que contienen las canicas.
∆m
∆m1 =
(14 − 8)g
∆m2 =
(18 − 14)g
∆m3 =
(20 − 18)g
∆m4 =
(26 − 20)g
∆m5 =
(40 − 26)g
∆m
∆m1 = 6g
∆m2 = 4g
∆m3 = 6g
∆m4 = 2g
∆m5 = 14g
Cuadro 11.
Masa propuesta de cada una
de las canicas
Número de canicas que contribuyen al valor del incremento de 2 g
Número de
canicas en el
saco 1
Número de
canicas en el
saco 2
Número de
canicas en el
saco 3
Número de
canicas en el
saco 4
Número de
canicas en el
saco 5
Número de
canicas en el
saco 6
mc = 2g
1
4
7
9
10
13
20
mc = 1g
2
8
14
18
20
26
40
mc = 12 g
4
16
28
36
40
52
80
Cuadro 12.
Peso de los
sacos de las
canicas
2.82 g
6.58 g
10.34 g
14.1 g
17.86 g
23.5 g
Diferencia entre cada uno de los sacos que contienen las canicas
∆m
∆m1 =
(6.58 − 2.82)
∆m2 =
(10.34 − 6.58)
∆m3 =
(14.1 − 10.34)
∆m4 =
(17.86 − 14.1)
∆m5 =
(23.5 − 17 − 86)
∆m
∆m1 = 3.76
∆m2 = 3.76
∆m3 = 3.76
∆m4 = 3.76
∆m1 = 3.76
Cuadro 13.
Número de canicas que contribuyen al valor del incremento de 2 g
Número de
canicas en
el saco 1
Número de
canicas en
el saco 2
Número de
canicas en
el saco 3
Número de
canicas en
el saco 4
Número de
canicas en
el saco 5
Número de
canicas en
el saco 6
mc = 3.76
2
= 1.88
2
3
2
= 1.5
7
2
11
2
= 5.5
15
2
19
2
25
2
mc = 3.76
3
= 1.2533
3
9
4
= 2.25
21
4
33
4
= 8.2
45
4
mc = 3.76
4
= 1.88
4
3
mc = 3.76
5
= 0.752
5
15
4
mc = 3.76
6
= 0.6266
6
9
2
mc = 3.76
7
= 0.5371
7
21
4
mc = 3.76
8
= 0.47
8
Masa propuesta
de cada una de
las canicas
6
= 3.5
= 5.25
7
= 3.75
= 4.5
= 5.25
11
35
4
= 8.7
21
2
= 10.5
49
4
55
4
=
=
= 7.5
=
= 9.5
57
4
=
= 12.5
75
4
=
11.25
14.25
18.75
15
19
25
75
4
=
95
4
=
125
4
=
13.75
18.75
23.75
31.25
33
2
45
2
57
2
75
2
77
4
= 16.5
=
105
4
= 225
=
133
4
= 28.5
=
175
4
= 37.5
12.25
19.25
26.25
33.25
43.75
14
22
30
38
50
Cuadro 14.
=
62
ContactoS 75, 53–63 (2010)
q = 3.2 × 10−19
q = 6.4 × 10−19
q = 8.0 × 10−19
q = 11.2 × 10−19
Cuadro 16.
Valores obtenidos en las
mediciones
q = 3.2 × 10−19 C
q = 6.4 × 10−19 C
q = 8.0 × 10−19 C
q = 11.2 × 10−19 C
Diferencia entre cada uno de los sacos que contienen las canicas
−19
∆q = (6.4 × 10
− 3.2 × 10−19 )
∆q1 = 3.2 × 10−19
∆q = (8.0 × 10−19 − 4.8 × 10−19 )
∆q = (6.4 × 10−19 − 3.2 × 10−19 )
∆q3 = 3.2 × 10−19
∆q4 = 3.2 × 10−19
Cuadro 17.
lo que la segunda opción queda descartada y se tiene el resultado de:
qelectrón = 1.6 × 10−19 C
Propuesta adicional:
1. Se les indica a los estudiantes que elaboren un
listado de materiales a partir de los cuales pueden obtener datos similares a los obtenidos en los
ejemplos de las canicas para describir el experimento de Millikan.
2. De los objetos propuestos por los estudiantes se
elige, el que presente las mejores condiciones experimentales.
3. Se permite a los estudiantes conformar equipos
de tres personas y realizar las mediciones experimentales, reportando cada una de las masas para poder iniciar con la metodologı́a antes
expuesta.
4. Se les pide determinar la masa y el número de
objetos, al igual que se hizo con las canicas.
5. Se analizan los resultados obtenidos, ası́ como la
valoración del procedimiento experimental para
obtenerlos, si los valores no son satisfactorios se
debe evaluar las causas y confrontar las soluciones
por parte de cada uno de los equipos.
6. Se contrasta la metodologı́a experimental de cada
uno de los equipos con los pasos que se describen
en el método cientı́fico y se sacan las conclusiones
pertinentes.
7. Por último, se les aplica un cuestionario de reflexión, elaborado por el profesor de la asignatura en la cual se trata de evaluar el impacto
de la estrategia didáctica en la adquisición de
conocimiento.
4. Conclusión
Indudablemente el experimento de Millikan para la
determinación de la carga del electrón es un ejemplo de la ingeniosa creatividad del hombre, ası́ pues
es indudable que debe pertenecer al selecto grupo
de los experimentos más bellos de la Fı́sica. Sin embargo la conducta de R. Millikan de ninguna manera puede ser aceptable, no por el hecho de su acertada eliminación de datos no relevantes en su artı́culo publicado en 1913, sino por no haber dado el crédito que le correspondı́a a aquellos que contribuyeron
a su éxito y reconocimiento.
Desde el punto de vista académico el experimento
de las gotas de aceite de Millikan presenta una metodologı́a para poder entender una manera de obtener el resultado de que la carga elementarı́a del
electrón, estudiando a la vez en la parte matemática, números enteros, números racionales, notación
cientı́fica, incrementos, etc., en el área de la fı́sica entender el electromagnetismo, la reactividad, los rayos X, la carga eléctrica, etc., y finalmente en el
área de la quı́mica, el átomo, el electrón, la composición quı́mica y los modelos atómicos .
Es importante también señalar la conveniencia de
utilizar la historia de la ciencia como un instrumento en la enseñanza de asignaturas como matemáticas, fı́sica o quı́mica, quedando como una propuesta factible y concreta para su uso en la enseñanza en el nivel medio superior.
Otro aspecto importante que se puede abordar con
esta estrategia didáctica es el hecho de poder presentar de una manera totalmente diferente a lo que
tradicionalmente se encuentra en los libros de texto el conocido “método cientı́fico” y abordar las diferentes aristas desde los diferentes puntos de vistas de los cientı́ficos aquı́ mencionados.
¡A cuenta gotas! Parte II. Ma. del Pilar Beltrán S., René Gerardo Rodrı́guez A.
Carga de cada uno de
los electrones
Número de electrones
63
Número de electrones en la gota
1
Número de electrones en la gota
2
Número de electrones en la gota
3
Número de electrones en la gota
4
mc = 3.2×10
2
2
= 1.16 × 10−19
2
4
5
7
mc = 3.2×10
3
3
= 1.06 × 10−19
3.01
6.03
7.54
10.56
mc = 3.2×10
4
= 0.8 × 10−19
4
8
10
14
−19
−19
−19
4
Cuadro 18.
Y por último, pero no menos importante permite
realizar un análisis con los estudiantes acerca de los
valores y conductas de las personas y en especial de
los cientı́ficos. Los valores éticos pueden ser abordados hasta el detalle deseado, estableciendo un vı́nculo directo con el quehacer diario de cada uno de
los estudiantes y su manera de proceder en su vida
diaria.
5. Bibliografı́a
1. Cantoral, R. (2003). Desarrollo del pensamiento
matemático (pp. 5–7). México: Trillas.
2. Cantoral, R. (2008). Investigaciones sobre enseñanza y aprendizaje de las matemáticas, Un reporte iberoamericano. (pp. 41–53) Ed. Dı́az de
Santos.
3. Crease, R. (2006). Ver el electrón. El prisma y el
péndulo. (pp. 153–169). Barcelona: Crı́tica.
4. Bruce, C. (1997). La paradoja de Einstein y otros
misterios de la ciencia resueltos por Sherlock Holmes. (pp. 65–79). España: Granica.
5. Garritz, A. y Chamizo, J. A. (1994). Quı́mica. Wilmington, Delaware, USA: Addison–Wesley
Iberoamericana. La segunda edición de este libro
es (2001) Tú y la quı́mica. México: Pearson Educación.
6. Becker P., History and progress in the accurate determination of the Avogadro constant, Rep.
Prog. Phys. 64 (2001) 1945–2008.
7. Carmona F. J. E., Gallego B. H. A., Orozco G.
H., Automatización y control del experimento de
la gota de aceite de Millikan, Scientia et Technica,
año XIII, 37 (2007) 545–549.
8. Córdova J. L., El número de Avogadro N0 =
6.023 × 1023 . Contactos 3 y 4, vol. 1, 1984.
9. The Historical and Conceptual Development of
the Electron and Measuring the Fundamental
Electric Charge. Development of Ideas in Physical Science. Fall 2005. Professor Etkina
cs
El enigma de la biodiversidad y los bichos en el jardı́n
Rafael Guzmán Mendoza*
sos que hacen funcionar a los ecosistemas, la unidad estructural de toda la vida en la Tierra. En este sentido, los procesos biogeoquı́micos, como el ciclo
del agua, del carbono o del nitrógeno, han sido ampliamente estudiados, pero el fenómeno de la biodiversidad, entraña desafı́os aún más apasionantes como propiedad funcional.
Recibido: 10 de noviembre de 2009.
Aceptado: 20 de enero de 2010.
Abstract
Insects are one of the oldest groups of organisms
in the world. In terrestrial ecosystems are the most
abundant and diverse. Maintain complex relationships between them and abiotic ecosystem factors,
so that regulate the functional properties of environments as the flow of nutrients and primary productivity. It can affect in many key areas like the
rate of decomposition of organic matter and the
physiognomy of the landscape. However, little is
known about this group of animals both in taxonomic and ecological aspects. In Mexico, the entomological study is a branch of biology expanding with
many fascinating phenomena to be discovered.
El término “biodiversidad”señala toda la variabilidad de seres vivos sobre el planeta. En un sentido amplio, puede ser dicho que la diversidad biológica es desde el número de especies presentes, hasta la heterogeneidad representada en las comunidades bióticas, pasando desde luego, por las interacciones que ocurren a múltiples escalas espaciales y temporales desde milı́metros al planeta entero y de minutos a millones de años, y a diferentes niveles de organización ecológica (del individuo
a la región). La biodiversidad es entonces, un proceso que es producto de múltiples factores, donde ninguno es mutuamente excluyente y todos juegan un
papel importante y en el que el azar y las contigencias históricas, forman parte fundamental de la composición actual de las comunidades que conforman a
los ecosistemas.
Palabras clave: biodiversidad, insectos, ecosistemas.
Resumen
Los insectos son uno de los grupos de organismos
más antiguos del mundo. En los ecosistemas terrestres son de los más abundantes y diversos. Mantienen complejas relaciones entre ellos y los factores abióticos del ecosistema, de manera que regulan las propiedades funcionales de los ambientes como el flujo de nutrientes y la productividad primaria.
Lo que puede derivar en aspectos clave como la velocidad de descomposición de la materia orgánica y
la fisonomı́a del paisaje. Sin embargo, poco se sabe de este grupo de animales tanto en términos taxonómicos como en aspectos ecológicos. En México, el estudio entomológico es una rama de la biologı́a en expansión con muchos fenómenos fascinantes aún por descubrir.
Para entender cómo es que funcionan los ecosistemas y cómo es que se modifican sus propiedades funcionales, se han utilizado muchos modelos, sobre todo en plantas, donde se ha manipulado la biodiversidad. Algunos autores como Shahid Naeem, han encontrado que modificaciones en la composición de la
comunidad de plantas, que son los productores primarios, es decir, los que se encargan de capturar la
energı́a luminosa del sol y transformarla en tejidos
vivos a través de la fotosı́ntesis, influye significativamente sobre la productividad primaria neta disponible para los consumidores. Sin embargo, poco ha sido
explorado el efecto de los consumidores sobre las propiedades funcionales del ecosistema como la productividad, en donde se ha propuesto que las comunidades de estos organismos, pueden llevar a los ecosistemas hacia estados alternativos (Schmitz, 2004) donde, bajo condiciones ambientales similares, diferentes parches pueden presentar diferencias en la estruc-
Introducción
Desde hace muchos años, los ecólogos han intentado descifrar los misterios que encierran los proce* Estudiante de Doctorado en Ciencias Biológicas de la
UAM. División de Desarrollo Sustentable, Universidad Intercultural del Estado de México División de Desarrollo Sustentable, Lib. Francisco Villa s/n Col. Centro, San Felipe del Progreso 50640, Estado de México e-mail: [email protected]
64
El enigma de la biodiversidad y los bichos en el jardı́n. Rafael Guzmán Mendoza.
65
tura de las comunidades dependiendo de la dinámica particular de cada uno de ellos.
ca, hace de tres a cuatro billones de años (Deamer,
2008).
En el presente ensayo, se abordarán aspectos importantes sobre el entendimiento y definición del concepto de biodiversidad, ası́ como elementos clave sobre la importancia funcional de los insectos sobre
las propiedades funcionales del ecosistema. Se exponen las razones del por qué México es un paı́s diverso y la escasez del conocimiento de su riqueza
entomológica.
El fenómeno que llamamos vida, tiene propiedades
complejas que hacen difı́cil una definición. Por ejemplo, un ser vivo es capaz de replicarse a sı́ mismo mediante la reproducción, pero la reproducción es un
evento que ocurre de dos formas: asexual y sexual.
La conducta, la competencia, la anatomı́a, la fisiologı́a y la selección sexual, son sólo algunos de los factores biológicos involucrados. Los seres vivos son capaces de mantenerse en el tiempo, algunos incluso con el potencial de la eternidad, como los árboles por un lado que presentan un crecimiento indeterminado y las bacterias y hongos por otro, que forman estructuras de resistencia contra cambios ambientales desfavorables, llamadas quistes. La adaptación y la evolución se convierten en la historia natural de los linajes que surgen a partir de ancestros, pero hay grupos cuyos orı́genes pueden estar dados por
más de uno. Los organismos vivos son interdependientes entre sı́, lo que significa interacciones de diversos tipos como competencia, simbiosis, depredación, mutualismo y parasitismo, entre otras. La respiración es otro proceso asociado con la vida, aparentemente sencillo, ya que únicamente hay dos tipos
de intercambio gaseoso (anaeróbico y aeróbico). Sin
embargo, sus implicaciones sobre el curso de la vida en la Tierra, han sido profundas. La aparición de
oxı́geno molecular en nuestro planeta, hace 2.4 billones de años, es considerada como la causa responsable de la diversidad biológica actual, y del cambio en
el curso de la evolución de la vida (Fontúrbel y Molina 2004). Por otro lado, el flujo de metano, producto de la respiración anaerobia, pudo ser un factor importante en la modulación de las condiciones climáticas de la Tierra primigenia y en épocas
relativamente recientes. De esta manera, las especies presentes en un espacio y un tiempo determinados, son productos complejos de historia, interacciones y azar.
¿Qué es la biodiversidad?
El problema de la biodiversidad parte necesariamente del origen mismo de la vida. El experimento clásico de Miller (1953), muestra cómo elementos orgánicos se sintetizan a partir de sustancias inorgánicas a
través de fuentes de energı́a, como el calor y los rayos ultravioleta, condiciones que se han considerado necesarias para nuestro planeta durante sus primeras fases de desarrollo geológico y en donde el
agua ha sido un precursor ineludible. Otros investigadores argumentan la sı́ntesis de moléculas orgánicas prebióticas fuera del planeta Tierra, como en las
nebulosas. Considerando el sesgo en el experimento de Miller (1953) para explicar la evolución quı́mica, por el criterio de selección de las sustancias precursoras, parecerı́a ser que en un principio, la materia prima que dio origen a la vida, llegó del espacio. La evidencia de una atmósfera primitiva rica en
dióxido de carbono (CO2 ) y nitrógeno (N2 ), sugiere
condiciones poco viables para una sı́ntesis suficiente
de moléculas orgánicas prebióticas, lo que refuerza la
hipótesis de fuentes externas de elementos orgánicos
al planeta o bien una atmosfera rica en CO (Miyakawa et al., 2002). Sin embargo, la sı́ntesis de moléculas orgánicas no significa el origen de seres vivos;
conceptualmente todavı́a hay una gran brecha entre sustancias orgánicas simples y moléculas orgánicas complejas con actividad biológica útil, como los
aminoácidos y las proteı́nas. Deamer (2008), menciona que el constante flujo de materia y energı́a dirigió las reacciones orgánicas hasta incrementar la
complejidad y variedad de compuestos poliméricos
(ácidos grasos, aminoácidos, proteı́nas, etc.), hasta
conformar ensambles microscópicos que en un escenario heterotrófico y de selección quı́mica, ganaron
mayor complejidad al capturar energı́a y pequeñas
moléculas del ambiente. La vida comenzó cuando
algunos ensambles encontraron el camino no sólo
para crecer, sino también para incorporar funciones catalı́ticas (enzimas que regulan las reacciones
quı́micas en los seres vivos) y de información genéti-
La variabilidad de la vida no sólo surge como producto de la vida misma. Elementos abióticos están
estrechamente vinculados. Por ejemplo, la tectónica de placas y la deriva continental han tenido mucho que ver en procesos de especiación (origen de especies nuevas). Con la formación de montañas, se
modifican los climas, aumentando la heterogeneidad fı́sica del ambiente y promoviendo la creación
de mosaicos ambientales diversos al aumentar la variabilidad vegetal y climática. En este sentido, se
ha sugerido una estrecha relación entre estos ele-
66
mentos (orogenia, clima, vegetación y fauna) que
incrementan la riqueza de especies.
Los procesos de especiación también son complicados y sujetos a debate, sobre todo en lo que respecta a la importancia en términos de su frecuencia y
efectividad para originar especies nuevas. La erupción de un volcán o el espacio abierto en el dosel por
un rayo en una tormenta en el Amazonas, deja espacios ecológicos vacı́os que las especies van ocupando y donde, en el transcurso del tiempo, se va modificando la identidad de los ocupantes por medio
de un proceso llamado sucesión ecológica. La intensidad y la cantidad de energı́a solar que incide sobre la superficie terrestre es un elemento importante que explica la variabilidad de la vida, porque incrementa el número de hábitats y acelera los procesos evolutivos, además, revela él por qué de la
distribución desigual de la riqueza biológica en el
mundo. Pero algo más perturbador surge ante esta complejidad de interacciones bióticas y abióticas, alrededor de la biodiversidad y es que, en este mundo cambiante, nada parece estar en equilibrio
y ninguna especie, por lo tanto, esta óptimamente
adaptada.
Otra fuente de conflicto para el entendimiento de la
biodiversidad, es la unidad fundamental que se utiliza para medirla, la especie. A pesar de que la población es un conjunto de individuos que comparten caracterı́sticas comunes, el concepto de especie
es todavı́a un artefacto difı́cil de construir. Lo anterior se debe a la enorme variabilidad genética, fenotı́pica, de hábitats y nichos que una misma especie puede presentar, por ejemplo, la salamandra
dorsiroja de bosque (Plethodon cinereus) a lo largo de su área de distribución de bosque y tierras bajas, es posible encontrar subespecies; los insectos,
con un ciclo de vida complejo pueden estar ocupando diferentes nichos y hábitats a lo largo de su vida; muchas especies vegetales como los encinos, son
susceptibles a procesos de hibridación. Lo anterior,
ha generado una gran cantidad de conceptos para definirla, todos ellos limitados, por lo que ninguno puede llegar a describir cabalmente lo que es
la especie.
A pesar de esta adversidad inherente a la confusión de la vida misma, los ecólogos han tomado este desafı́o y generado múltiples modelos para estimar
la riqueza biológica. El número de especies presentes en un espacio y un tiempo determinado, nos habla de riqueza. La forma en cómo se reparten los re-
ContactoS 75, 64–68 (2010)
cursos dentro de la comunidad, en términos de las
abundancias de las especies presentes, revela la equitatividad, la dominancia y la heterogeneidad; en este sentido se han construido modelos matemáticos
complejos como los ı́ndices de Shannon y Simpson.
¿Los insectos, herramientas útiles
para el estudio de la relación
biodiversidad-ecosistemas?
Los insectos conforman el grupo más abundante y
biodiverso del mundo, pero además, uno de los menos conocidos. Desde principios del siglo pasado, los
cientı́ficos han intentado conocer el número total de
especies de estos animales. La dificultad para llegar a
tal número se debe a la historia evolutiva y a la biologı́a del grupo. Los insectos existen desde hace 400
millones de años, ecológicamente ocupan nichos importantes que regulan los flujos de materia y energı́a
de los ecosistemas terrestres. En un estudio realizado en el desierto de Chihuahua, fueron cuantificadas cerca de 180,000 hormigas granı́voras forrajeando en una hectárea, y dado que las semillas son parte fundamental de su alimentación, las convierte en
un factor primordial en la dinámica de la comunidad
de plantas, al modificar la abundancia, la composición y la distribución de las especies vegetales; algunas otras especies, por su conducta de construir galerı́as y transportar materia orgánica de la superficie hacia el interior del suelo, son capaces de modificar las propiedades fı́sicas tales como porosidad, retención de agua y estructura del suelo; y propiedades quı́micas, como las concentraciones de nitrógeno
(N) y potasio (K). Es por ello que se les considera “las pequeñas cosas que hacen funcionar al mundo” y son verdaderos ingenieros ecológicos, dado que
con su actividad ecológica pueden llevar a los ecosistemas terrestres, hacia estados alternos, donde aspectos funcionales del ecosistema puedan verse modificados, como la productividad primaria, al influir
directamente sobre la comunidad vegetal y el paisaje
(Schmitz, 2004).
Pueden ser analizadas caracterı́sticas adicionales que
resalten la importancia de los insectos para el mundo en general y en particular para la humanidad.
Es bien sabido el problema de la pérdida de biodiversidad a nivel global; la fragmentación y la pérdida del hábitat, se sitúan como las principales amenazas de la diversidad biológica mundial. En la actualidad, la humanidad ha convertido cerca de 4,973
millones de hectáreas de la superficie terrestre en
zonas agrı́colas, a expensas de los hábitats naturales. A pesar de lo apremiante del problema ambien-
El enigma de la biodiversidad y los bichos en el jardı́n. Rafael Guzmán Mendoza.
67
tal global, las consecuencias ecológicas de este proceso son poco entendidas y muchas están sujetas a debate, aunque es claro que, la pérdida de biodiversidad, perjudica el funcionamiento y la sustentabilidad
de los ecosistemas, ası́ como los servicios ambientales que proporciona, por ejemplo, el control biológico, la producción de alimentos, la regulación de gases invernadero y el abastecimiento de agua, entre
otros.
vir como indicadores de cambios ambientales rápidos. Desde el punto de vista técnico, los insectos
y artrópodos en general, pueden ser fáciles y menos costosos de medir que los vertebrados, de manera que métodos pasivos de muestreo, pueden capturar grandes cantidades de individuos y de especies en cortos periodos y la preparación de los ejemplares implica menor tiempo de lo que se invierte con
los vertebrados.
Los desacuerdos en este tema cientı́fico se encuentran inmersos en el diseño de los experimentos por
un lado, y el grupo taxonómico con el que se esté trabajando, por otro. Duffy (2003) enfatiza los sesgos en
los que se encuentran los resultados de estudios experimentales al trabajar únicamente con la comunidad vegetal, dejando de lado a los consumidores.
Además, los resultados de los experimentos se encuentran sujetos a la temporalidad, es decir, en el largo plazo (más de dos años), los resultados podrı́an
cambiar por efecto de las interacciones como la competencia. El poco control que se pueda llegar a tener sobre variables del ambiente fı́sico, puede enmascarar la influencia de las especies sobre la funcionalidad de los ecosistemas.
A pesar de la enorme importancia ecológica de los
insectos, pocos estudios han sido realizados con el
fin conocer cómo la biodiversidad de este taxón
está relacionada con procesos clave del ecosistema,
como la descomposición, el ciclo de nutrientes y la
productividad primaria y más aún, muchos grupos
están todavı́a lejos de ser conocidos en sus aspectos
básicos.
En este panorama, los insectos, como algunos otros
taxa, pueden ser una herramienta útil de evaluación del estado de conservación de un ecosistema.
Lomov et al. (2006) encontraron que las mariposas son un grupo útil como indicadores de monitoreo de la restauración ambiental. Lo anterior, debido a la especificidad de plantas hospederas; los requerimientos del hábitat y la facilidad en la identificación a nivel de especie de estos lepidópteros. Longcore y Novotny (2000), encontraron resultados similares al evaluar la composición de la comunidad de
artrópodos en hábitats con diferente grado de conservación y que la estructura de la comunidad refleja el proceso de perturbación del hábitat. El conocimiento del proceso de la fragmentación y degradación del ambiente, reflejada en la estructura
de las comunidades de insectos puede ser importante para evaluar la restauración ecológica del ambiente (Longcore y Novotny, 2000). Otras propiedades han sido señaladas para considerar a los insectos como bioindicadores de la restauración ambiental, entre las que se pueden mencionar: la distribución microgeográfica, que podrı́a reflejar condiciones de heterogeneidad a escalas muy finas del hábitat, en donde muchos otros grupos, como los vertebrados, podrı́an ser insensibles; el alto recambio y las
tasas de crecimiento de muchas especies, podrı́an ser-
¿Por qué México es biodiverso?
Existen varias razones por las que México es considerado uno de los paı́ses más ricos en diversidad
biológica del mundo, con alrededor de 108,000 especies (CONABIO, 2008). De hecho, las principales
cadenas montañosas, son consideradas como “hotspots” por su alto nivel de endemismos; por ejemplo, son estimadas poco más de 3,900 especies vegetales endémicas. Los factores históricos han jugado un papel importante en la conformación de la biota actual, el levantamiento del istmo de Panamá,
que unió Sudamérica con Norteamérica; la dinámica geológica en la conformación de cadenas montañosas que promovieron movimientos de flora y fauna que convergen dentro del territorio nacional, que
junto al accidentado terreno por las montañas, originaron microhábitats que se convirtieron en centros de origen de muchos taxa.
El origen de las especies endémicas y de la riqueza biológica en general, se debe a un conjunto de factores climáticos, como las glaciaciones del Pleistoceno; el surgimiento de cadenas montañosas relativamente recientes como el Eje Neovolcánico Transversal; organismos lo suficientemente adaptables a las condiciones ambientales cambiantes y con la capacidad de migrar, en algunos casos. Todo ello en un marco de historia
natural.
Desafortunadamente, poco se sabe de esta extraordinaria diversidad biológica. Lo que se puede llegar a precisar es que en el paı́s se estiman cerca de
18,000 especies de flora vascular. De acuerdo a lo anterior, los insectos podrı́an estar estrechamente rela-
68
cionados con esta riqueza florı́stica y covariar positivamente, como sugiere su tendencia evolutiva, en
cuanto a su diversificación a partir del origen de las
plantas con flor, y como ha sido observado de manera consistente en diferentes circunstancias, la estrecha relación entre la diversidad de la comunidad
de insectos y el estado de conservación de la vegetación en los ecosistemas. En este sentido, el número de especies de insectos para México es de 47,800
especies (CONABIO, 2008), con un registro confuso en cuanto a los endemismos ya que, Morrone
y Márquez (2008), reportan 8,000 especies endémicas considerando otros artrópodos como los arácnidos, lo que puede aumentar significativamente al incrementar el esfuerzo de muestreo en regiones todavı́a no exploradas dentro del territorio nacional.
Los bichos en el jardı́n
Desde el palco donde escribo esto, puedo ver a un
grupo de Homo sapiens en el patio jugando y trabajando, a un lado de ellos se encuentra un pequeño
jardı́n con una extraordinaria riqueza vegetal, las flores brillan e invitan a los polinizadores a consumir
el néctar, entre las flores y los tallos de los árboles, acechan los depredadores, arañas sigilosas y pacientes esperan en sus redes, mientras que otras escondidas observan en tercera dimensión a las presas
potenciales, granı́voros y detritı́voros caminan sobre
el suelo húmedo. Una red de complejas interacciones bióticas se teje en un pequeño espacio y un breve tiempo, con diversas y complejas historias evolutivas, organismos con diferente origen y un pasado profundo, han coincidido en un momento tan corto a principios del presente.
Agradecimientos
El presente estudio ha sido posible gracias al apoyo de la beca de posgrado del CONACyT. Al Dr.
José A. Zavala-Hurtado del Departamento de biologı́a de la UAM y a la Dra. Gabriela CastañoMeneses del Laboratorio de Ecologı́a y Sistemática de Microatrópodos UNAM, quienes proporcionaron importantes comentarios al presente escrito. A
Josefina Caltzonci Marı́n por su apoyo en el trabajo de campo y de laboratorio
ContactoS 75, 64–68 (2010)
Bibliografı́a
1. CONABIO, 2008. www.biodiversidad.gob.mx/
pais/capitalNatMex.html. Fecha de consulta Noviembre 2009
2. Deamer, D. W., Origin of life How leaky were
primitive cells?, Nature, 454, pp. 37-38, 2008.
3. Duffy, J. E., Biodiversity loss trophic skew and
ecosystem functioning, Ecology Letters, 6, pp.
680-687, 2003.
4. Fontúrbel, R. F., y Molina, A. C., Origen del agua
y el oxı́geno molecular en la Tierra. Elementos
Ciencia y Cultura, 11, pp. 3-9, 2004.
5. Lomov, B., Keith, D. A., Britton, D. R., y Hochuli, D. F., Are butterflies and moths useful indicators for restoration monitoring? A pilot study
in Sydney’s Cumberland plain woodland. Ecological Management & Restoration, 7, pp. 20-210,
2006.
6. Longcore ,T., y Novotny, V., Arthropod monitoring for fine scale habitat analysis: a case study of
the El Segundo sand dunes. Environmental Management, 25, pp. 445-452, 2000.
7. Miller, S. L., A production of amino acids under
possible primitive earth conditions. Science, 117,
pp. 528-529, 1953.
8. Miyakawa S., Yamanashi, H., Kobayashi, K.,
Cleaves, H. J., y Miller, S. L., Prebiotic synthesis from CO atmospheres: implications for the origins of life. Proceedings of the National Academy
of Sciences, 99, pp. 14628-14631, 2002.
9. Morrone J. J., y Márquez., J., Biodiversity of mexican terrestrial arthropods (Arácnida and Hexapoda): a biogeographical puzzle. Acta zoológica Mexicana, 24, pp. 15-41, 2008.
10. Schmitz, O. J., Perturbation and abrupt shift in
trophic control of biodiversity and productivity.
Ecology Letters, 7, pp. 403-409, 2004.
cs
Noticias Breves
Alma E. Martı́nez Licona
Depto. de Ing. Eléctrica.
La NASA lanza una sonda para
desvelar los secretos del Sol
Fuente: http://www.noticiasciencias.com/
2010/02/la-nasa-lanza-una-sonda-paradesvelar.html
vista del interior del astro mediante una especie de
ultrasonido.
Desde la órbita terreste el SDO recopilará datos durante cinco años y descargará 1.5 terabytes diariamente, el equivalente de 500,000 canciones en un
iPod, según informó Elizabeth Citrin directora del
proyecto.
La agencia espacial estadounidense NASA ha lanzado este jueves una nueva y potente sonda solar
para desvelar más secretos sobre el Sol, cuyas tormentas afectan al clima terrestre. Con la misión
del Solar Dynamics Observatory (SDO), los cientı́ficos esperan aprender más acerca de cómo los campos magnéticos del Sol afectan al resto del sistema
planetario.
Un centro de recepción especial administrará la información. Para quienes dispongan de un iPhone
habrá una aplicación especial a través de la cual se
podrá ver el comportamiento solar en tiempo real
tal como lo interpreta el flujo de datos.
Dean Pesnell, otro cientı́fico del proyecto, señaló que
el proyecto es vital para calcular y predecir los
fenómenos solares. Un mayor conocimiento de los
cambios meteorológicos en el Sol y su efecto sobre el
sistema permitirá, también estar alerta en la Tierra
sobre posibles tormentas solares que podrı́an afectar a las redes de energı́a eléctrica y de comunicaciones en todo el planeta.
“El Sol afecta nuestras vidas y dependemos cada vez
más de la tecnologı́a”, agregó. “Cada vez que contemplamos el campo magnético del sol, es diferente”, añadió.
Un océano bajo Encelado
Fuente: http://www.noticiasciencias.com/
A las 16:23 (hora peninsular española) el cohete Atlas V despegó desde la base de Cabo Cañaveral. El lanzamiento estaba previsto para el miércoles pero el fuerte viento que soplaba impidió
su despegue.
La sonda Cassini ha recopilado nuevos datos que
parecen confirmar la teorı́a sostenida por algunos
cientı́ficos que aseguran que bajo la superficie helada de una de las lunas de Saturno, “Encélado”,
se oculta un gran cuerpo de agua lı́quida. En concreto, se han detectado moléculas de agua con carga negativa en la atmósfera del satélite, un hallazgo que respalda esta hipótesis.
El observatorio volante, el primero del programa Living with a Star (viviendo con una estrella), examinará durante 24 horas al dı́a y siete dı́as por
semana toda la actividad oscilante del Sol y con
ello ayudará a entender mejor el llamado “clima
espacial”.
Según recoge la BBC, estas últimas observaciones
fueron realizadas a partir del espectrómetro de plasma de la sonda (CAPS), un instrumento que se utiliza para obtener datos sobre el medio ambiente
magnético de Saturno, que mide su densidad, la velocidad de flujo y la temperatura de los iones y electrones que capta el mecanismo.
Cada diez segundos, el SDO capturará una imagen del astro en ocho longitudes de onda con
una definición de 16 megapı́xeles. El satélite vigilará además las radiaciones ultravioletas y las oscilaciones del campo magnético del Sol y obtendrá una
69
70
ContactoS 75, 69–72 (2010)
las de combustible y en el control de la captura y liberación de hidrógeno.
Además, la Cassini ha detectado sodio en las plumas
(la forma de las sales disueltas que aparece en cualquier masa de agua lı́quida) que habı́an estado en
contacto con la roca de profundidad. “Las moléculas de agua que aparecen en los electrones apoyan
nuestras creencias”, explica el investigador del Laboratorio de Ciencias Espaciales del Mullard University College de Londres, Andrew Coates.
Nanotecnologı́a: Mejorará nuestra
calidad de vida
Fuente: http://www.noticiasciencias.com/search/
label/Nanotecnologı́a
La nanotecnologı́a —la ciencia que permite manipular la materia al nivel del átomo— mejorará nuestra calidad de vida a mediano plazo. Según un estudio, su aplicación a la industria, especialmente en
la electrónica, los transportes o la sanidad será en la
próxima década el motor de la próxima revolución
industrial. Neumáticos más resistentes a la abrasión,
medios de locomoción propulsados por energı́as limpias o pruebas diagnósticas hospitalarias que permitirán detectar patologı́as desde sus comienzos son algunas de estas aplicaciones, que serán visibles antes de 2020.
Según el estudio, efectuado por la Fundación OPTI (Observatorio de Prospectiva Tecnológica Industrial), la nanotecnologı́a aplicada al transporte permitirá el uso de vehı́culos con menor peso, ya que
la aleación de materiales empleados para su fabricación serán más ligeros, especialmente en chasis y carrocerı́a. Prevista para 2015, permitirá reducir el peso de automóviles y aviones en un 30 %.
En la energı́a y el medio ambiente, los nanomateriales resultan cruciales en la implementación de las pi-
En la diagnosis de enfermedades, la nanobiotecnologı́a permitirá detectar patologı́as como el cáncer y
enfermedades cardiovasculares o neurológicas en su
estado más inicial. También regulará la toma de medicamentos mediante la administración continuada e
inteligente de las dosis.
El estudio destaca también la aplicacián de esta tecnologı́a en sectores como la construcción, la cerámica, el textil o los envases de alimentos. En el primero de estos campos, los nanoaditivos permitirán cementos con propiedades autolimpiantes, antimicrobianas y descontaminantes y nanomateriales avanzados nos protegerán contra incendios y responderán
a estı́mulos como la temperatura, la humedad o la
tensión para ofrecer mayor confort. Los nanosensores controlarán la seguridad y el buen estado de
las estructuras.
Las cerámicas incorporarán funciones antideslizantes, autolimpiables, antirrayado, antimicrobianas o
efectos térmicos.
En el sector textil están previstas fibras más ligeras
pero con gran aislamiento térmico, más resistentes
al desgaste, a la suciedad, al agua o a las radiaciones
ultravioletas.
Por último, en el sector del envasado, se conseguirán
envases activos que conservarán el producto e informarán al consumidor sobre su estado.
Robot submarino con sentido del tacto
Fuente: http://www.noticiasciencias.com/search/
label/Tecnologia
El robot se sumerge en el mar, navega hasta el cable
submarino y realiza las reparaciones precisas, pero
el operario que maneja el robot no tiene una tarea
fácil. Se trata de un objetivo oscuro y la luz del robot
Noticias Breves.
Alma E. Martı́nez Licona.
no ayuda mucho. Además, las corrientes empujan al
robot fuera de la zona de trabajo.
71
El telescopio de La Palma capta una
espectacular estrella de neutrones
Fuente: http://www.noticiasciencias.com/2010/03/
el-telescopio-de-la-palma-capta-una.html
El Gran Telescopio Canarias (GTC), instalado en el
Observatorio del Roque de los Muchachos (La Palma), ha obtenido imágenes de una profundidad “sin
precedentes” de una estrella de neutrones del tipo magnetar, de las que se conocen seis, según informó este lunes el Instituto de Astrofı́sica de Canarias (IAC).
En el futuro, el robot podrı́a encontrar por sı́ mismo su camino hacia el punto donde tiene que actuar.
Un sensor le dotará con el sentido del tacto y ayudarle a orientarse en su ambiente submarino de forma autónoma.
“Un componente de esta capacidad táctil es un indicador de tensión”, explicó Marcus Maiwald, responsable del proyecto de nuevo robot submarino en el
Instituto Fraunhofer de Tecnologı́a, en Bremen (Alemania). “Si el robot encuentra un obstáculo”, explica “el indicador de tensión registra una alteración y la resistencia eléctrica cambió”. El diseño especial del indicador de tensión consiste en que no
está adherido, sino impreso en la superficie del robot, lo que significa que se puede aplicar al sensor la
curvatura de la superficie del robot.
Esta banda impresa es de un grosor de tan sólo diez
micrómetros, similar al de un cabello humano. Como resultado, el indicador de tensión puede aplicarse muy cerca y permite al robot identificar con precisión dónde está contactando con un obstáculo. El
sensor está protegido de la sal marina mediante una
cápsula.
Para producir esas indicaciones de tensión, los
cientı́ficos atomizan una solución con nanopartı́culas para crear un aerosol. Un sistema de software guı́a el flujo del aerosol a la posición correcta. Dirigiendo el gas en forma de rayo envolvente se asegura que éste no se abra.
El IAC indica en un comunicado que la estrella observada tiene como nombre oficial SGR 0418+5729,
y explica que las observaciones realizadas desde el
Gran Telescopio Canarias no tienen precedentes en
el rango óptico para este tipo de objetos y contribuirán a delimitar las propiedades fı́sicas de este cuerpo celeste con campos magnéticos de extrema intensidad.
Las estrellas de neutrones se forman cuando estrellas
masivas, de entre 10 y 50 veces la masa del Sol, explotan como supernovas al final de su vida, y entre
ellas destacan las magnetar, con un campo magnético mil veces más fuerte que las estrellas de neutrones ordinarias, y millones de veces mayor que el campo más intenso que se pueda recrear en un laboratorio terrestre.
Concentran una masa comparable a la del Sol
La densidad es tan alta que “estos cadáveres estelares concentran una masa comparable a la del Sol dentro de una esfera de apenas 30 kilómetros de diámetro, el espacio ocupado por una gran ciudad”, destaca en el comunicado Paolo Esposito, investigador del
Instituto Nacional de Astrofı́sica de Italia que ha liderado el estudio.
Explica que los magnetar son los imanes más potentes del Universo, y añade que, debido a su actividad magnética, en estas estrellas se producen fracturas en la corteza exterior que dejan escapar fuga-
72
ContactoS 75, 69–72 (2010)
ces e intensos estallidos de luz, en su mayorı́a en forma de rayos gamma de baja energı́a.
Estos potentes destellos fueron el rastro seguido por
el Gran Telescopio Canarias. Los magnetar han sido estudiados por lo general a partir de sus brillantes emisiones en rayos X, pero se conoce muy poco acerca de sus caracterı́sticas en longitudes de onda ópticas.
Tras la detección de una serie de explosiones de
SGR 0418+5729 por parte de los satélites de la NASA Fermi y Swift, el equipo de investigadores solicitó al Gran Telescopio Canarias una observación
óptica profunda del objeto.
La ocasión para observarlo se produjo el 15 de septiembre, cuando el objeto era aún muy luminoso en
rayos X.
La emisión fue tan débil en el rango óptico que ni siquiera el instrumento Osiris, acoplado al Gran Telescopio Canarias, fue capaz de capturarla, pero la
observación permitió a los astrónomos establecer la
imagen óptica más profunda de las obtenidas hasta ahora para este tipo de fuente, agrega el IAC.
Según el investigador italiano, las observaciones con
Gran Telescopio Canarias son clave en la comprensión de cómo y dónde se produce la radiación emitida por los magnetar, y ayudará a aclarar aspectos básicos de la fı́sica de campos magnéticos
ultra-fuertes.
El equipo que ha participado en el análisis de esta exótica estrella está conformado por cientı́ficos de
Italia, España, Francia y Reino Unido, y los resultados del estudio se publicarán en la revista Royal Astronomical Society.
SMOS manda las primeras imágenes del ciclo
de agua en la Tierra
Fuente: http://www.noticiasciencias.com
Apenas han transcurrido cuatro meses desde su lanzamiento pero la misión SMOS de la Agencia Espacial Europea (ESA, por sus siglas en inglés) ha obtenido ya sus primeras imágenes. Las instantáneas sobre el brillo de la temperatura servirán para entender las variaciones globales en la humedad de la tierra y en la salinidad del océano para avanzar en el conocimiento de los ciclos del agua.
Lanzada el pasado 2 de noviembre, la misión Soil
Moisture and Ocean Salinity (SMOS) está proporcionando información sobre el ciclo del agua de la
Tierra mediante observaciones globales de la humedad y la salinidad sobre los océanos. Hasta ahora, estos parámetros no habı́an sido medidos desde el espacio y son claves para entender el ciclo de agua y la variabilidad del clima.
A través de un mapa consistente de estas dos variables, SMOS avanzará en el conocimiento de los proceso externos entre la superficie de la Tierra y la
atmósfera y ayudará a mejorar los modelos del clima
y del tiempo. Además, los datos de SMOS tendrán
varias aplicaciones en áreas como agricultura y gestión de los recursos del agua.
SMOS funciona capturando imágenes sobre el brillo de la temperatura que requieren un proceso para lograr información sobre la humedad de la Tierra
y la salinidad del océano. La ESA está ahora en disposición de mostrar los primeros resultados, que son
“muy estimulantes”.
El director del Proyecto de la ESA, Achim
Hahne, señaló que el equipo que lo desarrolla está “extremadamente contento y orgulloso” de ver la transformación real del sistema SMOS
en órbita.
cs
Descargar