Anuario 2004 - Páginas personales

Anuncio
Instituto Heisenberg
Anuario 2004
UNIVERSIDAD DE COLIMA
Dr. Carlos Salazar Silva, Rector / Dr. Miguel Angel Aguayo López, Secretario General / Lic. Juan Diego Suárez Dávila, Coordinador General de Extensión Cultural
/ Licda. Guillermina Araiza Torres, Directora General de Publicaciones
instituto ~ eisenberg
ANUARIO 2004
Alfredo Aranda Fernández
Editor
iv
c
2004 Derechos Reservados
UNIVERSIDAD DE COLIMA
Avenida Universidad 333
Colima, Col., CP 28040
ISBN:
Impreso y hecho en México/Printed and made in Mexico
Índice general
Introducción
XIII
1. Biografı́a de Werner Heisenberg
1.1. Los primeros años . . . . . . . . . . . . . . . . . . .
1.1.1. La familia . . . . . . . . . . . . . . . . . . . .
1.2. Los años estudiantiles . . . . . . . . . . . . . . . . .
1.2.1. La Universidad . . . . . . . . . . . . . . . . .
1.2.2. La triste historia del doctorado de Heisenberg
1.3. Mecánica Cuántica: 1925-1927 . . . . . . . . . . . . .
1.3.1. La nueva Mecánica Cuántica . . . . . . . . .
1.3.2. El principio de incertidumbre . . . . . . . . .
1.4. Los años difı́ciles . . . . . . . . . . . . . . . . . . . .
1.4.1. Profesor en Leipzig, 1927-1942 . . . . . . . .
1.4.2. Investigación en Fisión 1939-1945 . . . . . . .
1.5. La era de la Post-Guerra . . . . . . . . . . . . . . . .
1.5.1. Reviviendo a la ciencia alemana . . . . . . .
1.6. Breve Cronologı́a. . . . . . . . . . . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
1
3
3
3
4
5
6
6
7
9
9
10
12
12
15
2. ¿Por qué generación Henri Poincarè?
2.1. Jules Henri Poincarè (1854-1912) . . . . .
2.1.1. Topologı́a . . . . . . . . . . . . . .
2.1.2. Mecánica Celeste y Teorı́a de Caos
2.1.3. Geometrı́a Algebraica . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
17
19
20
20
21
3. Curso de Fı́sica
3.1. Newton y la Fı́sica Clásica . . . . .
3.1.1. Historia de la Fı́sica . . . .
3.1.2. Galileo y los experimentos .
3.1.3. Newton . . . . . . . . . . .
3.1.4. Más fuerzas . . . . . . . . .
3.1.5. Maxwell y las matemáticas
3.1.6. Siglo XX . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
23
25
25
25
26
26
27
27
v
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
vi
3.1.7.
3.1.8.
3.1.9.
3.1.10.
3.1.11.
3.1.12.
3.1.13.
3.1.14.
3.1.15.
3.1.16.
3.1.17.
La fı́sica de hoy . . . . . . . . . .
Newton y la dinámica . . . . . .
Posición, velocidad y aceleración
Newton y sus leyes . . . . . . . .
Caı́da libre . . . . . . . . . . . .
Un resorte . . . . . . . . . . . . .
Gravedad . . . . . . . . . . . . .
Orbitando un planeta . . . . . .
Escapando de un planeta . . . .
Manteniéndose en la rampa . . .
Conclusiones . . . . . . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
28
29
29
34
34
36
37
39
40
41
43
4. Curso de Matemáticas
4.1. Construcciones con regla y compás
y su relación con álgebra . . . . . . . . . . . . . . . . . . . . . . . .
45
5. Pláticas de Fı́sica
5.1. Folklore en la Fı́sica.
De los Quarks al Cosmos . . . . . . . . . . . .
5.1.1. Introducción . . . . . . . . . . . . . . .
5.1.2. Ideas que perduran . . . . . . . . . . . .
5.1.3. Las primeras partı́culas fundamentales .
5.1.4. Las interacciones fundamentales . . . .
5.1.5. No está mal, pero... . . . . . . . . . . .
5.1.6. Viendo hacia el cielo . . . . . . . . . . .
5.1.7. Vida y muerte de una estrella . . . . . .
5.1.8. Viendo lo que no vemos . . . . . . . . .
5.1.9. La historia del universo hasta ahora . .
5.1.10. El trabajo de los fı́sicos . . . . . . . . .
5.1.11. Bibliografı́a . . . . . . . . . . . . . . . .
5.2. Óptica: Una Breve Historia . . . . . . . . . . .
5.2.1. Introducción . . . . . . . . . . . . . . .
5.2.2. La humanidad y los fenómenos ópticos .
5.2.3. La óptica en la antigüedad . . . . . . .
5.2.4. La óptica y los antiguos griegos . . . . .
5.2.5. La óptica en la Edad Media . . . . . . .
5.2.6. La óptica y la Revolución Renacentista
5.2.7. El siglo XIX y las ondas de luz . . . . .
5.2.8. Nace el fotón . . . . . . . . . . . . . . .
5.2.9. La óptica y la relatividad . . . . . . . .
5.2.10. Luz y materia . . . . . . . . . . . . . . .
5.2.11. Bibliografı́a . . . . . . . . . . . . . . . .
5.3. El radiotelescopio de UTEP . . . . . . . . . . .
5.3.1. Introducción . . . . . . . . . . . . . . .
49
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
47
51
51
52
53
54
55
56
56
57
58
59
59
60
60
60
61
61
62
63
65
68
70
71
74
75
75
Instituto Heisenberg, Anuario 2004
5.3.2. El funcionamiento de los radio telescopios . . . .
5.3.3. Emisión de ondas de radio por hidrógeno
intergaláctico . . . . . . . . . . . . . . . . . . . .
5.3.4. El radiotelescopio de UTEP . . . . . . . . . . . .
5.3.5. Obtención de datos . . . . . . . . . . . . . . . . .
5.3.6. Conclusiones . . . . . . . . . . . . . . . . . . . .
5.3.7. Agradecimientos . . . . . . . . . . . . . . . . . .
5.4. Doblamiento de proteı́nas: Un proyecto interdisciplinario
vii
. . . . . .
76
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
77
78
79
80
81
83
6. Pláticas de Matemáticas
6.1. Calculando el término n de la Sucesión de Fibonacci . . . .
6.1.1. Introducción . . . . . . . . . . . . . . . . . . . . . .
6.1.2. Leonardo de Pisa . . . . . . . . . . . . . . . . . . . .
6.2. La Conjetura de Poincarè . . . . . . . . . . . . . . . . . . .
6.3. Dimensión rima con medición . . . . . . . . . . . . . . . . .
6.4. Modelos poblacionales . . . . . . . . . . . . . . . . . . . . .
6.4.1. Introducción . . . . . . . . . . . . . . . . . . . . . .
6.4.2. Modelo Thomas Malthus (1798) . . . . . . . . . . .
6.4.3. Modelo logı́stico . . . . . . . . . . . . . . . . . . . .
6.4.4. Modelo logı́stico de una epidemia . . . . . . . . . . .
6.4.5. Conclusiones . . . . . . . . . . . . . . . . . . . . . .
6.5. Algoritmos genéticos . . . . . . . . . . . . . . . . . . . . . .
6.5.1. Antecedentes . . . . . . . . . . . . . . . . . . . . . .
6.5.2. Definición . . . . . . . . . . . . . . . . . . . . . . . .
6.5.3. Problemática . . . . . . . . . . . . . . . . . . . . . .
6.5.4. Ventajas y desventajas . . . . . . . . . . . . . . . . .
6.5.5. Limitaciones . . . . . . . . . . . . . . . . . . . . . .
6.5.6. ¿Cómo saber si es posible usar un algoritmo genético
6.5.7. Marco de desarrollo . . . . . . . . . . . . . . . . . .
6.5.8. Comparación con otros métodos de optimización . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
87
89
89
89
96
99
105
105
105
106
107
108
109
109
110
110
111
111
112
113
114
7. Participantes
119
viii
Índice de figuras
3.1.
3.2.
3.3.
3.4.
3.5.
3.6.
3.7.
3.8.
3.9.
Representación gráfica de la velocidad promedio discutida en el texto.
Representación de una segunda trayectoria (B). . . . . . . . . . . .
Igual que la figura 3.1.9 pero con más divisiones en el tiempo. . . .
Representación con las dos trayectorias. . . . . . . . . . . . . . . .
Gráfica de la posición en función de wt. Hemos dado el valor de
A = 1 m. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gráfica de la velocidad en función de wt para el mismo caso de la
figura 3.1.12. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Gráfica de la aceleración en función de wt para el mismo problema.
Tres trayectorias con diferentes velocidades iniciales. La velocidad
inicial de la trayectoria 3 fue suficiente para lograr orbitar el planeta.
Rampa circular de radio R. Queremos determinar la altura mı́nima
hmin tal que la pelotita pase la rampa circular sin caerse. . . . . .
31
31
32
32
37
38
38
40
42
5.1. Telescopio usado por Jansky. . . . . . . . . . . . . . . . . . . . . .
5.2. Imágenes de la Vı́a Láctea en ondas de radio (superior izquierda),
infrarrojo (superior derecha), rayos X (inferior derecha)y visible
(inferior izquierda). . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.3. Emisión de un fotón en el alineamiento de los momentos magnéticos
en un átomo de hidrógeno. . . . . . . . . . . . . . . . . . . . . . . .
5.4. Luis Basurto con una de las dos antenas del The Very Small Array
de UTEP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.5. Diagrama de conexiones del radiotelescopio. . . . . . . . . . . . . .
5.6. Camino recorrido por la señal. . . . . . . . . . . . . . . . . . . . .
5.7. Ejemplo del área de observación del radio telescopio. . . . . . . . .
5.8. Ejemplo de presentación de resultados. . . . . . . . . . . . . . . . .
5.9. Segundo tipo de presentación de resultados. . . . . . . . . . . . . .
78
79
80
81
82
82
6.1. Deformación de un lazo en un punto: posible en el caso
posible en el caso (b). . . . . . . . . . . . . . . . . . . . .
6.2. Lazos en un toro. . . . . . . . . . . . . . . . . . . . . . . .
6.3. Efera, toro, superficie con dos perforaciones, etcétera. . .
96
97
98
ix
(a),
. . .
. . .
. . .
no
. .
. .
. .
75
76
77
x
6.4. En una recta, uno se puede mover en una sóla dirección, aunque en
dos sentidos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
6.5. En un cuadrado, es posible moverse en dos direcciones. . . . . . . . 99
6.6. La longitud de un segmento se mide aproximadamente comparando
una unidad con el segmento a ser medido. Mejores aproximaciones
se obtienen al usar reglas más pequeñas. . . . . . . . . . . . . . . . 100
6.7. El área de una región en el plano se aproxima al comparar una
unidad dada, en este caso un cuadrado de lado ε, con la región a
medir. La aproximación es entonces ∼ ε2 N (ε). . . . . . . . . . . . 101
6.8. Las primeras tres iteraciones en la construcción de la curva de Koch. 102
6.9. La construcción del conjunto de Cantor hasta la quinta iteración. . 103
6.10. Las primeras iteraciones en la construcción del triángulo de Sierpinski.104
6.11. Condiciones básicas necesarias para la implementación efectiva de
un sistema experto. . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
Índice de cuadros
3.1. Situación actual de las teorı́as en su relación con la mecánica cuántica y la relatividad especial. . . . . . . . . . . . . . . . . . . . . . .
28
5.1. Clasificación de algunas estrellas de acuerdo a su temperatura superficial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
5.2. Tipos de radiación electromagnética . . . . . . . . . . . . . . . . .
57
77
6.1. Algunos valores de n y Xn para r = 3· 1, K = 1 y X1 = 1/4 . . . . 107
6.2. Puntos de bifurcación con perı́odo duplicado. . . . . . . . . . . . . 107
xii
Introducción
xiii
xiv
Instituto Heisenberg, Anuario 2004
xv
El Instituto Heisenberg nace en febrero de 2003 con la misión fundamental de
encontrar talentos entre los jóvenes colimenses y de divulgar la actividad cientı́fica
en la comunidad.
La actividad fundamental del Instituto durante sus primeras dos generaciones
(2003, 2004), consistió en seleccionar a aquellos estudiantes del nivel medio superior
destacados e interesados en la ciencia, particularmente en las áreas de fı́sica y
matemáticas. Una vez seleccionados fueron invitados a participar desde marzo
hasta junio en sesiones sabatinas en la Facultad de Ciencias, en las cuales fueron
expuestos a clases formales en estas áreas y a una serie de exposiciones por parte
de investigadores locales y visitantes (nacionales y extranjeros).
Este Anuario contiene la información presentada y discutida durante la generación 2004, generación que fue dedicada al matemático francés Henri Poncarè.
Esperamos que la información aquı́ contenida sea de utilidad tanto para profesores
como estudiantes del nivel medio superior.
En total hubo 14 sesiones sabatinas en las cuales se realizaron nueve exposiciones
por parte de investigadores. Carlos Moisés Hernández Suárez de la Universidad de
Colima (U de C) habló sobre Branching Processes - Algoritmos genéticos y la aplicación de las matemáticas en temas de biologı́a. Con un tópico similar, Christopher
Kribs (University of Texas at Arlington) expuso sobre Modelos Poblacionales. Paolo Amore (U de C) habló sobre la Computación y la Fı́sica. Santiago Arceo Dı́az
(estudiante de fı́sica de la Facultad de Ciencias de la U de C) persentó una charla
sobre Agujeros Negros. Andrés Pedroza (Tufts University y a partir de agosto del
2004 U de C) presentó una conferencia sobre La Conjetura de Poincarè, en sintonı́a
con nuestra generación. Jorge López (University of Texas at El Paso) habló sobre Radioastronomı́a en UTEP y comentó cómo en Colima se puede construir un
radiotelescopio relativamente fácil y con poco dinero. Alfredo Raya (U de C) dio
un taller de Optica y presentó una charla sobre El Folklore en la fı́sica. Christoph
Hofmann (U de C) participó con una exposición sobre la fı́sica de las proteinas,
y finalmente Alfredo Aranda (U de C) presentó una charla titulada ¿En cuántas
dimensiones vivimos?
El Anuario presenta primero una reseña biográfica de Werner Heisenberg, fı́sico
alemán en el que nos hemos inspirado para nombrar nuestro Instituto, y continúa
luego con una breve descripción de la vida y trabajo de Henri Poincaré. La parte
académica del Anuario comienza en el capı́tulo 3, el cual contiene una descripción
de los temas tratados durante el curso de fı́sica que se impatió a los estudiantes. El
capı́tulo 4 contiene una lista de los temas vistos en el curso de matemáticas. Una
descripción detallada de estos temas se incluirá en el Anuario 2005. Los capı́tulos 5
y 6 contienen una serie de artı́culos de fı́sica y matemáticas, respectivamente. Estos
artı́culos corresponden a las diferentes exposiciones realizadas durante el Instituto
Heisenberg y han sido creados especı́ficamente para este Anuario. Al final, en el
capı́tulo 7, se presenta una lista de los estudiantes participantes.
Concluı́mos esta introducción agradeciendo a todas las personas involucradas
en los procesos tanto de los cursos como de la publicación de este Anuario. Agradecemos inmensamente a los investigadores que han colaborado con nosotros y nos
xvi
han dedicado un poco de su tiempo para participar en esta labor. Por último esperamos que este trabajo represente una herramienta más para difundir y enseñar
la ciencia en nuestra comunidad.1
1 Anuario
disponible en: http://cgic.ucol.mx/∼fefo/ih.html
Capı́tulo 1
Biografı́a de Werner
Heisenberg
1
2
Instituto Heisenberg, Anuario 2004
3
Biografı́a de Werner Heisenberg1
Carlos A. Camargo y Myriam Cruz Calvario
Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo #340
Colima, Colima, México, 28045
1.1.
1.1.1.
Los primeros años
La familia
Werner Karl Heisenberg nació el 5 de diciembre de 1902 en Würzburg, ciudad
ubicada en la región sur del estado alemán de Bavaria. El segundo de los hijos del
Dr. August Heisenberg, profesor de griego moderno en la Universidad de Munich,
y Annie Heisenberg, hija del director de un Gymnasium y autoridad en tragedia
griega.
1.2.
Los años estudiantiles
El 1911 Heisenberg empezó sus estudios en el Maximilian Gymnasium de Munich, siendo director su abuelo materno, Dr. Nikolaus Wecklein, aunque solo estuvo
con ese cargo durante los primeros tres años de Heisenberg en ese lugar. Los principales temas de estudio eran las lenguas clásicas, latı́n y griego, pero Heisenberg
obtuvo las calificaciones más altas en materias como: fı́sica, matemáticas y religión, y las más bajas en alemán y atletismo, sin embargo se graduó como el mejor
de su clase. Al mismo tiempo Heisenberg estudió música, piano clásico, con uno
de los grandes maestros de Munich, incluso fue presentado en conciertos escolares
a la edad de 12 años. Dicha afición la mantuvo a lo largo de toda su vida.
Desde estudiante, Heisenberg se vio especialmente fascinado con la teorı́a de
números y las matemáticas de los sistemas numéricos, tal y como él lo señalaba: “Es
claro, todo lo es cuando puedes entenderlo desde el fondo”. Su padre y un profesor
de matemáticas fueron quienes, en parte, despertaron su interés. Su maestro porque
repartı́a publicaciones de investigación entre la clase y su padre porque al descubrir
la habilidad de su hijo con el latı́n, le llevó algunos viejos tratados de matemáticas
en latı́n. Que por cierto, uno de esos tratados fue la disertación doctoral del famoso
teórico de números Leopold Kronecker.
Después de haber estudiado un libro avanzado de teorı́a de números, Heisenberg,
como Kronecker y muchos otros, estuvo tratando de probar el famoso y último
1 Parte de esta biografı́a fue tomada de la más completa escrita hasta este momento, publicada
bajo el tı́tulo “Uncertainty, the life and science of Werner Heisenberg” de David C. Cassidy (W.
H. Freeman and Company, New York). 1992. Se puede consultar en la dirección electrónica:
http://www.aip.org/history/heisenberg/p01.html
4
teorema de Fermat, y aunque el intento falló, como para cualquier otro hasta muy
recientemente, esto no desanimó a Heisenberg.
1.2.1.
La Universidad
Heisenberg ingresó a la Universidad de Munich el otoño de 1920. Su plan era
estudiar matemáticas puras, pero después de una desconcertante entrevista con
uno de los profesores de matemáticas, se decidió por la fı́sica teórica. Arnold Sommerfeld, profesor en esta área, inmediatamente reconoció el talento de Heisenberg
y lo admitió en su clase de seminario avanzado, donde muy pronto produjo un
trabajo publicable de la vieja teorı́a cuántica del átomo.
Heisenberg recibió su doctorado en un tiempo récord de tres años (1923). En
1924 recibió la habilitación o certificación para impartir clases a nivel universitario, y ese mismo año recibió apoyo de la Rockefeller Foundation para pasar el
año escolar en el Instituto Bohr en Copenhague, Dinamarca. En 1925 regresó a
Göttingen donde produjo su primera contribución a la mecánica cuántica. Durante
sus estudios en Göttingen estuvo como asistente personal de Max Born hasta la
primavera de 1926.
A partir de ese año la mecánica evolucionó en una forma más completa, por
lo que Heisenberg comenzó a buscar una posición como profesor universitario.
Siendo uno de los pocos visitantes internacionales del Instituto Bohr, aprovechó la
oportunidad de aprender fı́sica junto a Bohr y en poco tiempo su trabajo intenso
dio frutos con el Principio de incertidumbre, la Interpretación de Copenhaguen de
1927 y los cimientos de los fundamentos de la mecánica cuántica legados por él y
otros, en los años veinte. En 1927 fue propuesto para profesor de fı́sica teórica en
Leipzig, convirtiéndose a sus 25 años en el profesor alemán de tiempo completo
más joven.
Resumiendo que desde su ingreso a la Universidad de Munich hasta su elección
como profesor en Leipzig, Heisenberg estudió y practicó en tres de los centros
lı́deres a nivel mundial en fı́sica atómica: Munich, Göttingen y Copenhaguen, y
junto a tres de los lı́deres mundiales en fı́sica teórica atómica: Sommerfeld, Max
Born y Niels Bohr; ası́ como la amistad vitalicia que durante esta trayectoria
logró con el brillante fı́sico Wolfgang Pauli.
Sin lugar a dudas que el haber conocido a esos profesores durante los años veinte
le ayudaron a Heisenberg a convertirse en uno de los fı́sicos lı́deres de aquella época;
no obstante, la fortuna de haber trabajado la fı́sica atómica justo en el momento
de los mayores avances también tuvo su peso.
En esa época, el primer reclutamiento de una revolucionaria teorı́a del átomo
-la vieja teorı́a cuántica- empezaba a tambalearse. En casos simples esta teorı́a, establecida por Bohr y Sommerfeld trabajaba bien, pero cuando Heisenberg entró en
escena, la relación entre el estudio experimental y el teórico reveló muchos problemas, incluso algunos fı́sicos empezaban a hablar de una crisis en la teorı́a cuántica.
Una vez que Heisenberg aprendió la fı́sica básica con Sommerfeld -en Munich, en Göttingen aprendió a seguir los principios fı́sicos más detenidamente y a
Instituto Heisenberg, Anuario 2004
5
aplicar sofisticados métodos matemáticos para calcular las órbitas hipotéticas de
los electrones en los átomos, de acuerdo a la vieja teorı́a cuántica. No obstante
las propiedades de los átomos que Heisenberg y Born habı́an anunciado de sus
cálculos no habı́an coincidido con los datos experimentales existentes, por lo que
la veja teorı́a cuántica les habı́a fallado, pero esta vez Heisenberg y sus colegas
encontraron dónde fallaba exactamente y obtuvieron pistas para repararla.
1.2.2.
La triste historia del doctorado de Heisenberg
En mayo de 1923, Heisenberg regresó a Munich para terminar su último semestre y escribir su disertación doctoral. Conociendo la habilidad de Heisenberg
para resolver problemas controversiales de la teorı́a cuántica, su mentor, Arnold
Sommerfeld, le sugirió escribiera su disertación en un problema tradicional en el
campo de la hidrodinámica, para lo que Heisenberg tuvo que tomar un curso de
cuatro horas de laboratorio en fı́sica experimental, ofrecido por el profesor Wilhelm
Wien.
Wien insistı́a que cualquier fı́sico, incluso el brillante teórico Sommerfeld deberı́a estar completamente preparado en fı́sica experimental. Wien y Sommerfeld
coincidieron en el examen oral final de Heisenberg y ambos estuvieron de acuerdo
en dar un grado único en fı́sica.
El problema que Heisenberg se planteó consistı́a en determinar la transición de
un flujo de incidentes (flujo laminar) a un flujo turbulento. Esto fue un problema
matemático extremadamente difı́cil. De hecho, era tan difı́cil que Heisenberg ofreció sólo una solución aproximada. “Yo no propondrı́a un tópico de esta dificultad
como disertación a ningún otro de mis pupilos”, escribió Sommerfeld. La facultad
aceptó la tesis y Wien la aceptó para publicarla en la revista de fı́sica que editaba:
Annalen der Physik.
El problema comenzó con la aceptación de la disertación del candidato a los
exámenes orales. El comité examinador estaba intregado por Sommerfeld y Wien
en el área de fı́sica y los representantes de las materias adicionales, Matemáticas
y astronomı́a. Estaba establecido además, que los únicos grados que un candidato
podı́a recibir por sus estudios estuvieran basados en la disertación y en el examen
oral: un grado por cada materia y solo uno como el promedio de ambas. Con 21
años de edad, Heisenberg se presentó ante los cuatro profesores, el 23 de julio de
1923, pudo responder fácilmente a todas las preguntas de Sommerfeld y a las que
correspondı́an al área de matemáticas, pero empezó a tambalearse en astronomı́a
y cayó en las de fı́sica experimental.
Durante su trabajo en el laboratorio, Heisenberg manejó un interferómetro,
Fabry-Perot, para observar las interferencias de las ondas luz, y que en su clase
habı́a estudiado extensivamente, sin embargo y para sorpresa de Wien, Heisenberg
no tenı́a idea de cómo derivar la potencia de la resolución del interferómetro y
éste le habı́a pedido que derivara la resolución de instrumentos comunes como el
telescopio o el microscopio. Wien molesto le preguntó cómo trabajan las baterı́as,
pero para ese momento Heisenberg ya estaba completamente perdido.
6
Wien vio la razón suficiente para no pasar a Heisenberg, señalando que no importaba que tan importante pudiera ser en otras ramas de la fı́sica. Un argumento
surgió entre Sommerfeld y Wien sobre la relativa importancia de la fı́sica teórica
en relación con la fı́sica experimental. El resultado fue un III para Heisenberg; es
decir, el promedio estuvo entre la I impuesta por Sommerfeld y la V que Wien le
daba (la calificación más alta y la más baja, respectivamente).
Sommerfeld estaba conmocionado y Heisenberg mortificado, sobre todo porque siempre estuvo acostumbrado a estar en lo más alto de sus clases, ası́ que le
costó trabajo aceptar un grado mediocre para su doctorado.
Sommerfeld preparó una pequeña fiesta en su casa para festejar al nuevo doctor,
pero Heisenberg se excusó rápidamente de asistir, empacó sus cosas y tomó el tren
de la media noche rumbo a Göttingen, presentándose a la mañana siguiente en la
oficina de Max Born, quien lo habı́a contratado como su asistente para el siguiente
año escolar.
Heisenberg, después de haberle informado a Born de su fracaso en los exámenes
orales se concretó a preguntar: “¿Me gustarı́a saber si aún me quiere a su lado?”
Born no le contestó hasta que aclaró las preguntas en las que habı́a fallado, y
convencido de que esas preguntas habı́an sido un truco sucio, mantuvo su oferta
de empleo.
En marzo de 1924, Heisenberg visita el Instituto de Fı́sica Teórica de Copenhagen, dirigido por Niels Bohr, donde conoce a Albert Einstein. Posteriormente
retorna a Göttingen y, el 28 de julio de 1924, obtiene su calificación como docente
para impartir clases en las universidades alemanas.
1.3.
1.3.1.
Mecánica Cuántica: 1925-1927
La nueva Mecánica Cuántica
Cuando Heisenberg ingresó a la Universidad de Munich (1920), la teorı́a atómica válida era la teorı́a cuántica de Bohr, Sommerfeld y colaboradores, sin importar
que fuera correcta solo en ciertas situaciones, por lo que era inadecuada y necesitaba ser reemplazada. De hecho los fı́sicos estaban de acuerdo en que debı́a ser
reemplazada por una nueva mecánica cuántica. Durante su trabajo en Munich,
Göttingen y Copenhaguen, Heisenberg se metió de lleno al estudio teórico y se
puso a sı́ mismo la tarea de hallar la nueva mecánica cuántica. Inspirado por Bohr
y su asistente, H.A. Kramers en Copenhaguen, Pauli en Hamburgo y Bohr en
Göttingen, Heisenberg trabajó intensamente los meses siguientes para alcanzar su
meta.
Debido a que las órbitas de los electrones en los átomos no pueden ser observadas, Heisenberg trató de desarrollar una mecánica cuántica sin ellas, y por julio
de 1995 halló una respuesta. Pero las matemáticas no eran del todo usuales por
lo que no estaba seguro si lo que habı́a desarrollado tenı́a sentido; ası́ que envió el
trabajo con la derivación a su mentor Max Born. Después de haber analizado la
Instituto Heisenberg, Anuario 2004
7
derivación, Born reconoció que aquellas matemáticas inusuales estaban relacionadas con arreglos matemáticos de números llamados matrices y envió el trabajo
de Heisenberg para ser publicado. Este fue el surgimiento de la nueva mecánica
cuántica.
Born, junto a su asistente Pascual Jordan, desarrolló la mecánica cuántica basada en la matemática abstracta de las matrices y unido a Heisenberg obtuvieron
el famoso three-man paper estableciendo juntos los detalles de una nueva mecánica cuántica basada en matrices: la mecánica de matrices. Con la introducción de
conceptos adicionales (spin del electrón, el principio de exclusión de Pauli), Heisenberg, Born, Jordan, Pauli y otros, mostraron que la nueva mecánica cuántica
podı́a describir muchas de las propiedades de los átomos y de los eventos atómicos.
1.3.2.
El principio de incertidumbre
Mientras más precisamente se determina la posición en un instante, la precisión
en el momento es menor, y viceversa. –Heisenberg, uncertainty paper, 1927–
Esta es la base que establece la relación de incertidumbre entre la posición y
el momentum de una partı́cula subatómica como un electrón. Esta relación tiene
profundas implicaciones para la determinación del comportamiento futuro de una
partı́cula atómica.
Debido a las implicaciones cientı́ficas y filosóficas que encerraban las relaciones
de incertidumbre, los fı́sicos hablaban de un principio de incertidumbre, mejor
conocido como el principio de indeterminación.
Los orı́genes de la incertidumbre parecen un capı́tulo más personal que fı́sico,
pues generó un debate que inición en 1926 entre Heisenberg junto con sus más
cercanos colaboradores, quienes estaban de acuerdo con la forma matricial de la
mecánica cuántica, y Erwin Schrödinger y colegas, quienes defendı́an la nueva
mecánica ondulatoria.
“Por supuesto que conozco la teorı́a, pero me siento decepcionado, no sólo por los
métodos del álgebra trascendental que se me dificultan, además por su poca
visualización” –Schrödinger, 1926–
Muchos fı́sicos poco a poco fueron aceptando la mecánica matricial debido a
su naturaleza abstracta y a su matemática inusual. Y gustosamente recibieron
la alternativa de la mecánica ondulatoria de Schödringer cuando apareció, en el
mismo 1926, dado que abarca conceptos y ecuaciones más familiares y podı́a dejar
de lado los saltos cuánticos y las discontinuidades encontradas en la mecánica
matricial.
El fı́sico francés Louis de Broglie, sugirió que no sólo la luz sino también la
materia se comporta como una onda. Trabajando esta idea, que el mismo Einstein
apoyaba, Schrödinger atribuyó la energı́a cuántica de los orbitales electrónicos de
la vieja teorı́a cuántica a las frecuencias de vibración de un electrón “ondas de materia” alrededor del núcleo atómico. Justo como la cuerda de un piano, que tiene
8
un tono fijo, un electrón-onda deberı́a tener una energı́a cuántica fija. Esto hizo
los cálculos más sencillos y más familiares a la visualización de los eventos atómicos que con la mecánica matricial de Heisenberg, donde la energı́a se encontraba
después de cálculos muy elaborados.
En mayo de 1926, Schrödinger publicó la prueba de que la matemática matricial
y la ondulatoria arrojaban resultados equivalentes: matemáticamente se trataba de
la misma teorı́a. Pero no sólo esto sino que también argumentó la superioridad de
la mecánica ondulatoria sobre la mecánica matricial. Esto provocó una reacción de
enojo, principalmente de Heisenberg quien insistı́a en la existencia de discontinuos
saltos cuánticos como en el de una teorı́a basada en ondas continuas.
“Por más que pienso en la parte fı́sica de la teorı́a de Schrödinger, más repulsiva
la hallo. Que Schrödinger escriba acerca de la visualización de su teorı́a no es
probablemente lo correcto, en otras palabras es basura” –Heisenberg, carta a
Pauli, 1926–
Después de que Schrödinger mostró la equivalencia de las versiones matriciales y ondulatorias de la mecánica cuántica, y Born presentó una interpretación
estadı́stica de la función de onda, Jordan en Göttingen y Paul Dirac en Cambridge, Inglaterra, crearon unas ecuaciones unificadas conocidas como “Teorı́a de
transformación”. Éstas forman las bases de lo que hoy conocemos como mecánica
cuántica.
La tarea ahora consistı́a en hallar el significado fı́sico de estas ecuaciones en
situaciones actuales que mostraran la naturaleza de objetos fı́sicos en términos de
ondas, partı́culas o ambos. Como Bohr posteriormente lo explicarı́a, los eventos en
los pequeños átomos están sujetos a la mecánica cuántica, pero la gente trabaja
con grades objetos en el laboratorio, donde la fı́sica clásica de Newton prevalece.
Lo que se necesita es una interpretación de las ecuaciones cuánticas de DiracJordan que permita a los fı́sicos relacionar las observaciones de todos los dı́as en
el laboratorio, con los eventos y procesos en el mundo cuántico del átomo.
Al estudiar a Dirac y Jordan, mientras mantenı́a una correspondencia frecuente
con Pauli, Heisenberg descubrió un problema en la manera en que se podrı́an
medir las variables fı́sicas básicas que aparecı́an en las ecuaciones. Su análisis
demostró que las incertidumbres o impresiciones siempre daban vuelta en torno a la
medición de la posición y el ı́mpetu de una partı́cula a un mismo tiempo (similares
incertidumbres ocurrieron al medir la energı́a y las variables del tiempo de la
partı́cula simultáneamente). Estas incertidumbres o impresiciones en las medidas
no eran una falla del experimentador, dijo Heisenberg, sino que eran inherentes a
la mecánica cuántica.
Heisenberg presentó a Pauli su descubrimiento y sus consecuencias en una carta
de 14 páginas, en febrero de 1927. Posteriormente la carta se desarrolló en un
artı́culo, en el cual Heisenberg presentó al mundo, por primera vez, lo que se
conocerı́a como el Principio de Incertidumbre.
Instituto Heisenberg, Anuario 2004
1.4.
1.4.1.
9
Los años difı́ciles
Profesor en Leipzig, 1927-1942
Con solo 25 años de edad, Heisenberg aceptó el cargo de profesor de fı́sica teórica
en la Universidad de Leipzig, Alemania. Friefrich Hund, colega de él en Göttingen,
pronto se le unió, siendo el segundo profesor en fı́sica teórica de Leipzig. Heisenberg
dirigı́a el Instituto de Fı́sica Teórica, que era una subsección del Instituto de Fı́sica
Universitario dirigido por el experimentalista Peter Debye (hasta 1936). Cada uno
de los tres profesores tenı́an sus propios estudiantes, asistentes, posdoctorados y
técnicos laboratoristas.
Como fundador de la mecánica cuántica y cabeza del programa de fı́sica teórica,
Heisenberg atrajo a Leipzig numerosos estudiantes de amplia calidad, y visitantes
de Alemania y del resto del mundo. Durante la siguiente mitad de la década,
Heisenberg y sus colaboradores produjeron las mejores nuevas teorı́as cuánticas
del estado sólido, la estructura de las moléculas, la dispersión de la radiación por
el núcleo y el primer modelo del protón.
La tarea ahora consistı́a en ajustar la cuántica al resto de las teorı́as fı́sicas. Con
Pauli y sus colaboradores en Zurich, Heisenberg y sus colaboradores dieron enormes
pasos hacia la unificación de la mecánica cuántica y la teorı́a de la relatividad
especial, en una teorı́a de campos relativistas. Junto con Dirac y otros, sentaron
los fundamentos de la investigación en fı́sica de altas energı́as. Para ese entonces los
laboratorios no contaban con altas energı́as, ası́ que su trabajo se concentró en las
propiedades de los rayos cósmicos, partı́culas de altas energı́as que chocan contra
la atmósfera de la Tierra desde el espacio exterior.
En enero de 1933, Hitler obtuvo el poder y en diciembre de ese mismo año
Heisenberg fue galardonado con el Premio Nóbel de Fı́sica (por el año de 1932).
Protegido en cierta forma por el premio, Heisenberg se volvió un lı́der difusor de
la fı́sica moderna en Alemania y se mantuvo allı́. Las razones para permanecer
en alemania aún son tema de estudio y debate. Él no era un nazi, pero era un
patriota de la cultura alemana y aparentemente sentı́a que debı́a quedarse para
después de la guerra ayudar a ordenar y preservar los remanentes de la ciencia
alemana decentes. Nunca se imaginó que este hecho se volverı́a una autodefensa.
El régimen comenzó a despedir judı́os y oponentes polı́ticos, que incluı́an las
posiciones académicas de todos los niveles. Durante ese mismo periodo, los fı́sicos
nazis, como el premio Nóbel Johannes Stark, comenzaron a atacar a la moderna fı́sica teórica, incluyendo la teorı́a de la relatividad y la mecánica cuántica,
llamándola “fı́sica judı́a”. Heisenberg y otros lı́deres fı́sicos procuraron oponerse a
estas acusaciones, pero no tuvieron éxito.
“El campo de concentración es obviamente el mejor lugar para situar a Herr
Heisenberg”–Un funcionario nazi–
En 1937 Heisenberg se vio atacado. Fue vilmente llamado traidor en un artı́culo
titulado “Judı́os blancos en la ciencia”, que apareció en un periódico de la SS.
10
Fue internado en un campo de concentración. El ataque ocurrió justo después de
que Arnold Sommerfeld decidió retirarse, esperando que se eligiera a su pupilo
Heisenberg como sucesor de su puesto en Munich. Gracias a las buenas relaciones
que la familia de Heisenberg tenı́a, pudo apelar directamente al director de la SS,
Heinrich Himmler, para ser exonerado. Después de un largo año de investigación,
el SS retiró las acusaciones contra Heisenberg, quien se mantuvo en Alemania sin
obtener nunca el puesto de Sommerfeld.
“Heisenberg es solo un ejemplo de muchos otros... Todos ellos representan el
judaı́smo en la vida espiritual alemana, que debe ser eliminada justo como a los
judı́os mismos”–SS newspaper, 1937–
1.4.2.
Investigación en Fisión 1939-1945
Cuando Alemania invadió Polonia en 1939, Heisenberg estaba enrolado en la
unidad de reserva de la infanteria. Con el brote de la guerra él y otros fı́sicos
recibián ordenes militares, no del frente sino de la oficina de armas del ejercito
(Heereswaffenamt) en Berlin. Allı́ fueron incitados a explorar los prospectos para
la aplicación de la utilización práctica de un nuevo descubrimiento: la fisión nuclear. La fisión nuclear involucra el partir el núcleo con la liberación de enormes
cantidades de energı́a.
Bajo circunstancias apropiadas, el proceso de fisión de uranio puede ser controlado, obteniéndose una producción de calor que puede ser empleada para la producción de electricidad. Por otro lado, si la reacción se sale de control, la energı́a
es liberada en forma extremadamente rápida produciendo una enorme explosión:
una bomba atómica.
“En el presente, yo creo que la guerra terminará antes de que se construya la
primera bomba atómica. –Heisenberg, 1939”
Heisenberg tomó la iniciativa en la investigación alemana en fisión, enviando a
la oficina de armas después de tres meses un reporte secreto sobre sus prospectos.
Hasta 1942, él encabezaba un pequeño grupo de investigación en Leipzig y aconsejaba a un segundo gran grupo en Berlin, repartiendo sus semanas igualmente
entre Leipzig y Berlin. Con su cargo en 1942 en el Kaiser Wilhelm Institute for
Physics, el grupo principal de investigación del reactor, y la Universidad de Berlin,
Heisenberg vivió al estilo soltero en la ciudad capital. Su esposa, su madre, una
criada y sus seis hijos, todos buscaban protección para pasar el verano en su casa
en Bavaria, mientras duraba la guerra.
Heisenberg seguı́a siendo una figura principal en el proyecto alemán de la fisión
nuclear, manteniendo lazos administrativos al final de la guerra. La espantosa
posibilidad que este esfuerzo alemán pudiera tener éxito al proveer a Hitler con un
arma nuclear era una de las fuerzas impulsoras del proyecto de Manhattan en los
Estados Unidos, mismos que produjeron las armas nucleares utilizadas en Japón
en agosto de 1945.
Instituto Heisenberg, Anuario 2004
11
El papel principal de Heisenberg en la investigación nuclear alemana durante
la guerra ha sido un tema de intensa controversia. Parte de esta controversia se
centra en por qué Heisenberg estuvo implicado con este potencialmente peligroso
proyecto, y otra se relaciona con el por qué los resultados alemanes eran tan
mı́nimos en relación con lo que habrı́an podido lograr.
Después de todo, la fisión nuclear era un descubrimiento alemán. Además, en
el brote de la guerra, Alemania tenı́a el único lugar en investigación militar; y
las conquistas del ejército alemán habı́an rendido las fuentes más ricas del mundo
en uranio, agua pesada y otros materiales y equipos. Sin embargo, con todo esto,
Alemania nunca estuvo cerca de lograr una bomba e incluso no habı́a alcanzado
una reacción en cadena.
Las conclusiones con respecto a estas ediciones complicadas y emocionales
varı́an extensamente en la literatura histórica. Una de ellas (que en la opinión
de la mayorı́a de los investigadores no está bien apoyada) es que Heisenberg participó en el proyecto para sabotearlo, y por esa razón el logro de Alemania fue
tan pobre. Otra teorı́a es que Heisenberg, como teórico y sin mucho interés o
capacidad en trabajo experimental, era impropio para este proyecto práctico. Él
cometió muchos errores en su trabajo inicial sobre fisión, y debido a su sentido de
superioridad, de su carencia de visión y de su preparación en fı́sica teórica, nunca
los reconoció y nunca vió que el proyecto pudiera progresar más eficientemente.
Otro punto de vista, menos crı́tico de Heisenberg como fı́sico, es que la investigación nuclear alemana fue condenada a la insignificancia por las circunstancias
de la guerra. Aunque es verdad que Heisenberg no pudo calcular cómo construir
una bomba nuclear con solamente algunos kilogramos de uranio-235 puro (pues
pensó que necesitaria toneladas), el cálculo correcto estaba lejos de ser obvio.
Ningún cientı́fico alemán dio mucha atención a esto, después de todo, conseguir
incluso algunos kilogramos habrı́a requerido un proyecto titánco de larga duración.
Era difı́cil imaginarse pedir a su gobierno apoyo para emprender eso en medio de
una dura guerra. El destino del trabajo nuclear fue sellado por la decisión eventual
de los militares de no darle ayuda abundante, y concentrarlo todo en cohetes y
aviones jet.
Heisenberg también se ha criticado porque durante la guerra viajó a los paı́ses
ocupados por Alemania como representante cultural del Reich alemán. Le critican
por haber hecho declaraciones insensibles e incluso declaraciones en favor de Alemania mientras que visitaba estos paı́ses presos. Por otra parte, Heisenberg y otros
han señalado al mejoramiento de las condiciones de trabajo para algunos fı́sicos
en estos paı́ses y su ayuda a algunos de ellos en dificultades personales.
Al final de la guerra, una unidad de inteligencia aliada capturó a Heisenberg y a
otros cientı́ficos nucleares alemanes, junto con la mayorı́a de sus papeles y equipo.
Después de extensos interrogatorios los mantuvieron presos durante seis meses en
un condado inglés, Farm Hall, cerca de Cambridge, en donde sus conversaciones
privadas fueron secretamente registradas, transcritas, traducidas y publicadas. Especialmente giraban en torno a las noticias del bombardeo atómico de Japón, por
lo que estas publicaciones no solo proporcionaron nuevas pistas para las investiga-
12
ciones, sino que también agregaron combustible adicional a las controversias que
rodean a Heisenberg y a la investigación alemana de la fisión durante la segunda
guerra mundial.
1.5.
1.5.1.
La era de la Post-Guerra
Reviviendo a la ciencia alemana
Después de haber sido liberado del cautiverio británico, en enero 1946, Heisenberg y varios de sus colegas más cercanos se instalaron en una ciudad al norte de
la Universidad de Göttingen, en donde se le nombró director del Kaiser Wilhelm
Institute for Physics. Ahı́ se dedicó princpalmente a dos grandes tareas: la reconstrucción de su instituto como centro de investigación en fı́sica y el renacimiento
de la investigación en la naciente República Federal Alemana.
Trabajando con autoridades occidentales y lı́deres polı́ticos alemanes, Heisenberg buscó un vı́nculo directo del gobierno federal en la formación de una polı́tica
nacional para la ciencia y la tecnologı́a, ası́ como de consejeros de ciencia con el
nuevo canciller federal, Konrad Adenauer.
Estas solicitudes encontraron eco con la creación del Consejo de Investigación
Alemán (Deutscher Forschungsrat), fundado en 1949 e integrado por 15 cientı́ficos
principales, con Heisenberg como presidente. El nuevo consejo representó a la ciencia alemana en asuntos internacionales y directamente en la oficina del canciller.
El nuevo consejo de investigación contradijo la larga tradición alemana de que
la ciencia estuviera bajo la autoridad de los ministros culturales de cada estado.
El consejo fue desafiado fuertemente por los ministros culturales, quienes apoyaban su propia organización y la asociación de emergencia de la ciencia alemana
(der Deutschen Wissenschaft de Notgemeinschaft), que rivalizó al consejo de Heisenberg. Los ministros culturales eventualmente prevalecieron, muy a pesar de
Heisenberg.
Los dos cuerpos se combinaron en 1951 en la actual Sociedad Alemana de la Investigación (Deutsche Forschungsgemeinschaft), uno de los partidarios principales
de la investigación académica en Alemania. Heisenberg fue elegido al comité presidencial de la nueva asociación y dirigió a su Comisión para la fı́sica atómica, que
coordinó toda la investigación nuclear, con excepción de la investigación en fisión.
Las autoridades de la ocupación prohibieron cualquier investigación de la fisión
en Alemania. Heisenberg apeló incansable por el levantamiento de la prohibición
y trabajó para que comenzara la construcción del reactor tan pronto como fuera
posible. Él vio a la energı́a nuclear como una fuente futura de energı́a eléctrica que
ayudarı́a a reestablecer la economı́a alemana y como industria de exportación de
gran importancia.
Los aliados occidentales, conducidos por los Estados Unidos, finalmente levantaron todas las restricciones en 1955, concediendo soberanı́a a la República Federal
Alemana. Heisenberg impulsó con éxito la creación de un ministerio de la energı́a
Instituto Heisenberg, Anuario 2004
13
nuclear al nivel del gabinete y sirvió como miembro principal de las varias comisiones atómicas federales y del estado. Después de una década, la República Federal
Alemana era exportadora principal de tecnologı́a nuclear.
Mientras que Heisenberg apoyó el desarrollo económico de la energı́a nuclear,
él y otros cientı́ficos opuestos a la decisión del canciller Adenauer de aceptar los
planes de la OTAN a equipar al ejército de la R. F. Alemana con armas nucleares
tácticas, publicaron “El manifiesto de Göttingen”. Aunque el gobierno de la R.
F. Alemana se esforzó en obtener cabezas nucleares, su ejército seguı́a siendo no
nuclear.
Heisenberg también trabajó incansablemente para restablecer las relaciones internacionales. Emprendió un viaje dando conferencias en Inglaterra y Escocia en
1947, Copenhaguen y Estados Unidos en 1950, y posteriomente a través del mundo. Cuando surgió, en 1952, el Consejo de Europa para la investigación nuclear,
Heisenberg dirigió la delegación alemana que participó en la decisión para ubicar
el acelerador europeo para la fı́sica de altas energı́as, el CERN, cerca de Ginebra,
Suiza. Dirigió al comité cientı́fico polı́tico del CERN por muchos años. En otro
esfuerzo por restablecer relaciones internacionales, Heisenberg aceptó alegremente
la cita de Adenauer como presidente del Alexander von Humboldt Foundation,
con el propósito de permitir a eruditos y a cientı́ficos jóvenes alrededor del mundo
colaborar con sus colegas alemanes mientras eran huéspedes a largo plazo en los
institutos de investigación alemanes.
Heisenberg también trabajó para ampliar su instituto, renombrado como el Max
Planck Institute for Physics en 1948. Su foco de investigación incluyó el estudio
de la astrofı́sica, y especialmente de la fı́sica de altas energı́as, experimental y
teórica. Su propio trabajo continuó centrándose en la búsqueda de una teorı́a
cuántica unificada de las partı́culas elementales. Estos esfuerzos armonizaron con
las visiones filosóficas, algo idealistas, que presentó en aquella epoca a una variedad
de audiencias públicas. Él dio quizás la más amplia serie de conferencias conocida
en la Universidad de St. Andrews en Escocia, durante el invierno de 1955-1956, y
publicó una monografı́a en inglés llamada “la fı́sica y filosofı́a”, y en alemán como
“Physik und Philosophie”.
La búsqueda de una teorı́a unificada de partı́culas elementales condujo a Heisenberg a una renovada e intensa colaboración con su colega de largo tiempo Wolfgang
Pauli. Esto rindió en 1958 la perspectiva de una nueva teorı́a cuántica tan revolucionaria como lo fue la mecánica cuántica que ellos habı́an desarrollado décadas
atrás (el “Weltformel”). Pero al final la nueva teorı́a probó ser un fracaso. Pauli se
abstuvo de endosar esta teorı́a y murió ese mismo año. La investigación continúa
hasta este dı́a entre los sucesores de Heisenberg y otros.
En 1958, Heisenberg movió el Max Planck Institute for Physics a Munich, en
donde se transformó en el Max Planck Institute for Physics and Astrophysics.
También llegó a estar más involucrado en las actividades e investigación del CERN.
Heisenberg continuó su búsqueda de la teorı́a unificada de partı́culas elementales
durante los años sesenta. Continuó siendo director del instituto hasta su dimisión
en 1970 y seis años más tarde, el 1 de febrero de 1976, murió en su case en Munich,
14
dejando una familia compuesta por su viuda y siete hijos.
Heisenberg recibió, además del Premio Nóbel de Fı́sica, muchı́simos honores por
sus notables contribuciones a la ciencia. Fue designado Fellow of the Royal Society
of London, y miembro de las academias de Göttingen, de Baviara, de Sajonia,
de Prussia, de Suecia, de Rumania, de Noruega, de España, de los Paı́ses Bajos,
de Roma, de Naturforscher Leopoldina, de Lincei, y de la American Academy of
Sciences. También fue galardonado con el premio Nicolás Copérnico.
Instituto Heisenberg, Anuario 2004
1.6.
15
Breve Cronologı́a.
Dic. 05, 1901. Werner Karl Heisenberg nació en Würzburg, Alemania.
Sept. 1906. Ingresó a la educación primaria en Würzburg.
Sept. 1911. Heisenberg comienza el curso de nueve años de estudio en el
Humanistic Max-Gymnasum en Munich, donde su abuelo es director hasta
1914.
Ago. 01, 1914. Inicio de la Primera Guerra Mundial.
Oct. 1920. Entra a la Universidad de Munich como estudiante de Sommerfeld.
Dic. 17, 1921. Envı́a su primer artı́culo para publicación.
1922 - 1923. Estudia al lado de Max Born en Göttingen.
Jul. 1923. Cumple con los requisitos para el doctorado.
Jun. 07, 1924. Se reune con Einstein por primera vez.
Jun. 28. Se le concede la habilitación para dar conferencias (derecho a enseñar).
Jun. 29, 1925. Se recibe el artı́culo de Heisenberg que abre la brecha en la
mecánica cuántica (Zs. f. Phys., 33, 879-893).
May. 01, 1926. Comienza a participar como conferencista en el Instituto de
Bohr.
Mar. 23, 1927. Se recibe el documento de Heisenberg sobre el Principio de
Incertidumbre (Zs. f. Phys., 43, 172-198).
Sept. 1927. Asiste a la conferencia de Como (Italia) donde Bohr presenta
“La complementariedad”.
Oct. 1927. Es designado Profesor de fı́sica teórica en Leipzig.
Jun. 07, 1932. Se recibe su primer documento sobre el modelo nuclear del
neutrón-protón (Zs. f. Phys., 77, 1-11).
Ene. 30, 1933. Hitler toma el poder en Alemania.
Dic. 11, 1933. Heisenberg recibe el Premio Nóbel en Fı́sica (de 1932).
Ene. 29, 1936. Heisenberg y la fı́sica teórica son atacados en un periódico del
partido Nazi.
Ene. 1938. Nacimiento de sus hijos gemelos, los primeros de siete niños.
16
Dic. 1938. Descubrimiento de la fisión nuclear en Berlı́n.
1941. La pila de uranio de Leipzig demuestra la primera multiplicación de
neutrones.
Sept. 15-22 1941. Visita Copenhaguen ocupada por Alemania y discute la
fisión con un Bohr alarmado.
Feb. 26. 1942. Presenta una conferencia a los funcionarios del Reich sobre la
adquisición de energı́a a partir de fisión nuclear después de que el ejército
retiró la mayorı́a de su financiamiento.
Jul. 01 1942. Aceptó ser director interino del laboratorio principal de investigación del reactor en Berlı́n.
Sept. 08 1942. Se recibe la primera parte de su teorı́a sobre las S-matrices
en la fı́sica elemental de la partı́cula (Zs. f. Phys., 120, 513-538, 1943).
Feb. 1943. Es designado profesor en fı́sica teórica en Berlı́n.
May. 03, 1945. Las fuerzas de EU arrestan a Heisenberg en su hogar en
Urfeld, Bavaria.
Jul. 1945. Es nombrado director del Kaiser Wilhelm Institute for Physics
(posteriormente Max Planck).
Mar. 09, 1949. Es nombrado presidente del consejo de investigación alemán.
Feb. 23, 1950. Propone la teorı́a unificada de las partı́culas elementales que
implican un campo no lineal del spinor.
Ago. 1951. El consejo de investigación se fusiona con la asociación de la
emergencia para formar la Asociación de Investigación Alemana (DFG por
sus siglas en alemán). Heisenberg en Presidium.
Mar. 1952. Encabeza la Delegación alemana ante el Consejo de Europa para
la investigación nuclear, contemplando la fundación del CERN.
Abr. 12 1957. Envia la declaración junto con otros 17 cientı́ficos de la R. F.
Alemana donde se oponı́an a la proposición de Adenauer de aceptar armas
nucleares tácticas proporcionadas por la OTAN.
Feb. 27, 1958. Preimpresión de la edición junto con Pauli de una teorı́a
de campo unificada de partı́culas elementales, incluyendo el “Weltformel”,
renunciada más tarde por Pauli.
Dic. 31, 1970. Dimite como director del Max Planck Institute.
Feb. 01, 1976. Werner Heisenberg muere de cáncer en su hogar en Munich.
Capı́tulo 2
¿Por qué generación Henri
Poincarè?
17
18
Instituto Heisenberg, Anuario 2004
2.1.
19
Jules Henri Poincarè (1854-1912)
Ricardo A. Sáenz 1
Instituto Heisenberg y Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo #340
Colima, Colima, México, 28045
Jules Henri Poincarè nació el 29 de abril de 1854 en Nancy, Lorraine, al noroeste
de Francia. En 1862 ingresó al Liceo en Nancy (que luego tomarı́a el nombre Henri
Poincarè en su honor), y en 1873 a la Ecole Polytechnique, graduándose dos años
más tarde.
Poincarè continuó sus estudios en la Ecole des Mines y después, mientras trabajaba como ingenierio minero, realizó trabajo doctoral bajo la dirección de Charles
Hermite, uno de los matemáticos franceses más importantes de la época. Recibió su doctorado en 1879 en la Universidad de Parı́s, con una tesis en ecuaciones
diferenciales.
Después de recibir su doctorado, Poincarè fue contratado durante dos años como
profesor de matemáticas en la Universidad de Caen. Luego le fue otorgada una
cátedra, en 1881, en la Facultad de Ciencias en Parı́s. En 1886 le fue otorgada
la Cátedra de Fı́sica-Matemática y Probabilidad en la Sorbona, y más adelante
una cátedra en la Ecole Polytechnique. Poincarè mantuvo estas cátedras hasta su
muerte, en Parı́s, el 17 de julio de 1912.
1 [email protected]
20
El trabajo de Poincarè abarcó todas las áreas de las matemáticas de su época,
además de haber sido el creador de disciplinas nuevas. Estudió también fı́sica
matemática, haciendo contribuciones a la mecánica celeste, a la mecánica de fluı́dos
y la teorı́a especial de la relatividad, ası́ como también a la filosofı́a de la ciencia.
2.1.1.
Topologı́a
En 1895 publicó la obra “Analysis situs”, en la cual ofreció el primer tratado
sistemático de la topologı́a. Se puede decir que él fue el creador de lo que ahora
llamamos topologı́a algebraica, disciplina en la que conceptos algebraicos (grupos,
principalmente) son utilizados en problemas topológicos.
Entre las ideas presentadas por Poincarè se encuentra el grupo fundamental
de un espacio topológico, el cual es utilizado para estudiar espacios topológicos
a través de deformaciones de curvas sobre él (a este estudio se le conoce como
teorı́a de homotopı́a). Con dicho grupo es posible clasificar las superficies (objetos
topológicos de dimensión 2) en distintas clases. Por ejemplo, Poincarè demostró que
si una superficie cerrada tiene un grupo fundamental trivial, lo cual significa que
todas las curvas en la superficie pueden ser deformadas en un punto, entonces
dicha superficie pertenece a la clase topológica de una esfera.
Años más tarde, Poincarè conjeturó que el único espacio tridimensional con
grupo fundamental trivial serı́a la esfera de dimensión. 32 Dicha conjetura fue
el motivo de gran parte de la topologı́a durante el siglo XX, y sigue siendo un
problema sin resolver hasta nuestros dı́as.3 De hecho, el Instituto Clay de los EU
ha ofrecido un millón de dólares a quien resuelva este problema.
Dentro de la topologı́a, también logró generalizar la ecuación caracterı́stica de
los polihedros4 tanto a dimensiones mayores como a polihedros agujeros, introduciendo ası́ la ahora conocida fórmula de Poincarè.
2.1.2.
Mecánica Celeste y Teorı́a de Caos
En 1887, el rey Oscar II de Suecia y Noruega convocó un concurso para celebrar
en 1889, su sexagésimo aniversario. El ganador del concurso fue Poincarè, presentando un trabajo sobre el problema de los tres cuerpos en mecánica celeste. 5 En
2 No confundir con la bola de dimensión 3, cuya frontera es la esfera de dimensión de 2. Con
la esfera de dimensión 3 nos referimos a la frontera de un bola tetradimensional.
3 El trabajo de Grisha Perleman, presentado a finales del año 2002 y aún en revisión, es
promisorio para la solución de este problema.
4 Esta ecuación establece que si un polihedro simplemente conexo, es decir, sin agujeros, tiene
V vértices, L lados y C caras, entonces
V − L + C = 2.
5 El
problema de los tres cuerpos consiste en estudiar la trayectoria de tres cuerpos en el
espacio bajo la acción de las fuerzas gravitatorias entre ellos, de acuerdo a las leyes de Newton.
Instituto Heisenberg, Anuario 2004
21
dicho trabajo Poincarè introdujo conceptos nuevos dentro de la teorı́a de sistemas
dinámicos, como la idea de puntos homoclı́nicos,6 entre otros.
Curiosamente, después de haber sido entregado el premio y en el proceso de
publicar la monografı́a ganadora de Poincarè, se descubrió un error. Los esfuerzos
de Poincarè para corregirlo son considerados ahora como el nacimiendo de la teorı́a
de caos.
2.1.3.
Geometrı́a Algebraica
Su tesis doctoral en el estudio de ecuaciones diferenciales lo llevó al descubrimiento de las funciones automorfas, que generalizan las funciones elı́pticas (estudiadas 60 años antes por Abel y Jacobi), las cuales a su vez generalizan las funciones
trigonométricas. Descubrió además que la relación entre funciones automorfas con
simetrı́as equivalentes puede ser descrita a través de ecuaciones algebraicas y, de
manera inversa, logró describir los puntos de una curva algebraica en términos de
funciones automorfas, contribuyendo ası́ de manera importante al desarrollo de la
geometrı́a algebraica.
···
Henri Poincarè es llamado el último de los matemáticos universales. En homenaje a su impresionante trabajo y gran capacidad intuitiva y creadora, el Instituto
Heisenberg ha declarado llamar a su grupo en el año 2004 “Generación Henri
Poncaré”.
6 Un
punto homoclı́nico es un punto donde una trayectoria estable y una inestable se intersecan.
Poincarè mostró que si existe uno de dichos puntos, entonces existen infinitos de ellos.
22
Capı́tulo 3
Curso de Fı́sica
23
24
Instituto Heisenberg, Anuario 2004
3.1.
25
Newton y la Fı́sica Clásica
Alfredo Aranda Fernández 1
Instituto Heisenberg y Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo #340
Colima, Colima, México, 28045
3.1.1.
Historia de la Fı́sica
Una posible manera de introducir la fı́sica es por medio de la historia. Nuestro
enfoque en este caso consiste en dar una amplia exposición de lo ocurrido en el
mundo de la fı́sica, comenzando desde Galileo y terminando con temas contemporáneos. Podemos presentar el quehacer de la fı́sica a manera de novela, con unos
temas centrales y con ciertos desenlaces importantes. El foco de atención debe ser,
más que familiarizar al estudiante con datos y nombres, con las ideas y con la
noción de lo que es la fı́sica.
Desde luego que no se podrá cubrir cada uno de los episodios importantes, ni a
todos los posibles protagonistas, pero eso vendrá después. El enfoque aquı́ radica
en generar un interés y una idea algo concreta del desarrollo del conocimiento
acerca de la naturaleza.
A continuación describimos una posible ruta a seguir. Las partes más importantes y a las que se puede resumir nuestra historieta están en negritas.
3.1.2.
Galileo y los experimentos
Casi todos hemos escuchado algo sobre Galileo. Es posible que incluso nuestros estudiantes sepan algunas de las aportaciones que Galileo hizo a la ciencia.
Podemos platicar que fue él quien nos enseñó que cuerpos de diferente peso caen
con la misma velocidad, por ejemplo. En esta historieta sin embargo, nos vamos a
concentrar en lo siguiente: Galileo descubrió que para tratar de entender a
la naturaleza hay que realizar experimentos.
En los tiempos antes de Galileo existieron muchas personas que trataban de entender a la naturaleza y que formularon ideas y teorı́as que intentaban describirla;
sin embargo, todas éstas eran de una naturaleza muy cualitativa. Galileo entendió que esto no era suficiente y dejó que la única guı́a fuera la naturaleza misma.
Descubrió que era posible preguntarle directamente a la naturaleza a través de
experimentos, ¡ese fue el paso crucial!
¿Qué queremos decir con cualitativo? Un ejemplo trivial de lo que queremos
manifestar es el siguiente: Mediante la observación es posible deducir que lo que
sube tiene que caer. No es muy difı́cil llegar a esta conclusión cuando observamos
a la naturaleza en nuestro entorno inmediato. Podemos entonces sugerir ideas
acerca del por qué de esta indomable realidad. Antes de Galileo, existı́an profundas
1 [email protected]
26
especulaciones acerca del origen de fenómenos como éste, sin embargo, ninguna
de ellas podı́a de manera cuantitativa deducir el tiempo, ni la velocidad con que
algún objeto caı́a. Esto es simplemente un ejemplo, el punto es la diferenciación
entre tener ideas y el de tener un entendimiento de los fenómenos. Este último se
puede obtener sólo a través de la experimentación.
Una vez que se empezó a experimentar de manera sistemática, nació la necesidad
de explicar lo observado. Galileo nos dijo que los objetos caı́an en tiempos iguales,
pero no nos dijo por qué lo hacı́an. Para eso era necesario otro paso importante,
el de las teorı́as, pero teorı́as que pudieran darnos explicaciones cuantitativas.
La razón de desear predicciones cuantitativas es porque podemos verificar las
teorı́as por medio de experimentos. Un paso interesante en esta dirección
fue el de Kepler, quien pudo determinar utilizando datos observacionales (los más
precisos de su tiempo), que la órbita del planeta Marte era elı́ptica, y que un
planeta, en su camino alrededor del sol, cubre áreas iguales en tiempos iguales. Él
descubrió estos fenómenos, pero aún siguió sin explicar por qué.
3.1.3.
Newton
Isaac Newton fue el primero en dar una teorı́a en el sentido moderno. Él logró explicar el por qué de algunos fenómenos, como los antes mencionados. Newton introduce de una manera cuantitativa y bien definida el concepto de fuerza. Newton nos enseñó que las fuerzas eran las responsables de toda la dinámica
del universo. ¿Cuáles y cuántas fuerzas? El trabajó principalmente con la fuerza
de gravedad, pero nos dió las herramientas necesarias para que dada una fuerza,
de la naturaleza que sea, podamos deducir sus efectos en objetos y asi predecir
cuantitativamente lo que sucederá. Asi pues, por ahora, lo que nos interesa de
Newton es que inventó la primer teorı́a verdaderamente útil: la teorı́a de la gravedad, la cual explica entre otras cosas por qué los objetos caen con la misma
velocidad y por qué los planetas describen trayectorias elı́pticas.
3.1.4.
Más fuerzas
Una vez establecido el mecanismo descubierto por Newton, sólo era necesario
determinar la fuerza actuando sobre un objeto para poder describir su movimiento. Newton utilizó sus ideas para atacar la gran mayorı́a de los problemas relacionados con la fuerza de gravedad en la superficie terrestre (caı́da de objetos,
péndulos, resortes, etcétera) y el movimiento de los objetos celestes. Esto también
permitió que los experimentos empezaran a enfocarse en otros fenómenos de la naturaleza y ası́ empezaron a descubrirse y analizarse situaciones en las que
la gravedad no parecı́a tener ningún efecto.
Se descubrió que existı́an cargas eléctricas en todos lo materiales y que habı́a de
dos tipos, positivas y negativas. Además se descubrió que “habı́a una fuerza entre
ellas”. A esta fuerza se le denominó fuerza eléctrica. Casi al mismo tiempo, y
Instituto Heisenberg, Anuario 2004
27
en la misma clase de experimentos, se descubre otra fuerza, la fuerza responsable
de que un imán atraiga metales: la fuerza magnética.
A mediados del siglo XIX se conocı́an tres fuerzas y se podı́a explicar todo lo
observado experimentalmente con ellas, la fuerza de gravedad, la eléctrica y la
magnética.
3.1.5.
Maxwell y las matemáticas
Analizando las teorı́as basadas en las fuerzas eléctricas y magnéticas, J.C. Maxwell descubre que existe una manera muy simple y bella (matemáticamente bella)
de combinar estas dos fuerzas. Él efectivamente descubrió que la fuerza eléctrica
y la magnética son en realidad diferentes manifestaciones de una sola fuerza, la
fuerza electromagnética. Ası́ pues, él logró la unificación de dos fuerzas en
una y entonces quedaban sólo dos fuerzas.
Hacia finales del siglo XIX, estas teorı́as eran capaces de explicar cuantitativa
y precisamente las observaciones y experimentos de la época. La mayorı́a de los
fı́sicos pensaban que ya casi habı́an logrado explicar todo lo fundamental de la
naturaleza. Sin embargo, nuevos experimentos y también el escrutinio matemático
de las teorı́as muy pronto pondrı́an en jaque a toda la fı́sica.
3.1.6.
Siglo XX
El siglo XX vió una revolución en casi todo, y en particular en el conocimiento
cientı́fico. En el caso de la fı́sica existieron dos brechas que culminaron en cambios
profundos de nuestro entendimiento sobre la naturaleza. Una de ellas consistió en
analizar experimentalmente, el mundo de lo muy pequeño, los átomos. La otra
consiste en la asombrosa tarea de verificar los conceptos más básicos de la fı́sica:
el espacio y el tiempo.
En lo microscópico se descubrió, para sorpresa de todos, que las leyes fı́sicas descubiertas en los siglos anteriores fracasaban rotundamente al tratar de describir los
resultados experimentales obtenidos. Los errores no eran menores, las teorı́as simplemente predecı́an cosas completamente diferentes a las observadas. Ası́ nació la
mecánica cuántica, teorı́a desarrollada por varios fı́sicos, principalmente Erwin
Schrödinger y Werner Heisenberg, que lograron desentrañar el mundo subatómico.
En el camino de entender a la naturaleza subatómica, se descubrieron otras dos
fuerzas: la fuerza nuclear débil y la fuerza nuclear fuerte. Desde entonces
todas las teorı́as de la naturaleza, para ser válidas, necesitan ser consistentes con
la mecánica cuántica.
Por otro lado, Albert Einstein descubrió que las ideas del espacio y el tiempo
utilizadas en las teorı́as del siglo XIX no eran correctas y demostró cuál era la
forma correcta con su relatividad especial. Ası́, de un solo golpe, demostró que
todas las teorı́as tenı́an que ser compatibles con la relatividad. Einstein también
demostró que la teorı́a de la gravedad de Newton era incompleta y postuló su
propia teorı́a de la gravedad, la relatividad general.
28
Cuadro 3.1: Situación actual de las teorı́as en su relación con la mecánica cuántica
y la relatividad especial.
Fuerza
Mecánica cuántica Relatividad especial
Gravedad
No compatible
Compatible
Electrodébil
Compatible
Conpatible
Nuclear Fuerte
Compatible
Compatible
Entre estos dos golpes, no quedó mas que revisar las teorı́as viejas y reformularlas. Los fı́sicos, a partir de los años treinta del siglo XX, se han dedicado a esta
tarea.
Podemos resumir la situación de la siguiente manera: Se conocı́an cuatro fuerzas (gravedad, electromagnética, nuclear débil y nuclear fuerte) y requerı́an teorı́as
que fueran compatibles con la relatividad especial y la mecánica cuántica. En los
sesentas y setentas se logró realizar lo siguiente: se unificaron las fuerzas electromagnética y nuclear débil: la fuerza electrodébil. Se logró hacer compatible con
la relatividad y con la macánica cuántica a las fuerzas electrodébil y nuclear fuerte
y la teorı́a resultante, llamada el modelo estándar, es compatible con todos los
experimentos.
La situación actual se puede ver en el cuadro 3.1.
3.1.7.
La fı́sica de hoy
Una de las lı́neas de investigación actuales consiste en la posible unificación
de la fuerza electrodébil con la nuclear fuerte. Esto se ha buscado desde hace ya
varias décadas y hasta ahora se han generado muchas ideas interesantes, como
la predicción de que existen muchas más partı́culas de las que hemos verificado
experimentalmente. A esta lı́nea se le conoce como el estudio de las teorı́as de
La gran unificación. Otra lı́nea intenta modificar a la gravedad para finalmente
hacerla compatible con la mecánica cuántica. Este problema ha demostrado ser
muy imponente y la mayorı́a de las soluciones propuestas han sido descartadas.
Recientemente se inventó la teorı́a de las supercuerdas, que aparenta ser un
candidato fuerte. Entre las predicciones por demostrar experimentalmente está:
que el universo en el que vivimos es de 10 dimensiones.
Existen muchos problemas interesantes asociados con estas ideas, y algunas de
las preguntas que los fı́sicos actuales tratan de responder son:
¿Cómo son las partı́culas que forman todo el universo?
¿Cuántas fuerzas existen y por qué?
¿En cuántas dimensiones vivimos?
¿Qué podemos decir acerca del origen del universo?
Instituto Heisenberg, Anuario 2004
29
Debe de mencionarse que éstas son sólo algunas de las preguntas y áreas de
estudio de la fı́sica. En nuestra historieta nos hemos concentrado en una idea
central, la de las fuerzas, sin embargo hemos dejado a un lado una enorme gama
de brechas y descubrimientos en la fı́sica. Hemos decidido seguir esta lı́nea porque
representa de alguna manera una de las más fundamentales, en el sentido de que
las otras lı́neas están también relacionadas con las fuerzas y algunas de las ideas
modernas, pero de ninguna manera debe pensarse que la fı́sica sólo abarca lo
aquı́ mencionado.
3.1.8.
Newton y la dinámica
Una vez introducidos los conceptos de posición, velocidad y aceleración, estaremos listos para analizar muchas situaciones fı́sicas de interés. Recordemos que las
ideas aquı́ planteadas representan un complemento y por lo tanto hay aspectos
que no mencionaremos. El propósito es dar información un poco más profunda de
lo estrictamente necesario en un curso de nivel medio superior.
3.1.9.
Posición, velocidad y aceleración
En el curso analizaremos básicamente el movimiento. Para ser muy concretos,
siempre pensaremos en un objeto (una pelota, un planeta, un péndulo, etcétera) y
cómo cambia de posición. ¿Qué es la posición? Para contestar esto podemos empezar por considerar un objeto que se encuentre a nuestra vista. Por ejemplo, en
el aula de clases encontraremos irremediablemente una butaca. Su posición consiste en el número de datos necesarios que debemos transmitir para que cualquier
persona sepa donde está. Es muy claro ver que para lograr ésto tendremos que
adoptar un marco de referencia. Por ejemplo, si tomamos como nuestro marco
de referencia al salón, podemos decir que se encuentra en el suelo del salón de
clases, a tres metros de la pared que contiene el pizarrón y a dos metros de la
pared derecha (viendo al pizarrón). De esta manera, cualquier persona que entre al salón podrá saber la posición de esa butaca. De una manera un poco más
organizada, decimos que escogemos un orı́gen y un sistema de coordenadas,
y expresamos las coordenadas del objeto con respecto a ese sistema. Nosotros
vivimos en un universo que tiene cuatro dimensiones: tres espaciales (ancho, alto,
y largo) y una temporal (el tiempo), por lo tanto, para determinar la posición de
un objeto debemos especificar cuatro puntos. En esta clase consideraremos en casi
todos los problemas una sola dimensión y además consideraremos al tiempo de una
manera separada (esta es la forma en que se hacı́a en la fı́sica clásica). Entonces,
la posición de un objeto es su coordenada en x con respecto a un origen.
¿Y la velocidad? El movimiento lo vamos a identificar como el hecho de que un
objeto cambie de posición. Por el momento no nos preocupemos de cómo logró hacerlo y sólo analizemos el hecho de que su posición cambió. Algo que parece trivial
pero que es sumamente importante es que al realizarse un cambio de posición,
éste ocurrió durante una cierta cantidad de tiempo. Utilizando esta informa-
30
ción, podemos entonces definir a la rapidéz promedio como el ritmo con el que
cambió la posición en una cierta cantidad de tiempo, y la velocidad promedio
(v̄) es lo mismo que la rapidez, con la diferencia que tenemos también que decir en
que dirección ocurre el cambio, por ejemplo, hacia la dirección de las x positivas
o negativas (matemáticamente esto equivale a decir que la velocidad es un vector
y la rapidez un escalar). Ya que trabajaremos en una sola dimensión, de ahora
en adelante hablaremos solo de la velocidad (pero siempre recordando que es un
vector). Ası́ pués, decimos que si un automóvil A estaba en Colima a cierta hora
y tres horas después estaba en Guadalajara, y un automóvil B estaba a cierta
hora en Colima y tres horas y media después estaba en Guadalajara, entonces la
velocidad promedio de A fue mayor a la de B, es decir v̄A > v̄B .
Aún cuando estas definiciones nos dan algo de información acerca del movimiento, serı́a mas útil tener una manera de determinar la velocidad de un objeto
en cada instante. ¿Cómo podemos lograr ésto? Analizemos otra vez la velocidad
promedio. Para determinarla, lo que necesitamos es que nos digan la posición inicial (x0 ), la posición final (xF ), el tiempo inicial (t0 ) y el tiempo final (tF ). De
esta manera obtenemos la velocidad promedio
v̄ =
xF − x 0
,
tF − t 0
(3.1)
en donde el numerador nos da el desplazamiento y el denominador el intervalo
de tiempo transcurrido durante el desplazamiento. Gráficamente podemos representar a ésta como en la figura 3.1.9. El eje horizontal muestra el tiempo, el eje
vertical la posición y hemos dibujado una trayectoria representada por la letra
A. También hemos marcado las coordenadas correspondientes a la ecuación 3.1.
Ahora consideremos la figura 3.1.9 en donde hemos dibujado una segunda trayectoria denominada B. Es claro que ambas trayectorias tienen los mismos puntos
iniciales y finales, y por lo tanto utilizando la ecuación 3.1 obtendremos el mismo
resultado para las dos. Sin embargo, la gráfica nos permite ver que en el transcurso
intermedio las velocidades fueron distintas. Son estas velocidades las que queremos
poder determinar de una manera más precisa.
Una manera en la que podemos ir determinando la velocidad más precisamente
es la de dividir el tiempo total en intervalos más pequeños y determinar las velocidades promedio en cada uno de los intervalos. Esto lo podemos ver gráficamente
en la figura 3.1.9. Ahora la trayectoria A ha sido dividida en cinco zonas (I, II,
III, IV , y V ) y por lo tanto podemos determinar cinco velocidades promedio. Si
hacemos lo mismo ahora con la trayectoria B veremos que las cinco velocidades
promedio ahora si serán diferentes entre las dos trayectorias
La velocidad instantánea la obtenemos de la siguiente manera: Seguimos dividiendo al tiempo transcurrido en intervalos cada vez más pequeños hasta que
llegamos a intervalos infinitesimales. Si llamamos ∆t a la magnitud del intervalo en el tiempo, y ∆x al pequeño desplazamiento en posición obtenido durante
Instituto Heisenberg, Anuario 2004
31
x
xf
A
x0
t
t0
tf
Figura 3.1: Representación gráfica de la velocidad promedio discutida
en el texto.
x
xf
A
B
x0
t
t0
tf
Figura 3.2: Representación de una segunda trayectoria (B).
32
x
xf
A
x
0
I
II
III
IV
V
t
t0
t1
t2
t4
t3
tf
Figura 3.3: Igual que la figura 3.1.9 pero con más divisiones en el tiempo.
x
xf
A
B
x0
I
II
III
IV
V
t
t0
t1
t2
t3
t4
tf
Figura 3.4: Representación con las dos trayectorias.
Instituto Heisenberg, Anuario 2004
33
∆t, entonces definimos a la velocidad instantánea como
∆x
dx
=
.
∆→0 ∆t
dt
v = lı́m
(3.2)
Obtenemos entonces que la velocidad instantánea es simplemente la derivada de
la posición con respecto al tiempo. De ahora en adelante cuando mencionemos
velocidad nos estaremos refiriendo a la velocidad instantánea.
Entonces, recapitulando, la velocidad es una medida del ritmo de variación de
la posición con respecto al tiempo. De igual manera, uno puede preguntarse cómo
cambia el ritmo de variación de la velocidad con respecto al tiempo. Es decir, es
posible que la velocidad misma no sea constante y que cambie con el tiempo. El
análisis es muy similar al anterior, y entonces lo que hacemos es dividir el tiempo
en intervalos infinitesimales y registramos los pequeños cambios en la velocidad
(∆v). Entonces de esta manera definimos la aceleración como la derivada de la
velocidad con respecto al tiempo:
∆v
dv
=
.
∆t→0 ∆t
dt
a = lı́m
(3.3)
Con estas definiciones ya estamos listos para describir el movimiento. Hay tres
posibles rutas:
Si conocemos la posición en función del tiempo, podemos determinar la velocidad y la aceleración utilizando las ecuaciones (3.2) y (3.3), ejemplo: Supongamos que la posición está dada por x(t) = bt + ct2 , entonces obtenemos
v(t)
=
a(t) =
dx(t)
= b + 2ct
dt
dv(t)
= 2c .
dt
Si conocemos la aceleración en función del tiempo, entonces integramos las
ecuaciones y podemos determinar la velocidad y la aceleración. Ejemplo:
Tomemos la expresión para la aceleración del caso anterior, a(t) = 2c y
escojamos el tiempo inicial como cero, t0 = 0 y la velocidad inicial como b,
v0 = b, entonces
Z v(t)
Z t
dv(t)
a(t) =
→ dv(t) = a(t)dt →
dv(t) =
a(t)dt .
dt
b
0
La primera integral nos da v(t) − b y la segunda nos da 2ct y ası́ obtenemos
que v(t) = b + 2ct. De la misma manera obtenemos la posición:
Z x(t)
Z t
dx(t)
→ dx(t) = v(t)dt →
dx(t) =
v(t)dt
v(t) =
dt
0
0
→ x(t) = bt + ct2 .
34
y por último, si conocemos la velocidad en función del tiempo, podemos
obtener la aceleración derivando y la posición integrando o combinando los
dos resultados anteriores.
Es muy importante notar que para poder utilizar estas ecuaciones, es necesario
tener expresiones en función del tiempo. Es entonces fundamental poder determinar algunas de éstas. ¿Cómo podemos determinarlas? Esta es un a pregunta
interesante ya que la respuesta nos llevará directamente a Newton. Una posibilidad que se nos puede ocurrir es la de ir registrando el movimiento e ir tabulando
posiciones y tiempos, sin embargo, en cuanto pongamos ésta en la práctica nos
daremos cuenta de que no es demasiado efectivo. El problema se resolverá de la
siguiente manera: Lo que debemos tratar de hacer es lograr determinar, experimentalmente, la expresión para las fuerzas que actúan sobre los objetos.
3.1.10.
Newton y sus leyes
Si la posición de un objeto es constante, no tendremos mucho problema en
determinar la dinámica: cero velocidad, cero aceleración. Si la velocidad es constante, lo cual es fácil de determinar experimental u observacionalmente, entonces
la dinámica también es fácil: cero aceleración. Pero ¿qué pasa cuando la aceleración
no es cero?
Este problema lo podemos resolver gracias a que Newton descubrió que la aceleración de un cuerpo es el resultado de la aplicación de fuerzas sobre él.
Ası́ pués, si determinamos las fuerzas medimos la aceleración. Matemáticamente
tenemos que
F = ma = m
d2 x(t)
dv(t)
=
,
dt
dt
(3.4)
en donde hemos utilizado las expresiones de la sección anterior para expresar la
aceleración en términos de la velocidad y de la posición. Ahora sólo necesitamos
determinar cuales son las fuerzas en un objeto para determinar su dinámica, y esto
es mucho más fácil de hacer experimentalmente.
A continuación veremos algunas aplicaciones de lo que hemos discutido.
3.1.11.
Caı́da libre
Entre las aportaciones de Newton contamos con la fuerza de gravedad. Todo
objeto con masa ejerce una fuerza en cualquier otro objeto con masa de la siguiente
manera
FG =
−Gm1 m2
,
r2
(3.5)
en donde G es una constante universal, m1 y m2 son las masas del objeto 1 y 2
respectivamente, y r es la distancia que separa a los dos cuerpos. El signo negativo
Instituto Heisenberg, Anuario 2004
35
es para determinar que la fuerza es de atracción. En el caso de un objeto cayendo
en la superficie de la tierra, por ejemplo una manzana que cae desde un árbol,
la expresión incluye la masa de la tierra (MT ), la masa de la manzana (m), y la
distancia entre el centro de la tierra y la manzana, que dadas las alturas pequeñas
de los árboles podemos aproximar perfectamente como el radio de la tierra (R T ).
Ası́ pues, la fuerza que la tierra ejerce sobre la manzana es
FG =
−GMT m
=
RT2
−GMT
RT3
m,
(3.6)
donde hemos separado todos los términos relacionados con la tierra y G adentro
del paréntesis. Si nos olvidamos que estamos hablando de una manzana, y consideramos cualquier objeto cercano a la superficie de la tierra, vemos que la expresión
es exactamente la misma, con m representando la masa del objeto de interés. El
factor constante entre paréntesis es siempre el mismo. Entonces, lo que hacemos
es que para problemas de gravedad cercanos a la superficie de la tierra, decimos
que la fuerza es FG = mg, en donde
g=
−GMT
RT3
.
(3.7)
Entonces consideremos el caso de un objeto en la superficie sujeto a esta fuerza.
De acuerdo con Newton, la fuerza está relacionada con la aceleracón de acuerdo
con la ecuación (3.4). Veamos como esta ecuación y la expresión para la fuerza de
gravedad nos puede decir algo sobre el movimiento en la superficie de la tierra. La
ecuación (3.4) nos dice que F = ma, y nosotros ya sabemos que en la superficie
de la tierra la fuerza está dada por FG = mg, entonces tenemos que
ma = mg → a = g .
(3.8)
En la superficie de la tierra la aceleración es g y es por lo tanto constante. Ahora
que ya obtuvimos la aceleración, podemos obtener la velocidad:
dv(t)
dt
=
→
a=g
Z v(t)
v0
dv(t) =
Z
→ v(t) − v0 = gt
→ v(t) = v0 + gt .
t
gdt
0
(3.9)
En esta ecuación, v0 es la velocidad inicial y el tiempo inicial se ha tomado como
36
cero. De la misma manera obtenemos para la posición:
dx(t)
dt
=
v(t) = v0 + gt
Z x(t)
Z t
dx(t) =
(v0 + gt)dt
→
x0
0
1
x(t) − x0 = v0 t + gt2
2
1 2
x(t) = x0 + v0 t + gt .
2
→
→
(3.10)
Con estos resultados podemos ahora describir toda la dinámica de un partı́cula en
el campo gravitacional de la tierra que se encuentra cerca de la superficie terrestre,
pero no sólo eso, estas expresiones son válidas para cualquier sistema en el que la
aceleración es constante, solo hay que reemplazar la g por el valor constante de la
aceleración. Ejemplos son la caı́da libre y el tiro vertical. El lanzamiento parabólico
es una generalización de este mismo caso pero en dos dimensiones.
3.1.12.
Un resorte
Es relativamente fácil obtener una expresión para la fuerza que un resorte aplica
sobre un cuerpo. El experimento se puede realizar en clase, por ejemplo. Sólo
necesitamos conseguir algunos resortes distintos y varios cuerpos de los cuales
sepamos sus masas. Lo que tenemos que hacer es colgar los cuerpos y registrar el
desplazamiento que diferentes masas producen en el resorte. Lo que observaremos
es que para todos los resortes, existe un rango de desplazamientos y masas tal que
la fuerza siempre es proporcional al desplazamiento y en sentido opuesto, es decir,
si ponemos una masa m y el resorte se desplaza de su posición de equilibrio una
distancia x, cuando ponemos el doble de la masa, o sea 2m, el desplazamiento
será 2x. Ası́ pues deducimos que la fuerza de un resorte la podemos escribir como
F = −kx ,
(3.11)
en donde hemos llamado k a la constante de proporcionalidad (la cual varı́a para
cada resorte) y hemos puesto un signo negativo para indicar que la fuerza es
contraria al desplazamiento, es decir, si lo estiramos, el resorte intentará contraerse
y viceversa.
Bueno, si ya tenemos la fuerza, entonces podemos utilizar la ecuación (3.4) para
obtener la dinámica
F
=
ma = −kx
k
→ a = − x.
m
Recordemos ahora que la aceleración la podemos escribir como la segunda derivada
Instituto Heisenberg, Anuario 2004
37
Figura 3.5: Gráfica de la posición en función de wt. Hemos dado el valor
de A = 1 m.
de la posición con respecto al tiempo. Entonces la ecuación se convierte en
d2 x(t)
k
= − x.
dt
m
Para resolver esta ecuación diferencial tenemos que encontrar la función x(t) que
la satisfaga. Observemos que la función al ser derivada dos veces con respecto al
tiempo nos dará un signo negativo, una constante y la misma función de nuevo. Consideremos la siguiente posibilidad x(t) = A cos(wt), en donde A y w son
constantes. Si sustituı́mos esta expresión en la ecuación anterior obtenemos
d2 x(t)
= −w2 A cos(wt) = −w 2 x(t) ,
dt
(3.12)
2
la cual es de la forma deseada siempre y
pcuando w = k/m. Ası́ pues decimos que la
solución es x(t) = A cos(wt) con w = k/m. A w se le conoce como la frecuencia
de oscilación, ya que viendo la expresión para x(t) observamos que la posición
estará oscilando como el cos(wt). ¿Quién es A? A representa el desplazamiento
máximo del resorte. Las figuras 3.1.12, 3.1.12 y 3.1.12 muestran gráficamente las
expresiones para la posición, la velocidad y la aceleración.
3.1.13.
Gravedad
La teorı́a de la gravedad de Newton permite describir muchos de los fenómenos
de la naturaleza. En particular aquellos asociados con el moviemiento de los astros
38
Figura 3.6: Gráfica de la velocidad en función de wt para el mismo caso
de la figura 3.1.12.
Figura 3.7: Gráfica de la aceleración en función de wt para el mismo
problema.
Instituto Heisenberg, Anuario 2004
39
y el de los objetos en la superficie de la tierra, como ya hemos visto. En esta sección,
utilizando la ley de la gravitación, analizaremos algunos ejemplos interesantes.
Vamos a determinar cual es la velocidad necesaria para que un objeto sea atrapado
por otro en una órbita circular, determinaremos también la velocidad requerida
por un objeto situado en la superficie de un planeta para poder escapar del mismo
y luego utilizaremos ese resultado para definir lo que es un agujero negro desde
el punto de vista clásico. Al final, utilizaremos el concepto de gravedad junto con
el de la conservación de energı́a para resolver el problema de una rampa circular.
3.1.14.
Orbitando un planeta
Cuando vemos en la televisión a un astronauta dando vueltas a la tierra en un
transbordador espacial, es muy interesante observar que flota junto con todos los
objetos presentes en la nave. La razón por la cual ésto sucede es que el astronauta
junto con los objetos y la nave están en caı́da libre alrededor de la tierra, y como
Galileo nos enseñó, todos los objetos caen con la misma velocidad. Una manera
gráfica de ver este fenómeno está representada en la figura 3.1.14. Al lanzar un
objeto desde la cima de la montaña con una velocidad inicial, el objeto alcanza una
distancia antes de caer. En la figura hemos representado tres trayectorias denominadas 1, 2 y 3. Conforme aumentamos la velocidad inicial, la distancia también
aumenta, ası́, la trayectoria 1 tiene la velocidad inicial menor. Si continuamos de
esta manera, llegaremos a la trayectoria final 3, que representa precisamente una
órbita alrededor del planeta. La meta de esta sección es determinar cuál es la
velocidad necesaria para lograr ésto.
El análisis consiste en obtener todas las fuerzas que actúan sobre el cuerpo en
órbita. Sabemos que en cualquier punto de su órbita hay una fuerza dirigida hacia
el centro del planeta, la fuerza de gravedad. Si la masa del objeto en órbita es m, la
masa del planeta M y el radio de la órbita es R (que en el caso del transbordador
espacial podemos tomar como el radio del planeta ya que su altura es en realidad
muy pequeña), entonces la magnitud de la fuerza de gravedad que el planeta ejerce
sobre el objeto en órbita es
FG =
GM m
,
R2
(3.13)
en donde no hemos incluı́do el signo negativo ya que sólo estamos interesados
en la magnitud. Si ésta fuese la única fuerza sobre el objeto, este no orbitarı́a y
simplemente se dirigirı́a hacia el centro del planeta, chocando irremediablemente
en la superficie. Por lo tanto, debe de existir otra fuerza actuando sobre él. Esta
es la fuerza centrı́fuga dada por
FC =
mv 2
.
R
(3.14)
Esta fuerza contraresta a la de gravedad y trata de alejar al cuerpo del planeta.
Entonces, si lo que queremos es que el objeto permanezca en una órbita alrededor
40
1
2
3
Figura 3.8: Tres trayectorias con diferentes velocidades iniciales. La velocidad inicial de la trayectoria 3 fue suficiente para lograr orbitar el
planeta.
del planeta, lo que necesitamos es que los dos fuerzas tengan la misma magnitud
y asi se cancelen la una a la otra, dejando al cuerpo libre, es decir
r
GM m
GM
mv 2
=
→v=
.
(3.15)
2
R
R
R
Es importante notar que la expresión que acabamos de obtener para la velocidad
inicial necesaria depende solamente de las caracterı́sticas del planeta, es decir, no
importa la forma ni la masa del objeto que queremos poner en órbita, la velocidad
sólo depende del planeta.
3.1.15.
Escapando de un planeta
Imaginemos la siguiente situación: Nos encontramos en la superficie de un planeta y queremos lanzar un objeto hacia arriba de tal manera ¡que nunca regrese!
Lo que deseamos encontrar es la velocidad mı́nima necesaria para que ésto suceda
(es fácil convencernos de que si lanzamos algo con una velocidad muy pequeña
aquı́ en la tierra, el objeto regresará).
Para resolver este problema utilizaremos la ley de la conservación de la energı́a.
Para un objeto en el campo gravitacional de un planeta existen dos tipos de
energı́a, la potencial y la cinética. La expresión de la energı́a potencial es normalmente mgh, en donde h representa la altura con respecto a la superficie. Una
cosa que sabemos es que nosotros tenemos la libertad de escoger el punto en donde
la energı́a potencial es cero, por ejemplo, al escribirla como mgh hemos decidido
Instituto Heisenberg, Anuario 2004
41
que la energı́a potencial es cero en la superficie. Para este problema haremos algo
distinto, utilizaremos la expresión de la energı́a potencial que sale directamente de
la expresión de Newton para la fuerza de gravedad (sólo la magnitud) multiplicada
por la distancia a la que se encuentra el objeto. De esta manera, para un objeto
en la superficie del planeta, la energı́a potencial es
EP =
GM m
GM m
R=
.
R2
R
(3.16)
Ahora, la energı́a potencial la podemos ver como un pozo en el que la partı́cula se
encuentra y queremos darle la energı́a cinética necesaria (o sea la velocidad) para
salir de él. Igualando entonces ambas energı́as obtenemos
r
1
2GM
GM m
2
= mv → v =
,
(3.17)
R
2
R
en donde hemos despejado la velocidad. Esta velocidad entonces es la deseada y le
damos el nombre de velocidad de escape. Otra vez, al igual que en el caso anterior,
la velocidad de escape sólo depende de las caracterı́sticas fı́sicas del planeta y no
del objeto.
¿Qué es lo que nos dice la ecuación (3.17)? Nos dice que dado un objeto (planeta,
estrella, etcétera) de masa M y radio R, la velocidad que necesitaremos para salir
de su atracción gravitacional está dada por v.
Este resultado nos permite analizar un objeto muy famoso dentro de la fı́sica,
nos referimos a los agujero negros. Clásicamente podemos definir a un agujero
negro como un objeto cuya masa y radio son tales que la velocidad necesaria para
escapar de él, o sea su velocidad de escape, sea mayor a la velocidad de la luz.
Ya que de acuerdo con la teorı́a especial de la relatividad de Einstein, la mayor
velocidad posible es precisamente la de la luz, entonces nada, ni la luz misma,
podrá salir de nuestro objeto, y por eso el nombre.
Entonces, si la velocidad de escape es mayor a la velocidad de la luz, c, tenemos
de la ecuación ( 3.17)
r
2GM
c < v=
R
Rc2
,
→ M>
2G
y ası́ obtenemos la masa necesaria (dado un radio) para obtener un agujero negro.
3.1.16.
Manteniéndose en la rampa
El último problema que analizaremos es el de una rampa circular. Queremos
determinar la altura mı́nima necesaria hmin a la que se debe soltar un cuerpo en
una rampa circular tal que pueda dar la vuelta sin caerse. La figura 3.1.16 muestra
la situación.
42
A
C
R
hmin
B
Figura 3.9: Rampa circular de radio R. Queremos determinar la altura
mı́nima hmin tal que la pelotita pase la rampa circular sin caerse.
Primero utilizamos conservación de energı́a para determinar la velocidad en el
punto mas bajo de la rampa. Si la pelotita partió del reposo en el punto A, entonces
su energı́a total E es igual a la energı́a potencial inicial, es decir E = mghmin .
Entonces, cuando la pelota llega al punto B de la rampa que es donde comienza
el cı́rculo, su energı́a potencial es cero y por lo tanto toda la energı́a es cinética,
ası́ obtenemos
p
1
2
(3.18)
mvB
= mghmin → vB = 2gh ,
2
en donde vB es la velocidad en el punto B. Ası́ pues al saber la altura h ya sabemos
con qué velocidad llega a B. Ahora calculemos la energı́a en el punto C. La energı́a
total será la suma de la potencial y la cinética. La energı́a potencial en C es mg2R.
Entonces la cinética tiene que ser
EKC
=
E − mg2R = mgh − 2mgR
p
1
2
mvC
= mg(h − 2R) → vC = 2g(h − 2R) .
→
2
(3.19)
Dada ahora una altura h podemos saber exactamente la velocidad en el punto
C. Lo que necesitamos saber para resolver nuestro problema es: ¿Qué velocidad
necesitamos para que la pelota no caiga? La respuesta está dada otra vez por la
comparación de fuerzas. Por un lado tenemos la atracción gravitacional que jala
hacia abajo y por otro la fuerza centrı́fuga que empuja hacia arriba. Si queremos
que no caiga, necesitamos una velocidad tal que la fuerza centrı́fuga sea al menos
tan fuerte como la gravitacional:
FC = F G →
2
p
mvC
= mg → vC = gR .
R
(3.20)
Ahora bien, sustituyendo este valor de la velocidad necesaria en C en (3.19) y
Instituto Heisenberg, Anuario 2004
43
despejando para h obtenemos que la altura mı́nima necesaria es:
p
gR =
p
2g(hmin − 2R) → hmin =
5
R.
2
(3.21)
Debemos mencionar que esta solución es válida sólo para el caso en el que no
hay fricción y la rampa es circular.
3.1.17.
Conclusiones
Hemos discutido brevemente acerca de la historia de la fı́sica, desde Galileo
hasta hoy en dı́a, con el propósito de motivar el estudio de la misma. Después
nos enfocamos en una descripción más detallada de la dinámica de Newton y
resolvimos algunos problemas básicos e interesantes.
44
Capı́tulo 4
Curso de Matemáticas
45
46
Instituto Heisenberg, Anuario 2004
4.1.
47
Construcciones con regla y compás
y su relación con álgebra
Ricardo A. Sáenz 1
Instituto Heisenberg y Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo # 340
Colima, Colima, México, 28045
A continuación enlistamos los temas que se presentaron en el curso de matemáticas
del Instituto Heisenberg.
1. Construcciones y operaciones con regla y compás
a)
Operaciones básicas: suma, resta, multiplicación, división
b) Raı́z cuadrada
c) Polı́gonos regulares
d ) Números construı́bles
2. Relación con álgebra
a)
Ecuaciones de la recta y la circunferencia
b) Intersecciones y raı́ces de ecuaciones cuadráticas
3. Raı́ces de polinomios
a)
Polinomios y operaciones
b) Factorización y divisibilidad
c) Polinomios irreducibles
4. Teorı́a de campos
a)
Campos de números
b) Números racionales
√
c) Números de la forma a + b 2
d ) Extensiones algebraicas
e)
Índice de una extensión
5. Campos y constructibilidad
a)
Números construı́bles y raı́ces de polinomios
b)
Índice de un número construı́ble
1 [email protected]
48
c) Constructibilidad y extensiones
6. Aplicaciones y ejemplos
a)
Duplicación de un cubo
b)
Trisección de un ángulo
c) Polı́gonos regulares y números primos de Fermat
Capı́tulo 5
Pláticas de Fı́sica
49
50
Instituto Heisenberg, Anuario 2004
5.1.
51
Folklore en la Fı́sica.
De los Quarks al Cosmos
Alfredo Raya Montaño1
Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo #340
Colima, Colima, México, 28045
5.1.1.
Introducción
En el principio habı́a vacı́o, nada, ni luz, ni sonido, ni... ¡Mentira! No tenemos
ni la más remota idea de cómo empezó el universo. A lo más tenemos una vaga
idea de lo que sucedió unos instantes después de que el universo se creó. La nada
explotó –quizá por capricho del creador– y se creó el espacio y el tiempo. Entonces surgió la energı́a y luego la materia. Las partı́culas chocaron unas con otras y
de ahı́ nacieron otras partı́culas. El espacio y el tiempo empezaron a hervir, por
lo que brotaban y se evaporaban burbujas de agujeros negros, galaxias y todo.
A medida que el universo se expandı́a, se iba enfriando y se hizo menos denso.
Se formaron los protones y los neutrones, luego los núcleos y de ellos inmensas
nubes de polvo que continuaron expandiéndose y condensándose para formar una
estrella por aquı́, una galaxia por allá y un planeta acullá. Sobre uno de estos planetas, absolutamente nada extraordinario, orbitando una estrella como hay tantas
en una brazo de las tan comunes galaxias espirales, entre los océanos y los continentes que emergı́an, un montón de moléculas orgánicas empezaron a reaccionar
y construir proteı́nas y empezó la vida. Las plantas y los animales surgieron a
partir de organismos más simples, y eventualmente surgió el hombre. Los seres
humanos eran diferentes porque fueron la única especie que sentı́a curiosidad por
su entorno. Al paso del tiempo se dieron mutaciones, y un conjunto extraño de
humanos comenzó a andar por ahı́. Eran arrogantes. No se contentaban con disfrutar de la majestuosidad del universo. Siempre se preguntaron ¿Cómo? ¿Cómo
se creó el universo? ¿Cómo el universo es responsable de la increible variedad de
objetos que hay en él: estrellas, planetas, conejos, corales . . . el cerebro humano?
Los mutantes se hicieron una pregunta que fue respondida sólo después de milenios
de búsqueda y por la dedicación transmitida de maestro a estudiante por cientos
de generaciones. Claro que esta pregunta también condujo a respuestas embarazosamente erróneas. Afortunadamente los mutantes nacieron sin el sentido de la
vergüenza. Se llamaban fı́sicos. Ahora, tras reexaminar esta pregunta por más de
dos mil años –apenas una pesteñeada en la historia del universo– es que podemos
hechar un vistazo a la historia completa de la creación. En nuestros telescopios y
microscopios, en nuestros observatorios y laboratorios (apuntes y computadoras)
podemos apenas ver la belleza y extraordinaria simetrı́a que gobernó los prime1 [email protected]
52
ros instantes de nuestro universo. Casi podemos verlo, aunque la imagen aún no
es clara, por lo que tenemos la sensación de que algo oscurece nuestra visión –el
lado oscuro de la fuerza que empaña, esconde, ofusca la simplicidad intrı́nseca de
nuestro mundo.(1)
Nuestro trabajo puede parecer arduo y poco accesible para el ciudadano común,
pero nosotros mismos no sacrificamos nuestro sentido del humor y de lo cotidiano
en aras del conocimiento. Por el contrario, siempre estamos buscando la manera
más sencilla de explicar todo (con peras y manzanas si es posible), y si podemos en
el inter hacer algún chiste o comentario jocoso, mejor. Es por eso que he decidido
presentar un poco del folklore de los fı́sicos, esto es, la manera en que nosotros
creemos que se formó el universo y cómo se mantiene tal como lo conocemos, a los
miembros del Instituto Heisenberg 2004. Comenzaremos haciendo un recuento de
la búsqueda de los bloques fundamentales de los que está hecho nuestro universo,
para después hechar un vistazo a lo que sucede fuera de nuestro planeta Tierra.
5.1.2.
Ideas que perduran
A todos nos interesa saber qué es el universo. Para respondernos esta pregunta
tenemos que desde que el hombre es hombre ha tratado de conocer cuáles son los
ingredientes de los que está hecho y cómo logra mantenerse unido. Algunas ideas
han sido verdaderamente estúpidas y de corta duración (afortunadamente). Otras,
por su simplicidad y belleza perduran hasta nuestros dı́as.
Un claro ejemplo es el átomo, creado por el filósofo griego Demócrito. El átomo
de Demócrito literalmente significa indivisible, y la idea es que todas las cosas están
hechas de ellos, es decir, de entidades indivisibles. Obviamente el átomo griego es
mucho más simple que el átomo que actualmente conocemos. Era simplemene una
pelotita de materia.
Pero para poder llegar a la idea del átomo actual, tuvieron que pasar miles de
años, la evolución de esta idea tuvo algunas etapas intermedias. Recordemos por
ejemplo la aportación de Dalton que decı́a que los átomo eran esferitas de carga
neutra y que poseı́a todas las propiedades quı́micas de los diferentes elementos,
pero que todos ellos eran múltiplos enteros del átomo de hidrógeno. Años más
tarde, Mendeleev pudo clasificar estos elementos quı́micos en una tabla, la famosa
tabla periódica de los elementos, por sus propiedades quı́micas: sus masas, sus
valencias, sus enlaces y todo. El gran triunfo de Mendeleev fue que pudo predecir
la existencia de elementos desconocidos, que poco a poco fueron ocupando su
lugar en la tabla. En la actualidad se conocen más de cien de estos elementos,
y cien parece un número exageradamente grande de diferentes constituyentes del
universo.
Afortunadamente, a finales del siglo XIX, ya que la tabla periódica habı́a probado su eficiencia y los fı́sicos empezaron a jugar con rayos, imanes y tubos, Thompson estableció que el átomo en realidad era una entidad con una masa definida,
de carga eléctrica neutra pero distribuı́da como un pudı́n con pasas, es decir, una
carga positiva que ocupaba casi todo el volumen del átomo y unas pasas de carga
Instituto Heisenberg, Anuario 2004
53
eléctrica negativa, que tiempo después se les llamó electrones. Rutherford pudo
determinar después que en realidad el átomo consta de un núcleo muy pequeño en
el cual se concentra casi toda la masa del átomo y era orbitado por los electrones.
Esto lo pudo determinar de una manera simple y violenta: haciéndo chocar átomos
y estudiando los fragmentos (partı́culas) que resultaban de estas colisiones.
Esta es otra idea simple que en la actualidad se sigue empleando. Si queremos
saber si alguna partı́cula es fundamental, hay que hacerla colisionar a muy altas
energı́as y si se rompe no lo es.
5.1.3.
Las primeras partı́culas fundamentales
Con los experimentos de Rutherford, se pudo determinar que el núcleo atómico
está compuesto por dos tipos de partı́culas, los protones, de carga positiva y unas
2, 000 veces más pesados que el electrón, y los neutrones, eléctricamente neutros y
un poco más pesados que el protón. Tenı́amos pues que el universo estaba hecho de
protones, neutrones y electrones. Pero un dı́a, a alguien se le ocurrió hacer chocar
a los protones entre sı́.
Como resultados de esas colisiones, se fue descubriendo poco a poco todo un
zoológico de partı́culas, además de los protones y neutrones. Piones, Lambdas,
Sigmas, Etas y demás. Algunas tenı́an una masa intermedia entre la del electrón
y la del protón, por lo que se les llamó mesones. Otros eran más pesados que los
neutrones. A estos se les llamó bariones. Lo cierto era que todas estas partı́culas
interactuaban entre sı́ fuertemente, es decir, la fuerza entre ellas era mayor que
la atracción o repulsión que sentı́an entre sı́ por su carga eléctrica. Por esto se les
llamó hadrones (hadros en griego quiere decir fuerte).
Fue una época de desencanto y desilusión para muchos, pues ya iban más de 200
partı́culas diferentes conocidas. Entonces, a alguien se le ocurrió que todos los hadrones podı́an estar hechos de unas partı́culas llamadas quarks. Ası́ se emprendió la
búsqueda de estos objetos.
Paralelamente, en los rayos cósmicos que se producı́an en la alta atmósfera, se
fueron descubriendo unas partı́culas más ligeras que los mesones. A estos se les
llamo leptones, y a diferencia de los hadrones, ellos interactúan entre sı́ y con los
quarks débilmente.
Los fı́sicos empezaron entonces a buscar los quarks y los leptones. El leptón más
famoso es el electrón, que ya tiene más de 100 años de haber sido descubierto. Le
acompañan el muón y más recientemente el tauón. A cada uno de ellos les acompaña un neutrino, un neutroncito cuya masa es muy pero muy pequeña, millones
de veces más pequeña que la del electrón. Ası́ que hay seis leptones conocidos,
agrupados en tres familias diferentes. Los quarks comenzaron a aparecer en los
años sesenta. Aparecieron primero el u, cuyo nombre es la inicial de up (arriba), le
siguió el d, de down (abajo). Luego apareció el quark extraño s (del inglés strange)
y el encanto c (charm). Más recientemente apareció el b, (bottom o fondo) y el
último de ellos que se descubrió apenas en 1995 es el t o top (cima). También hay
seis quarks, y también se agrupan en tres familias.
54
Los quarks no se descubrieron solitos, de hecho, es imposible ver un solo quark.
Siempre aparecen de dos (mesones) o tres (bariones) o incluso, como recientemente
se descubrió, de cinco (pentaquarks).
5.1.4.
Las interacciones fundamentales
Ya conocimos las partı́culas, pero entender cómo se mantienen unidas es equivalente a estudiar cómo interaccionan entre sı́. Se conocen en la naturaleza cuatro
interacciones fundamentales. Dos de ellas nos son familiares en el mundo macroscópico, la Gravitacional y la Electromagnética, y las otras dos hacen sentir su
presencia sólo dentro del núcleo atómico y son llamadas Débil y Fuerte, respectivamente. Cada partı́cula interactúa con las demás intercambiando mediadores de
la interacción.
La interacción gravitacional es la atracción que sienten dos partı́culas por su
masa. La teorı́a que describe esta interacción se llama gravitación cuántica, y se
supone que existe un sólo mediador, el gravitón, que aún no ha sido descubierto
pero que se supone no tiene masa. Esto significa que el alcance de la interacción
es infinito. La intensidad con la que dos partı́culas como el protón interactúan
gravitacionalmente es de unos 10−40 , tan pequeña que es casi imperceptible.
La interacción electromagnética es responsable de la atracción o repulsión de
las partı́culas por su carga eléctrica. La teorı́a que la describe es la electrodinámica
cuántica o QED por sus siglas en inglés y también tiene un sólo mediador: el fotón,
que fue descubierto también hace unos cien años y que se sabe no tiene masa, por
lo que la interacción electromagnética también es de rango infinito. Un electrón y
1
, que es
un protón interactúan electromagnéticamente con una intensidad de 137
pequeña pero considerable.
Muy débil es la interacción responsable del decaimiento radiactivo, de ahı́ su
nombre. Sus mediadores son las partı́culas W + , W − y Z 0 . La masa de cada una de
ellas es aproximadamente 90 veces más grande que la del protón. Esto se traduce en
que la interacción débil es de corto alcance (∼ 10−18 m). La teorı́a que la describe
es la Dinámica Cuántica Débil o QWD por sus siglas en inglés, y la intensidad con
la que dos partı́culas interactúan débilmente es 10−5 , de ahı́ su nombre.
Por último, la interacción fuerte (también llamada de color) es la responsable de que los quarks estén confinados adentro del núcleo. Es más fuerte que la
electromagnética, de lo contrario las cargas iguales se repelerı́an. La teorı́a que
la describe es la cromodinámica cuántica o QCD. Existen ocho mediadores para
esta interacción, llamados gluónes, cada uno sin masa. Esta interacción es muy
curiosa, sucede que si dos quarks están muy juntos uno del otro, su interacción es
casi nula; es decir, no interactúan, pero a medida que se alejan, la intensidad de
la interacción crece (hasta uno o más) por lo que obliga a los quarks a no alejarse
(como si estuvieran atados por un resorte).
Instituto Heisenberg, Anuario 2004
5.1.5.
55
No está mal, pero...
Tenemos entonces que, hasta donde sabemos, el universo está compuesto de
leptones y quarks, seis y seis, es decir, doce bloques fundamentales son los que
forman al universo. Ya no podemos romper estos bloques, aunque los hagamos
colisionar con las energı́as más altas que podemos producir en los laboratorios.
Estas partı́culas interactúan entre sı́ de cuatro maneras distintas, que resultan del
intercambio de trece diferentes mediadores.
Sin embargo, lo que vemos es que por cada una de estas partı́culas fundamentales, existe una antipartı́cula. O sea que la materia siempre va acompañada de
la antimateria. Esto eleva a veinticuatro el número de bloques fundamentales del
universo.
Aún más, hay por ahı́ algunos fantasmas. Estos son, algunas partı́culas que no
podemos ver, pero que existen. Ejemplo de ellos es la partı́cula de Higgs, que se
supone es la responsable de darle las masas a cada partı́cula. Para entender el
juego de este fantasma, imagina que eres una partı́cula fundamental. La oposición
que presenta el aire cuando caminas, que es casi nula, hace que te sientas muy
ligero(a), como si no tuvieras masa. Si intentas hacer lo mismo en una alberca,
experimentas oposición del agua; ahora si te sientes pesado(a). El fantasma de
Higgs actúa como la alberca. Cuando una partı́cula pasa por esta alberca, adquiere
su masa. La partı́cula de Higgs es la más buscada en los laboratorios en estos dı́as.
Entonces, veintucuatro partı́culas, trece mediadores y un fantasma (que también
se considera mediador), no está mal, pero hay problemas. Uno de ellos es estético,
¿Cómo es posible que haya más partı́culas que mediadores? ¿Qué tal si el universo
tuviera igual número de unos que de otros? Esto se llama Supersimetrı́a o SUSY.
En esta teorı́a, suponemos que cada partı́cula, sea bloque o mediador, materia
o antimateria, tiene asociado un compañero supersimétrico. El nombre de cada
compañero se obtiene simplemente anteponiendo una “s” al nombre de la partı́cula
que acompaña, por ejemplo, al electrón lo acompaña el selectrón, a los quarks, los
squarks, etcétera.2 Desafortunadamente no se ha descubierto ninguna partı́cula
supersimétrica, aunque en la lista de las más buscadas ocupan la segunda posición.
Con la idea de supersimetrı́a, hay entonces setenta y seis diferentes partı́culas
que forman al universo y lo mantienen unido. Pero no es la idea más descabellada (o senzata, dependiendo del enfoque) que ha surgido. Algunos fı́sicos nos piden
que imaginemos que las partı́culas, supersimétricas y no supersimétricas, no fueran
puntuales sino ondas estacionarias en ciertas cuerdas o membranas. Entonces, en
lugar de partı́culas colisionando, tendrı́amos cuerdas anudándose. Bueno, esta es la
idea fundamental de la Teorı́a de Supercuerdas, o la Teorı́a del Todo que está tan
de moda entre los investigadores. El único problema que tiene esta teorı́a es que
deberán pasar muchos (quizás demasiados) años antes de que se pueda tener alguna
evidencia experimental de la existencia de esas supercuerdas.
Cuerdas o partı́culas, supersimétricas o nada simétricas, lo que sabemos de los
2A
hit.
manera de broma, dicen algunos fı́sicos que qué bueno que no hay una partı́cula llamada
56
bloques fundamentales del universo es que forman y mantienen unido todo lo que
nos rodea, incluso nosotros mismos. Esto también ha sido responsable de grandes
avances y retrocesos en cuanto al conocimiento que tenemos del mundo fuera y
dentro de nuestro planeta. Vale la pena echar un vistazo al exterior y maravillarnos
con lo que vemos.
5.1.6.
Viendo hacia el cielo
Ver hacia el cielo ha sido otra de las grandes pasiones del hombre, desde la
antigüedad hasta nuestros dı́as. Hemos observado una increible variedad de objetos
diferentes tanto en nuestra vecindad como en distancias que son casi inconcebibles
y que están a nuestro alcance.
Los primeros objetos que pudimos investigar, aparte del sol y la luna, fueron una
colección de rocas que orbitan alrededor del Astro Rey, algunas más grandes, otras
más chicas que la tercera –la Tierra– en donde habitamos y que llamamos planetas.
A estos les dimos nombres de dioses griegos o romanos, Mercurio, Venus, Marte,
Júpiter, Saturno,Urano, Neptuno, Plutón y Perséfone. Algunos de ellos también
tienen una o muchas lunas, otros se distinguen por su color, por sus anillos o por
sus manchas. A este conjunto de objetos le llamamos Sistema Solar, y nos dimos
cuenta que en él hay además del sol, sus planetas y sus lunas, asteroides y cometas.
Estos objetos son algunas veces venerados, otras reconocidos como portadores de
malas noticias, pero en todos los casos, son eventos que no dejan de fascinarnos,
por más veces que los hayamos visto.
Observamos que nuestro planeta es parte de un conjunto de millones y millones
de estrellas que forman nuestra galaxia, la Vı́a Láctea, y que nuestra galaxia es
vecina de muchas otras galaxias, en nuestro cúmulo local, y que este cúmulo es
parte de un Supercúmulo de galaxias. No nos habı́amos dado cuanta hasta hace
poco que nuestro universo era tan grande.
5.1.7.
Vida y muerte de una estrella
Aunque en un principio creı́amos que todos los objetos celestes habı́an estado
ahı́ por siempre, nos empezamos a dar cuenta de que al igual que nosotros, las
estrellas nacen y se mueren. Nacen por la atracción gravitacional del polvo cósmico,
en lo que se llama una protoestrella, que forma después un núcleo activo de la
estrella. Al interior de este núcleo, por combustión, emana energı́a en forma de
radiación. Todas las estrellas consumen el material que pudieron juntar en su etapa
primordial y en su etapa final aumentan su tamaño hasta que en una explosión
liberan toda la energı́a que les queda.
Si la protoestrella sólo pudo colectar poco material cósmico, la estrella que se
forma es una Enana Café, un pequeño objeto casi sin masa que pasa su ciclo casi
inalterada, sólo aumenta su tamaño. Si pudo conseguir un poco más de material,
se convierte en una Enana Roja, que luego de aumentar su tamaño, colapsa en
una Enana Blanca, un pequeño objeto con una densidad muy alta de masa. Las
Instituto Heisenberg, Anuario 2004
57
estrellas como nuestro sol se formaron de una protoestrella que podo colectar un
poco más de masa que una Enana Roja. En la etapa crı́tica de nuestro sol, cuando
ya casi agote su material de combustión crecerá hasta formar una Gigante Roja,
que luego evolucionará en una Nebulosa Planetaria y colapsará en una Enana
Blanca. Unas cuantas veces mayor la masa de la protoestrella y lo que se forma es
una Supergigante Azul. Esta evoluciona hacia una Gigante Roja con un núcleo más
activo, que puede volverse nuevamente una Supergigante Azul y luego colapsar a
una Supernova, o pasar directamente a Supernova para encontrar su fin en una
Estrella de Neutrones. Si todavı́a tiene mas masa inicial, la Supergigante Azul
rápidamente se vuelve Supernova y explota, convirtiéndose en un Agujero Negro.
La última posibilidad es que la Supergigante que se forme sea tan masiva, que al
poco tiempo colapse en un Agujero Negro directamente.
Si bien el conocer el tamaño o color de una estrella nos permite también clasificarla en alguna de las categorı́as antes comentadas, es más útil clasificarlas de
acuerdo a su temperatura superficial. Ası́ tenemos como se muestra en el cuadro 5.1, la siguiente clasificación.
Cuadro 5.1: Clasificación de algunas estrellas de acuerdo a su temperatura superficial
Tipo
O
B
A
F
G
K
M
Temperatura ◦ K
> 25000
11000 − 25000
7500 − 11000
6000 − 7500
5000 − 6000
3500 − 5000
< 3500
Ejemplo
Lacertra
Rigel
Vega
Canopus
Sol
Aldebarán
Antares
Para recordar esta clasificación, inventamos una nemotécnia muy sencilla y
jocosa. Basta recordar “Oh Be a Fine Girl, Kiss Me!” para saber si una estrella
es de las más calientes o de las más frı́as en su superficie.
Toda la luz proveniente de las estrellas nos da una clara visión de lo que es
nuestro universo, de cuán grande es y cuánta masa contiene. Pero si juntamos
toda la masa de los objetos visibles con nuestros telescopios, nos encontraremos
con que hay mucha materia que no vemos, que de hecho es mucha más de la que
vemos. Esta se llama Materia Oscura.
5.1.8.
Viendo lo que no vemos
Las imágenes que los grandes telescopios nos ofrecen nos permiten maravillarnos una y otra vez con fenómenos tan comunes como los eclipses, del mismo modo
como eventos tan extraordinarios como el nacimiento o muerte de una estrella.
58
Con las observaciones que hacen, nos podemos dar cuenta de la estructura del
universo a gran escala. Con estos resultados también podemos detectar indicios
de la Gran Explosión que dio origen a nuestro mundo. Detectamos por ejemplo
la llamada Radiación de Fondo, que es la luz primera que salió desprendida en
todas direcciónes luego de la explosión. Con ella podemos determinar lo vasto y
majestuoso que es nuestro universo. Sin embargo, con toda la información de lo
que vemos, no podemos entender lo que sucede a nuestro alrededor. Algo falta.
Los telescopios no sólo buscan imágenes de lo que hay allá afuera, también
buscan lo que no se ve. Buscan materia oscura. Suponemos que el universo en su
mayor parte está compuesto de materia oscura. Esta puede ser WIMPS (Weak
Interacting Massive Particles o Partı́culas Masivas que Interactuan Débilmente)
como neutrinos o partı́culas supersimétricas.
Como los WIMPS interactúan muy débilmente, no hemos podido observarlos.
El reciente descubrimiento de que el neutrino tiene masa, aunque sea muy pequeña, nos da la esperanza de que esta masa que no habı́amos contabilizado sea
responsable de la materia que hace falta en la imagen completa del universo. Pero aún ası́ cabe la esperanza de que la materia que hace falta sea precisamente
la materia supersimétrica. Como no la vemos, no nos hemos dado cuenta de su
existencia, pero a lo mejor está ahı́.
También puede ser que la materia oscura esté conformada por MACHOS (Massive Compact Halo Objects u Objetos Masivos en el Halo de nuestra Galaxia),
como restos de estrellas muertas, es decir Estrellas de Neutrones, Enenas Blancas,
Enanas Cafés, Agujeros Negros, Agujeros de Gusano y tantos y tantos nombres que
han dado lugar a la especulación y a la ciencia ficción. Los MACHOS son objetos
cuyas dimensiones pueden ser de unos kilómetros. Estando tan lejos de nosotros,
resulta casi imposible detectarlos. Lo que sı́ podemos detectar es su presencia,
pues sabemos, por la teorı́a de la relatividad general de Einstein, que los objetos
masivos curvan el espacio a su alrededor. Si podemos detectar luz que se desvı́a
de su trayectoria, estaremos detectando la presencia de uno de estos objetos.
Saber cómo cuándo y en qué condiciones se pueden formar estos objetos es aún
algo que debemos entender. Al hacerlo, estaremos comprendiendo un poco más
sobre la historia misma del universo.
5.1.9.
La historia del universo hasta ahora
Como dijimos, nunca sabremos exactamente cuando se formó el universo. No
sabemos cuando ocurrió la explosión. Sabemos lo que sucedió apenas unos instantes después de que ésta sucedió. Después de 10−43 segundos es cuando comienza
nuestro recorrido por la historia. En esta etapa es cuando posiblemente vivieron
las supercuerdas. Luego no sabemos exactamente qué pasó. De hecho, no sabemos
nada. Nos imaginamos una sopa primordial donde estaban mezcladas partı́culas de
todos tipos, pero sin distinguirse unas de las otras. Donde todas las interacciones
eran una sola. A los 10−12 segundos de la gran explosión es cuando suponemos
actúo el fantasma de Higgs. Una millonésima de segundo de vida tenı́a el univer-
Instituto Heisenberg, Anuario 2004
59
so cuando los quarks se combinaron entre sı́ y empezaron a formar hadrones. Al
segundo de vida, los neutrinos decidieron escapar y seguir interactuando débilmente por todo el universo. Iban tres minutos cuando los hadrones comenzaron a
recombinarse entre sı́ y se formaron los primeros núcleos atómicos. cien mil años
después de la gran explosión se empezaron a formar los átomos. Los fotones de la
Radiación de Fondo empiezan a permear el universo. y poco a poco se empezaron
a formar galaxias, estrellas...y hoy, 1010 años después nos estamos preguntando
cómo pasó todo esto.(2)
Para responderlo, un grupo de seres humanos trabaja arduamente: Somos los
cientı́ficos, fundamentalmente fı́sicos.
5.1.10.
El trabajo de los fı́sicos
Los fı́sicos nos dedicamos a preguntarnos cómo funcionan las cosas en la naturaleza. En ocasiones trabajamos por nuestra cuenta. A veces en pequeños grupos de
trabajo de dos o tres miembros. A medida que las exigencias se hicieron cada vez
más y más grandes, las colaboraciones entre fı́sicos se hicieron más y más numerosas. También comenzó el trabajo interdisciplinario. Prueba de ello son los grendes
aceleradores de partı́culas como el Fermilab y CERN. En estos pequeños pueblitos
se mantienen trabajando cientos de personas en búsqueda de los constituyentes
fundamentales del universo. Otro ejemplo y muy famoso es la NASA, la agencia
norteamericana encargada de poner por vez primera al hombre en la luna. Los
grandes telescopios como el Hubble nos han maravillado con las imgenes que nos
proporcionan del universo. También nos maravilla el hecho de que el microscopio
más grande del mundo mida unos diez pisos de alto, el CDF en Fermilab.
Ya sea solos o en colaboraciones. Famosos u olvidados. Pobres o ricos. En pequeñas aulas o en grandes universidades. Con los equipos más modernos y supercomputadoras, o solo con lápiz y papel, los fı́sicos nos dedicamos a una cosa: tratar
de entender nuestro universo, de los quarks al cosmos.
5.1.11.
Bibliografı́a
(1) L. M. Lederman y C. Hill, The God Particle. Ed. Delta. EE. UU. (1994).
(2) L. M. Lederman y D. N. Schramm, From quarks to the cosmos. Tools of
discovery. Ed. Scientific American Library. EU (1995).
60
5.2.
Óptica: Una Breve Historia
Alfredo Raya Montaño1
Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo #340
Colima, Colima, México, 28045
5.2.1.
Introducción
Las propiedades de la luz quedan convenientemente descritas cuando recordamos los experimentos por medio de los cuales fueron y siguen siendo establecidas.
La óptica es la rama de la fı́sica encargada del estudio de la luz. Se divide en óptica
geométrica, óptica fı́sica y óptica cuántica, dependiendo de las propiedades de la
luz que se desean estudiar. La primera de ellas estudia la propagación rectilı́nea
de la luz, su velocidad finita de propagación, su reflexión en las superficies y su
refracción al pasar por dos medios distintos. La óptica fı́sica estudia la naturaleza
ondulatoria de la luz en fenómenos como la difracción, la interferencia y la polarización. Finalmente, la parte cuántica explora la naturaleza dual onda-partı́cula de
la luz, es decir, estudia aquellas propiedades ondulatorias y corpusculares de la luz
desde el punto de vista de la mecánica cuántica. Mediante una reseña histórica (1)
conoceremos cómo se fueron develando las propiedades de la luz y quiénes colaboraron para ello. Comenzaremos con un breve comentario sobre el por qué de la
fascinación del hombre por los fenómenos ópticos, y seguiremos, etapa por etapa
de la historia humana, el desarrollo que tuvo la óptica y sus impulsores, desde las
primeras civilizaciones, pasando por los antiguos griegos, el medioevo, durante el
renacimiento –la época dorada de la óptica– la revolución que sufrió en los siglos
XVII y XVIII, su pleno establecimiento como un fenómeno de oscilaciones electromagnéticas en el siglo XIX y los impulsos tecnológicos y cientı́ficos que propiciaron
hasta el siglo XX y lo que ha transcurrido del XXI.
5.2.2.
La humanidad y los fenómenos ópticos
La óptica ha sido una de las primeras ramas de estudio de la fı́sica. Desde épocas muy remotas el hombre ha sentido atracción y fascinación por los fenómenos
luminosos. Siempre hemos observado las estrellas, las luciérnagas, los relámpagos
y rayos. Más recientemente los metales al rojo vivo, e incluso algunas bacterias
y hongos luminosos. Todos estos son ejemplos de fuentes luminosas existentes en
la naturaleza. También hemos sido capaces de inventar algunas fuentes luminosas como las velas, lámparas, faroles, aparatos electrodomésticos, tintas, pinturas,
etcétera. Estas son fuentes luminosas artificiales.
Hemos sido capaces de distinguir las propiedades por las que los objetos emiten
luz, la fosforecencia, la fluorescencia e incluso la bioluminescencia.
1 [email protected]
Instituto Heisenberg, Anuario 2004
61
Hemos entendido que todos los fenómenos luminosos se producen por la interacción de la luz con la materia. Claro está que la interacción entre luz y materia no
sólo afecta a la luz; la materia también puede resultar afectada de diversas formas.
Según la forma en que se comportan al ser iluminados por un rayo de luz, los
cuerpos sin luz propia pueden ser opacos, cuado no permiten el paso de la luz;
transparentes, cuando permiten el paso total de la luz; y traslúcidos, que permiten
el paso de la luz sólo en forma parcial.
La propagación rectilı́nea de la luz determina que cuando los cuerpos opacos se
interponen en su trayectoria se produce su sombra, es decir, se produce una zona
absolutamente privada de luz situada detrás del cuerpo opaco. Cuando la fuente
luminosa es de gran tamaño, también aparece una zona de penumbra en la cual
existe una iluminación parcial.2
5.2.3.
La óptica en la antigüedad
Entre los vestigios de las antiguas civilizaciones hemos encontrado objetos que
ponen de manifiesto el interés del hombre por los fenómenos ópticos. Por ejemplo,
en las ruinas de Nı́nive, antigua capital Asiria, fue encontrada una pieza de cristal
de roca pulida en forma de lente convergente. En Creta se encontraron dos lentes
que datan de 1200 a.C. y que se cree fueron usadas para aumentar el tamaño de
imágenes vistas a través de ellas.
Más antiguos aún son los trozos de espejos metálicos encontrados entre los restos
de tumbas egipcias. Al principio se creı́a que eran adornos, pero ya que no se han
encontrado señal alguna de que los artistas de la túmbas de los faraones hayan
usado fuego para iluminarse y decorar las cámaras funerarias, se piensa que estos
espejos se usaban para desviar la luz del sol hacia el interior de éstas.
La influencia de los griegos se hizo sentir en el Egipto antiguo, que en este
perı́odo de influencia almacenó el conocimiento de la época en grandes bibliotecas.
En una de ellas se encontró un documento de autorı́a griega que habla de algunas
ilusiones ópticas, como el aparente agrandamiento de tamaño del sol y la luna
cuando se acercan al horizonte.
En el siglo V. a.C. el escritor Aristófanes (∼456-380 a.C.) hablaba en sus comedias de piedras transparentes que sirven para encender fuego. Resulta sorprendentemente extraño que los griegos, precursores de la cultura occidental, no hayan
utilizado el conocimiento que tenı́an sobre las lentes y los espejos para ampliar
imágenes y que sólo las hayan utilizado como encendedores.
5.2.4.
La óptica y los antiguos griegos
Los griegos comenzaron el estudio sistemático del conocimiento de la época, en
particular de la luz. Entre ellos, al estudiar la luz generalmente se confundı́a al
fenómeno luminoso con la sensación de la visión. Para Pitágoras (∼569-475 a.C.) y
2 Este
efecto se observa especialmente en los eclipses cuando la tierra o la luna se interponen
frente al sol, poroduciéndose un cono de sombra y un cono de penumbra.
62
sus seguidores, nosotros vemos los objetos por la proyección de imágenes lanzadas
desde ellos hacia nuestros ojos. Euclides (∼325-265 a.C.) y Platón (427-347 a.C.),
en contraparte, afirmaban que en nuestros ojos se produce la sensación de ver por
los rayos de luz que salen de ellos e inciden sobre los objetos.
Aristóteles (384-322 a.C.) rechazaba estas dos teorı́as. Para él, el papel que juega
el medio que hay entre los objetos y nuestros ojos es fundamental. Decı́a que cuando
algún medio, como el aire o el agua está en reposo, hay oscuridad; y que se vuelve
activo cuando se excita por el fuego3 de los objetos, volviéndose transparente. Los
colores de los objetos pueden viajar de esta manera hacia nuestros ojos, y cada
uno de ellos es una medida del estado de actividad del medio.
Los matemáticos griegos fueron los primeros en preocuparse por dar una descripción geométrica de los fenómenos ópticos. Respondı́an sencillamente, por ejemplo,
a la pregunta de por qué los objetos se vuelven invisibles a la distancia. Ellos explicaban que como los rayos visuales que salen del ojo son divergentes, es decir, cuanto
más lejos, más separados están uno de otro, estos nunca se juntan, y por lo tanto
nunca forman la imagen de objetos distantes. Euclides, el famoso geómetra, pudo
concluir de sus observaciones que la luz viaja en lı́nea recta. Determinó también
la manera en la que se refleja la luz en los espejos.
La historia más famosa del dominio de la luz que tenı́an los griegos es la de
Arquı́mides (287-212 a.C.) y el ejército de Siracusa, quienes emplearon espejos
cóncavos para incendiar las velas de los barcos invasores romanos. Aunque el genial
plan de defensa de los siracusanos falló y Arquı́mides fue muerto erróneamente
por un centurión, sus ideas impactaron hasta los dos primeros siglos de nuestra
era. Herón (∼10-75 d.C.), por ejemplo, estudió los espejos en todas sus formas:
planos, cóncavos y convexos, y logró formular la ley de refexión especular. También
encontró que el rayo, sea o no reflejado, sigue siempre el camino más corto entre
el ojo y el objeto.
Los griegos, particularmente Claudio Ptolomeo (∼85-165 d.C.), también sintieron interés por la refracción de la luz. Este célebre astrónomo construyó el primer
aparato para medir con exactitud los ángulos de incidencia y refracción, aunque no
pudo formular la ley que gobierna este fenómeno. Las investigaciones de Ptolomeo
dan clara explicación al porqué la luna y el sol aparentemente aumentan su tamaño al acercarse al horizonte: La refracción producida por la atmósfera aumenta
cuado estos cuerpos se alejan del cenit.
5.2.5.
La óptica en la Edad Media
Durante el oscurantismo occidental, es decir, en la época del Imperio romano y
la mayor parte de la Edad Media, prácticamente pasaron los años sin gran progreso
en la historia de la fı́sica. Las contribuciones más significativas a la óptica medieval
se deben sin duda al célebre cientı́fico árabe Ibn al-Haytham, conocido en Europa
como Alhazan o Al-Hazen (965-1040).
3 Recuerdese
que para los griegos, los elementos eran Aire, Agua Fuego y Tierra.
Instituto Heisenberg, Anuario 2004
63
Los árabes se habı́an dado a la tarea de examinar y mejorar las obras de los
griegos, y Alhazan fue uno de los más destacados partı́cipes. El llamado Padre de
la Óptica Moderna logró establecer una distinción clara entre la luz como fenómeno
fı́sico y el ojo humano como detector. Hizo importantes adelantos en la óptica de
lentes y espejos y fue el primero en analizar correctamente los principios de la
cámara oscura. Además, anticipó que la luz viaja con una velocidad finita. De su
obra hemos heredado algunas de las palabras usadas para identificar las partes del
ojo: retina, córnea, humor acuoso, humor vitreo, etcétera.
En Europa, y sólo hasta tres siglos después, Roger Bacon (1214-1292) estudió a
fondo la obra de la escuela árabe. Se dice que fue el inventor de los anteojos,
aunque hay que recordar que por aquella época, en el norte de Italia, los artesanos
venecianos eran hábiles en la manufactura y pulido de cristales, y es posible que
algún héroe anónimo haya desarrollado este invento antes que Bacon. Las ideas
de este monje franciscano eran innovadoras, particularmente en su llamado a la
ciencia experimental, pero éstas no encontrarı́an eco sino hasta el Renacimiento.
5.2.6.
La óptica y la Revolución Renacentista
Durante el Renacimiento (siglos XVI y XVII) la óptica participó en la revolución que se dio en las artes y en las ciencias. Los cientı́ficos abandonaron la
filosofı́a meramente especulativa para el desarrollo cientı́fico y se pusieron a hacer
experimentos. En esta época, la óptica adquiere un gran desarrollo tanto en el
plano experimental como en el teórico. La más importante contribución de la
revolución renacentista al desarrollo de la óptica fué la invención de instrumentos
de observación. De ellos, sin duda, los más importantes son el telescopio y el
microscopio.
El gran genio renacentista Leonardo da Vinci (1452-1519) formuló una teorı́a
de la visión en la que compara al ojo con una cámara oscura. De hecho, hizo
un muy buen uso de este dispositivo para realizar sus famosos croquis e incorporar los principios de la perspectiva en sus pinturas, al igual que muchos de sus
contemporáneos colegas.
Otro grande de todos los tiempos, Galileo Galilei (1564-1642): el padre de la
fı́sica experimental, desarrolló en 1610 el primer dispositivo “para espiar, que hace
que los objetos distantes se vean cercanos”,(2) luego de haber escuchado rumores
de que un colega holandés habı́a desarrollado uno semejante. Con telescopio en
mano, Galileo observó en firmamento e hizo grandes aportaciones a la astronomı́a,
como el descubrimiento de cuatro de las lunas de Júpiter y todo esto sin la ley de
refracción, que hasta 1621 fue desarrollada por Willebrord Snell (1580-1626).
Debemos recordar la persecución de la que era objeto Galileo. Algunos personajes de su época refutaban sus observaciones de las lunas de Júpiter diciendo que
eran meras ilusiones ópticas. Pero otros, como el célebre astrónomo Johanes Kepler
(1571-1630), a quien Galileo obsequió uno de sus telescopios, estaban maravillados
con este invento. De hecho, Kepler perfeccionó el telescopio y lo utilizó durante
sus tan famosas observaciones sobre los movimientos de los cuerpos celestes, de
64
las cuales se desprendieron las leyes que ahora llevan su nombre. El trabajo de
Kepler(3) sirvió como libro de texto para los estudiosos de la óptica por muchos
años.
La obra de Galileo fue un best-seller de su época. Los fabricantes de lentes
se encargaron de armar telescopios más y más grandes. Entre ellos destaca el
acaudalado y famoso fı́sico holandés Christian Huygens (1629-1695), hábil constructor y tallador de lentes, quien más tarde jugarı́a un papel excepcional en el
desarrollo de la óptica. Entre sus múltiples ocupaciones, Huygens se dió tiempo
de jugar con sus amigos a descubrir los anillos de Saturno.
En 1650, Pierre de Fermat (1601-1665) descubrió una forma de explicar tanto la
reflexión como la refracción de la luz a partir de un solo principio, que ahora lleva
su nombre. El Principio de Fermat sostiene que de todas las posibles trayectorias
que la luz puede tomar –ya sea reflejándose en un espejo o refractándose al pasar
por dos medios distintos–, elige sólo aquella que puede recorrer en el menor tiempo
posible.
El astrónomo danés Olaf Römer (1644-1710) se habı́a dedicado a observar los
perı́odos de rotación de las lunas de Júpiter. En 1676 descubrió que cuando alguna
de estas lunas se encontraba atrás del gigante de colores, su luz tarda más tiempo
en llegar a la tierra que cuando está al frente. O sea, que cuando estaba más lejos,
la luz de esa luna tardaba más tiempo en llegar a la Tierra. Llegó ası́ a la conclusión
de que la luz no es un fenómeno instantáneo, como incluso Galileo habı́a afirmado
sino que debe viajar a una velocidad finita.
Éste y otros descubrimientos de la época sirvieron a Christian Huygens para
afirmar que “La luz es una vibración que se propaga, al igual que el sonido”.
Con base en esta hipótesis logró explicar simultáneamente, en 1678(4), la mayorı́a
de los fenómenos ópticos con una gran simplicidad. Su obra representa el primer
intento de desarrollo de la Teorı́a Ondulatoria de la Luz, aunque antes, Robert
Hooke (1635-1703), el más famoso fı́sico experimental inglés del siglo XVII, ya
habı́a dado algunas ideas al respecto.
Recordemos que las valiosas observaciones que hizo Hooke con el microscopio
compuesto, junto con los estudios de Antony van Leeuwenhoek (1632-1723) con el
microscopio simple, marcaron el inicio de una nueva etapa para la biologı́a. Con
estos microscopios se observaron por primera vez los glóbulos rojos, las bacterias
y muchos otros seres pequeños, y células de organismos más grandes.
Sin embargo, las ideas de Huygens sobre la naturaleza ondulatoria de la luz
no fueron aceptadas por la mayorı́a de sus contemporáneos. Ya René Descartes
(1596-1650), el primer filósofo moderno, habı́a afirmado que la luz se compone
de corpúsculos acelerados.4 Sir Isaac Newton (1642-1727) adoptó esta idea y la
desarrolló en su Teorı́a Corpuscular de la Luz. Newton descartaba la hipótesis ondulatoria de Huygens porque no podı́a explicar con ondas la propagación rectilı́nea
de la luz, que ya desde la época de los griegos estaba establecida.
En su adolescencia, Newton hizo una serie de estudios importantes en óptica.
4 Aunque
suponı́a que viajaban con velocidad infinita.(5)
Instituto Heisenberg, Anuario 2004
65
Por ejemplo, fabricó un telescopio con espejos en lugar de lentes para evitar la
aberración cromática,5 haciendo que los telescopios reflectores se convirtieran en
un importantı́simo instrumento de la astronomı́a.
Pero a Newton le intrigaba el origen de estos colores, por lo que emprendió una
serie de estudios con prismas y luz blanca, que le permitieron obtener su espectro.
Observó que el prisma no altera la luz sino que separa fı́sicamente los corpúsculos
que la componen de acuerdo a su refractabilidad, y de esta separación surge toda
la gama de colores que percibimos.
Con las ideas de Newton se puede explicar fácilmente la formación del arcoiris.
Éste, que es uno de los fenómenos ópticos naturales más preciosos, se observa
cuando el sol se encuentra en un lado del firmamento y llueve del lado opuesto. El
observador situado en el medio observará este arco con los colores rojo, anaranjado,
amarillo, verde, azul y violeta, que se produce por la doble refracción que sufren
los rayos del sol dentro las gotas de agua de la lluvia y que rebotan hacia los ojos
del observador.
Newton también hizo otras observaciones que se resumen en la transversalidad
de los rayos luminosos, su difracción y su interferencia. En particular explicó los
famosos anillos que llevan su nombre. La obra de Newton tuvo tal repercusión,
que durante un siglo fue usada como referencia clásica, y pocos eran los que se
animaban a cuestionar su contenido o ir más allá en el estudio de los fenómenos
ópticos.
De entre esos pocos destacan el poeta y escritor Johann Wolfgang von Goethe
(1749-1832), quien en 1786, motivado por la influencia renacentista, formuló una
teorı́a de los colores que a la fecha sigue siendo objeto de estudio y fascinación. (6)
También vale la pena mencionar la contribución de José Antonio Alzate (17381799), el ilustre cientı́fico de la Nueva España, que en 1758 reporta el uso de un
excelente anteojo cromático para estudiar la geografı́a de los volcanes del Valle de
México. Es notoria esta contribución pues Newton habı́a afirmado que la aberración cromática no puede ser eliminada de los lentes.
5.2.7.
El siglo XIX y las ondas de luz
El siglo XIX se inició con una serie de pruebas que sugerı́an que la luz es de
naturaleza ondulatoria. Los más importantes fueron los experimentos realizados
por Thomas Young (1773-1829) entre 1801 y 1804. Estos experimentos mostraron
la existencia de la interferencia de la luz, un fenómeno tı́pico de ondas y no de
corpúsculos. Young explicó que los anillos de Newton se forman por la superposición de ondas luminosas. Llegó incluso a determinar la longitud de onda de la luz
(del orden de λ = 0· 00005 cm, media micra).
Su descubrimiento es de gran importancia, pues asegura que hay una relación
directa entre la sensación del color que se produce en nuestros ojos y un parámetro
5 La
aberración cromática es una distorsión de las imágenes producidas por las lentes en la
que aparecen franjas de colores alrededor de los objetos.
66
fı́sico, en este caso la longitud de onda de la luz. Ası́, cada color está determinado
por una longitud de onda y van desde el violeta, que es el color con menor longitud
de onda, hasta el rojo, con la mayor.
Young fue también capaz de explicar la propagación rectilı́nea de la luz, demostrando que la luz es una onda transversal, como una onda en la superficie del agua.
Sus trabajos sobre la interferencia de la luz son considerados hoy dı́a la obra más
trascendente en óptica fı́sica después de los de Newton, aunque, como parece ser
una costumbre, en su época no fueron bien recibidos.
Fue hasta 1815 cuando la teorı́a ondulatoria fue revivida por Augustin Fresnel
(1788-1827) –quien desconocı́a el trabajo de Young–, a través de sus estudios de
la difracción y la interferencia. Poco a poco la teorı́a ondulatoria fue explicando
uno por uno los fenómenos asociados con la luz y sus propiedades.
Los éxitos de la teorı́a ondulatoria revivieron el interés por determinar con
precisión la velocidad con la que se propaga la luz. Galileo ya habı́a fracasado en
su intento de medir cuántos latidos del corazón pasaban para que la luz fuera de
una colina a otra en Pisa. Obviamente no pasaba ni uno. La tecnologı́a de mediados
del siglo XIX tampoco permitı́a llevar a cabo esta tarea fácilmente.
Hubo una observación clave: según Newton, la luz debı́a viajar más rápido en un
medio ópticamente denso que en el aire; según la teorı́a ondulatoria debı́a suceder
lo contrario. Las mediciones realizadas por Armand Fizeau (1819-1896) en 1849
concluyeron que la luz disminuye su velocidad al entrar en un medio ópticamente
denso, como el agua. Este fue un duro golpe para la teorı́a corpuscular de Newton
y un triunfo para la teorı́a ondulatoria de la luz.
Los experimentos posteriores a los de Fizeau se fueron perfeccionando cada
vez más. Fue en 1927 que el norteamericano Albert Michelson (1852-1931) midió muy precisamente la velocidad de la luz. El valor que encontró fue de c =
299, 798 km/seg,6 con una precisión de 0.001 %.
La velocidad de la luz c es una de las constantes fı́sicas más importantes (junto
con la constante de gravitación universal de Newton, la constante de Boltzmann
de la termodinámica y la de Planck de la mecánica cuántica), y ocupa un lugar
protagónico en las teorı́as del electromagnetismo y de la relatividad especial.
La primera prueba de que la luz está relacionada con fenómenos eléctricos y
magnéticos la obtuvo Michael Faraday (1791-1867) en 1845, quien logró iluminar
una curva magnética y magnetizar un rayo de luz. Faraday se referı́a al éxito que
tuvo al medir el cambio de polarización que sufre la luz al pasar por un tubo de
vidrio colocado en un campo magnético. Sus experimentos y los de algunos contemporáneos suyos sirvieron de base para la teorı́a electromagnética, desarrollada
y expresada en lenguaje matemático por James Clerk Maxwell (1831-1879).
La teorı́a de Maxwell describe fenómenos eléctricos y magnéticos de forma unificada. Desde los griegos y hasta antes de Maxwell se creı́a que la electricidad y el
magnetismo eran dos fenómenos diferentes, pero Maxwell demostró que eran dos
6A
la velocidad de la luz le ha asignado una letra propia: c, y para fines prácticos se toma
c = 3 × 108 m/s.
Instituto Heisenberg, Anuario 2004
67
caras de un sólo fenómeno electromagnético. Las ecuaciones de Maxwell condujeron a muchas predicciones nuevas para la época. Una de las más importantes fue
que pueden existir ondas electromagnéticas que viajan a la velocidad de la luz, y
que la luz es radiación portadora de energı́a.
En 1888 Heinrich Hertz (1857-1894) verificó las predicciones de Maxwell al producir ondas por medio de cargas oscilantes y detectarlas por medio de antenas.
Su aparato consistı́a en un alambre conectado a una bobina de inducción para
producir las ondas y una espira pequeña de alambre con un espacio para chispas
que servı́a de detector. Cuando indujo corrientes en la espira detectora se produjeron chispas en el espacio dejado para este fin. Con experimentos posteriores
que involucraban espejos, prismas, rejillas de metal, Hertz demostró que sus ondas
electromagnéticas tienen propiedades análogas a la luz. Sus experimentos son la
piedra angular para el desarrollo de la radio y de toda la comunicación inalámbrica.
Pero las ondas de radio no fueron las primeras ondas invisibles descubiertas.
En 1800 William Herschel (1738-1822) observó el calentamiento producido por los
distintos colores de la luz solar, y concluyó que más allá del rojo hay una radiación
que no se ve, pero que calienta (radiación infrarroja). En la misma época, Wilhelm
Ritter (1776-1810) descubrió una radiación oscura que tiene efectos quı́micos, la luz
ultravioleta. Cuando Wilhelm Conrad Röntgen (1845-1923) en 1895 descubrió los
rayos X, no sabı́a que se trataba de ondas electromagnéticas. Esto vino a ser
confirmado apenas en 1912, cuando Max von Laue (1879-1960) mostró que estos
rayos se difractan.
Con la observación de que la longitud de onda de la radiación infraroja es menor
que un milı́metro, la ultravioleta más pequeña que la luz visible, la de las ondas de
Hertz, tamaño de metros, la de la luz ultravioleta menor que la de la luz visible y
la de los rayos X aún menor que la ultravioleta, se fue poco a poco descubriendo el
espectro completo de la radiación electromagnética. Actualmente conocemos desde
las ondas de radio con longitudes de onda de λ = 10km hasta los rayos γ (gama)
con λ = 0· 00000000001 cm.
El trabajo de Maxwell, Hertz y muchos otros dio un gran impulso también al
desarrollo tecnológico. Asimismo, en el campo de la iluminación se dieron grandes
avances, tanto por el uso masivo de la electricidad como por la invención y comercialización del foco o bombillo eléctrico por Joseph Wilson Swan (1828-1914),
y Thomas Alva Edison (1847-1931), en 1879.
Este siglo también vio el nacimiento de la fotografı́a. Luego de que las primeras
imágenes de personas y paisajes deslumbraron a los hombres y mujeres de la época,
la fotografı́a tuvo un impacto particular en el dasarrollo cientı́fico. Gracias a las
observaciones del espectro electromagnético que hizo Joseph von Fraunhofer (17871826) y luego de que el desarrollo fotográfico permitió que se pudiera capturar la
imagen de un espectro de luz, se inició la era de la espectroscopı́a. La espectroscopı́a
es una técnica empleada actualmente para conocer la composición quı́mica de las
estrellas. Históricamente, la espectroscopı́a fue una de las primeras pruebas sobre
la naturaleza cuántica de la materia, y en particular de la luz.
68
5.2.8.
Nace el fotón
Para principios del siglo XX se tenı́an acumuladas muchas observaciones sobre el
comportamiento de la luz y de la materia que con las leyes de la mecánica, la óptica,
el electromagnetismo y la termodinámica no se podı́an responder adecuadamente.
Las respuestas que daban esas teorı́as simplemente contradecı́an lo que se obtenı́a
en los experimentos.
La observación que más dolores de cabeza dio a los fı́sicos de finales del siglo XIX
y principios del XX fue la siguiente: Se sabe que al calentar un objeto, su radiación
térmica va cambiando de color, pasando desde el infrarrojo, al rojo y pasando por
todas las longitudes de onda de la luz visible, pero no es cierto que si se sigue
calentando la radiación llega al ultravioleta (y por lo tanto, ya no serı́a visible)
sino que más bien cubre todo el espectro electromagnético y como resultado se
oberva que el objeto emite una luz esencialmente blanca. Según la fı́sica clásica, la
radiación ultravioleta deberı́a dominar porque es la más intensa de las radiaciones,
lo que francamente contradice a la experiencia. 7
Para resolver esta catástrofe ultravioleta, Max Planck (1858-1947) en 1900 postuló que:
“El cuerpo no emite radiación térmica en forma de ondas de manera
continua como dicta la fı́sica clásica, sino en paquetes o cuantos de
energı́a, y cada uno de éstos cuantos posee una cantidad de energı́a
inversamente proporcional longitud de onda.”
Con esta idea, los cuantos de luz azul resultan más energéticos que los de la luz
roja, y la intensidad de radiaciones proporcional al número de cuantos emitidos.
La constante de proporcionalidad se denota por h y se llama constante de Planck. 8
Con ayuda de este postulado Planck logró explicar correctamente la forma en la
cual un objeto emite radiación térmica cuado es calentado: el objeto emite luz en
todas las frecuencias, sólo que lo hace con cada vez menor intensidad a medida que
la radiación se vuelve muy energética. Los cuantos de Planck dieron origen a una
revolución en la fı́sica: la Mecánica Cuántica, aunque, para variar, se consideraron
una excentricidad en su tiempo.9
Por otra parte, Hertz habı́a descubierto en 1887 el efecto fotoeléctrico, el cual
se observa cuando al irradiar una superficie metálica con luz de longitud de onda
corta se desprenden electrones de la placa. Esto no era tan extraño, pues ya se
sabı́a que la luz era un fenómeno electromagnético. Lo que no lograba explicar la
fı́sica clásica era el por qué el metal emite electrones sólo para ciertas longitudes de
onda de la luz, ya que cuando se aumentaba la longitud de onda de la luz incidente,
cesaba la emisión de electrones del metal, independientemente de la intensidad de
7O
sea, clásicamente el rojo vivo serı́a más bien un violeta invisible.
constante de Planck h = 6,626176×10−34 J seg juega un papel protagónico en la mecánica
cuántica, tal como la velocidad de la luz “c” lo hace en la relatividad especial.
9 Todavı́a hay algunos conservadores que no aceptan las ideas de la mecánica cuántica, pese a
los muchos logros que ha tenido y sigue teniendo.
8 La
Instituto Heisenberg, Anuario 2004
69
la luz o de cuánto tiempo se irradiaba el metal. Tampoco era muy claro por qué la
velocidad de los electrones desprendidos no dependı́a de la intensidad de la luz,
pero sı́ de su longitud de onda, ya que a menor longitud de onda, los electrones
desprendidos viajaban más rápido.
Este hecho condujo a Albert Einstein (1879-1955) en 1905 a proponer 10 que
la luz que incide sobre el metal está concentrada en forma de corpúsculos cuya
energı́a es proporcional a su frecuencia, y la constante de proporcionalidad es h.
El electrón, al absorber uno de estos corpúsculos, se queda con toda su energı́a y la
usa para escaparse del metal. Si la energı́a absorbida por el electrón es mayor que
la que requiere para escapar del metal, saldrá disparado con un exceso de energı́a
cinética; en cambio si es menor, no saldrá del metal. O sea, Planck por una parte
habı́a dicho que la luz se emite en paquetes discretos; Eisntein ahora afirmaba que
la luz también se absorbe de esta manera. Con estas ideas empezó la era de la
cuantización.
La idea de la cuantización de la luz no fue fácilmente aceptada por la mayorı́a
de los fı́sicos de hace cien años, quienes estaban acostumbrados a las ideas deterministas de la mecánica de Newton, pero con el tiempo fue ganando adeptos,
particularmente cuando aumentó el número de experimentos que evidenciaban la
naturaleza cuántica de la luz y sus cuantos: los fotones.11
Uno de los experimentos cruciales para evidenciar la existencia del fotón fue el
realizado por el norteamericano Arthur Compton (1892-1962). Éste consistió en
irradiar un bloque de parafina con luz monocromática de alta frecuencia. Compton
observó que el haz de luz dispersado tenı́a una frecuencia que es menor que la
original y dependı́a del ángulo de dispersión.12 Él mismo demostró que este efecto
sólo puede ser explicado con base en la existencia de los fotones o cuantos de luz.
Otro famoso, Niels Henrik David Bohr (1885-1962), en 1913 dió una explicación sobre los espectros atómicos. Su idea se basa en que cuando el átomo absorbe
un fotón, se queda con toda su energı́a. Con esta idea, Bohr pudo determinar las
órbitas de los electrones alrededor de los núcleos. El modelo de Bohr constituye
uno de los pilares de la teorı́a cuántica de la materia. Claro que el átomo tal como
lo conocemos ahora es mucho más complicado, pero sus ideas son la base para
entender los fenómenos que suceden a distancias tan pequeñas dentro los átomos.
Actualmente, las interacciones de los fotones con la materia se describen en términos muy abstractos en una teorı́a llamada Electrodinámica Cuántica, desarrollada
entre 1940 y 1950 por Richard Feynman (1918-1988), Julian Schwinger (1918-1994)
y Sin-Itiro Tomonaga (1906-1979).
Entonces, de acuerdo a la mecánica cuántica, la luz posee una naturaleza dual,
es decir, tiene unas propiedades de onda y otras de partı́cula. Se comporta como
onda cuando se propaga, y lo hace como partı́cula cuando interactúa con los átomos
10 Y ganar el Premio Nobel. Curioso, aunque Einstein odiaba la Mecánica Cuántica su Nóbel
fue por sus contribuciones a esta disciplina.
11 El nombre fotón fue introducido por Gilbert Newton Lewis (1875-1946) en 1926.
12 Es decir, que el fotón que se suponı́a era una onda, chocaba contra el electrón como si fuera
una partı́cula.
70
de la materia. Ası́ pues, el viejo debate entre la teorı́a corpuscular y la ondulatoria
sobre la luz queda finalmente reconciliado. Cuando la luz se propaga sin obstáculos
como rendijas u orificios pequeños (del tamaño de su longitud de onda), podemos
considerar que se compone de rayos que viajan en lı́neas rectas. Las trayectorias de
estos rayos son las que nos permiten maravillarnos con las imágenes que nos rodean
y que percibimos a simple vista. No debemos de pensar que con la introducción
del fotón desaparece la naturaleza ondulatoria de la luz. Al contrario, debemos
siempre recordar que la luz, y toda la radiación electromagnética en general, es un
fenómeno ondulatorio.
5.2.9.
La óptica y la relatividad
La óptica de los cuerpos en movimiento se fue desarrollando paralelamente a
la teorı́a cuántica de la luz y de la materia. Desde 1842, Christian Doppler (18031853) habı́a observado que la frecuencia de una onda de cualquier tipo aumenta
cuando el receptor se acerca a la fuente de emisión, y disminuye cuando se alejan el
uno del otro (efecto Doppler )13 Uno esperarı́a que al observar la luz que proviene
de objetos en movimiento se produjera un corrimiento de los colores, hacia el azul
cuando la fuente se acercara a nosotros y hacia el rojo en caso contrario.
Pero encontrar la fórmula correcta para el efecto Doppler óptico no fue tan
sencillo. A fines del siglo pasado se creı́a que la luz, al ser una onda, requerı́a un
medio de propagación, el cual fue llamado éter. Lo raro es que no se habı́a detectado
ningún efecto de la presencia de este éter. En 1887 Albert Michelson y Edward
Morley (1838-1923) realizaron un experimento para medir cuánto cambiaba la
velocidad de la luz debido al movimiento de la Tierra a través del éter. La idea se
basaba en la analogı́a con la velocidad de un bote de remos en un rı́o: La velocidad
del bote aumenta si se rema en la dirección de la corriente, y disminuye si se cambia
esta dirección. Michelson y Morley encontraron que la velocidad de la luz medida
desde la Tierra es la misma en todas las direcciones, a pesar de que ésta se mueve
(como el bote) en el éter (el rı́o).
Cada quien intentaba dar una explicación a los resultados de este experimento.
Algunos decı́an que esto no significaba más que la Tierra no se mueve en el éter.
Alternativamente, Einstein interpretó los resultados del experimento diciendo que
“la velocidad de la luz −y de cualquier tipo de radiación electromagnética es
siempre la misma; no depende ni de la velocidad de la fuente que la emite, ni del
movimiento del observador que la recibe (siempre y cuando la fuente de ondas y el
observador se muevan con velocidad relativa uniforme)”. Con esta hipótesis nació la
teorı́a de la relatividad especial. Esta es una teorı́a más general que la dinámica
de Newton, puesto que es válida para los objetos que se mueven con velocidades
cercanas a la de la luz, pero las fórmulas de Newton dan buenos resultados sólo
cuando la velocidad de los objetos es mucho menor que c.
13 En
el caso de las ondas sonoras este fenómeno nos es muy familiar: lo percibimos cada vez
que oı́mos pasar una ambulancia.
Instituto Heisenberg, Anuario 2004
71
Por los postulados de la relatividad especial, sabemos que ningún objeto con
masa puede ser acelerado más allá de la velocidad de la luz, ni siquiera puede
alcanzar dicha velocidad pues para ello se requerirı́a darle a dicho objeto una
energı́a infinita. Solamente partı́culas sin masa como el fotón pueden viajar a la
velocidad de la luz y no pueden ser desacelerados o acelerados como las partı́culas
con masa.
Una consecuencia de lo anterior es que no hay manera de enviar información
con velocidad mayor que la de la luz. Si fuera posible, ocurrirı́a toda una serie de
fenómenos extraños; por ejemplo, imaginemos dos astronautas en distintos planetas, separados en años luz. Si uno de ellos enviara una señal con velocidad mayor
a c, esta serı́a detectada por el otro ¡antes de que fuera enviada! Hay algunos fı́sicos que especulan sobre la existencia de partı́culas que se mueven con velocidades
mayores a la de la luz, llamados taquiones, pero si existieran, no podemos hacer
ningún experimento u observación para detectarlos.
Diez años más tarde, el mismo Einstein generalizó su teorı́a a la relatividad
cuando las fuentes luminosas y los observadores realizaban todos los movimientos
relativos entre sı́. La teorı́a de la relatividad general mostró tener implicaciones
novedosas e insospechadas en el terreno de la óptica, como su predicción sobre
la desviación de la trayectoria rectilı́nea que sigue un rayo de luz al atravesar
un campo gravitacional producido en la cercanı́a de un cuerpo masivo. Esto se
debe a que el espacio se curva por la presencia de cuerpos masivos,14 y en este
espacio curvo la luz sigue describiendo la trayectoria más corta entre dos puntos, 15
llamada geodésica. Este efecto ha sido detectado una y otra vez desde 1919 durante
la observación de eclipses solares. En estos fenómenos es posible observar estrellas
que se encuentran detrás del sol.
Otra consecuencia de la teorı́a de la relatividad general es que el espectro de luz
proveniente de objetos distantes sufre un corrimiento al rojo de naturaleza gravitacional (como un efecto Doppler). Con esta observación, Edwin Hubble (1889-1953)
pudo determinar que el Universo se está expandiendo, y que mientras más distantes
de nosotros están los objetos, se alejan más rápido.
5.2.10.
Luz y materia
Todos los fenómenos luminosos que hemos discutido hasta ahora tienen su origen en la interacción de la luz con la materia. Es la materia la que refleja, refracta,
dispersa, difracta, desvı́a y absorbe a la luz. No podemos detectar la luz de ninguna
manera a menos que la hagamos interaccionar con la materia. En esta interacción,
obviamente no sólo la luz se modifica, la materia puede verse afectada también
y de distintas maneras. Por ejemplo, en el efecto fotoeléctrico, cuando el metal
es irradiado, absorbe parte de la luz en forma de fotones. Cada átomo del metal
14 Para visualizar esta curvatura del espacio, imagina que éste fuera la sábana de tu cama.
Si colocas en esta sábana un objeto masivo (una pelota, un libro, etcétera), la sábana se curva
alrededor de este objeto. Igual ocurre en el espacio.
15 Por el principio de Fermat.
72
aniquila los fotones que absorbe quedándose con toda su energı́a, y en este proceso
se desprende de electrones, uno por cada fotón absorbido. Uno de estos electrones
liberados puede enviarse a otra placa metálica y producir una cascada de electrones, que a su vez generan una corriente eléctrica. Esta corriente puede activar
algún circuito electrónico para abrir una puerta, por ejemplo.
La liberación de electrones por la luz sucede en cualquier tipo de material, en
estado sólido, lı́quido o gaseoso. Pero en general, los electrones del material no
pueden escaparse fácilemte al ser empujados por un fotón. Tanto el átomo como el
fotón salen rebotados después del choque, y no hay desprendimiento de electrones.
Con el rebote, lo que hace el átomo es chocar con sus vecinos, aumentando ası́ la
temperatura del material. Por eso es que un material que absorbe más luz se
calienta más.
En algunos materiales que son aislantes,16 cuando son iluminados puede suceder
que los electrones atómicos sean expulsados de su respectivo átomo por un fotón,
pero no escapan del material que cambia entonces sus propiedades y se vuelve
conductor por iluminación o fotoconductor.
Hay materiales cuyos electrones, para deshacerse de la energı́a que ganaron
absorbiendo un fotón, emiten otro en un lapso de millonésimas de segundo, y
el material brilla. La luz emitida por este proceso se llama fluorescencia y se
produce por muy breves instantes de tiempo. Ciertos otros materiales, llamados
fosforescentes, pueden quedarse con la energı́a del fotón absorbido durante horas
y dı́as.
La luz absorbida por la materia puede también producir cambios quı́micos.
Ası́ es como se induce el fenómeno de la visión en las células de la retina, al
propagarse por impulsos electroquı́micos las señales luminosas que son recibidas y
procesadas en nuestro cerebro. Otro ejemplo es el complejo proceso de la fotosı́ntesis en las hojas de las plantas verdes. Las emulsiones fotográficas también sufren
cambios quı́micos al absorber la luz.
A todos los materiales que son afectados por la luz absorbida se les llama fotosensibles, y a los cambios que sufren: reacciones fotoquı́micas.
En conclusión, la absorción de la luz puede tener múltiples efectos sobre la
materia. Ahora bien, podemos preguntarnos si la luz que no es absorbida sino
reflejada, tiene también algún efecto sobre la materia.
Cuando aventamos una pelota en una pared, la pelota recibe un impulso de la
pared que la hace rebotar (tercera ley de Newton); pero también la pared recibe
un impulso de la pelota, de la misma magnitud y en sentido contrario. No notamos
que la pared se mueva porque es muy rı́gida y su masa es muchı́simo mayor que la
de la pelota. Con esta analogı́a, la superficie de un sólido iluminado es como una
pared que recibe muchos pelotazos (fotones) y los refleja, pero que siente presión
por efecto de los empujones. Esta presión que para nosotros es imperceptible, a
gran escala tiene efectos visibles: es la responsable de la cola de los cometas.
Finalmente, cuando la luz no es reflejada ni absorbida por un material, esto es,
16 Es
decir, que no conducen electricidad.
Instituto Heisenberg, Anuario 2004
73
cuando la luz penetra en el material, se refracta. Aparte del cambio de dirección
de la trayectoria, hay un cambio en la velocidad con la que se propaga la luz en
los diferentes medios, los cuales caracterizamos por un ı́ndice de refracción. Este
ı́ndice de refracción es el cociente entre la velocidad de la luz en el vacı́o entre la
velocidad de la luz en el medio en consideración. Por ello, dicho ı́ndice es siempre
mayor que uno, aunque existen algunos materiales para los cuales n < 1. Claro
está que el ı́ndice de refracción depende también de la longitud de onda de la
luz, si esto no fuera ası́, cuando la luz blanca incide sobre un prisma, ésta no se
descompondrı́a en el espectro de colores, sino que sólo se desviarı́a y seguirı́a siendo
blanca. En conclusión, cuando decimos que la velocidad de la luz es c, en realidad
hablamos de la velocidad de propagación de la luz en el vacı́o.
Cada vez que la luz pasa de un medio a otro con mayor ı́ndice de refracción n,
cambia su velocidad, pero nunca se detiene. Este cambio se debe a la interacción
de la luz con las partı́culas del medio. Una cosa curiosa es que una vez que la luz
ya ha penetrado en un determinado medio, no se sigue frenando, de modo que si
nuevamente penetra en un medio con menor ı́ndice de refracción, su velocidad se
vuelve a incrementar. También es importante señalar que cuando la longitud de
onda de la luz es muy corta, como con los rayos X, la mayorı́a de los materiales
se vuelven transparentes y presentan un ı́ndice de refracción menor que uno.
Dicho esto, resulta que la velocidad de la radiación en el interior de algún
material puede ser mayor o menor que c. Esto no representa una contradicción
con los postulados de la relatividad especial. Lo que sucede es que las ondas tienen
comportamientos a veces muy caprichosos. La onda que penetra en el material,
viene del vacı́o con una velocidad c y pone en movimiento a los electrones del
material. Como resultado de este movimiento, los átomos del material emiten a
su vez otras ondas, las cuales también se propagan en el vació que hay al interior
de los átomos con velocidad c. Entonces, la superposición o suma de todas estas
ondas con que incidieron inicialmente las que viajan en grupo con una velocidad
que puede ser mayor o menor que c por la siguiente razón: todas las ondas se están
moviendo dentro de un paquete, y la suma de todas las velocidades puede ser
mayor o menor que c. Sin embargo, lo que vemos nosotros como onda refractada,
es el paquete completo, cuya velocidad en el vacı́o siempre es menor o igual a c.
En 1934 el fı́sico soviético Pavel Alekseyevich Cherenkov (1904-1990) descubrió que al bombardear un material ópticamente denso (con n > 1) con electrones
cuya velocidad es mayor que la de la luz en el medio, se produce una onda electromagnética de choque de color entre el amarillo y el violeta. Esta onda es análoga a
la onda de choque de presión que se produce cuando un avión rebasa la velocidad
de propagación del sonido en el aire, o cuando una lancha rebasa la velocidad de
propagación de las ondas en el agua. La radiación Cherenkov es luz que puede ser
detectada, y por lo tanto, es buscada en los grandes aceleradores para registrar
partı́culas muy rápidas e incluso medir su velocidad, y también en la observación de rayos cósmicos de altı́sima energı́a que se producen en la parte alta de la
atmósfera.
74
Epı́logo
La luz es uno de los fenómenos fı́sicos que ha sido estudiado por el hombre desde
los tiempos más remotos. Cientı́ficos y aficionados, poetas y hombres de negocios,
genios y artistas, todos hemos sentido alguna vez curiosidad por desentrañar los
secretos de este regalo de la naturaleza. Cuanto más entendemos de ella, más
nos fascina. Hemos logrado entender su comportamiento dual onda-partı́cula y al
hacerlo, hemos también comprendido algunas propiedades de la materia al nivel
más fundamental. La luz se transforma al interactuar con la materia, pero también
la materia cambia cuando interacciona con la luz. Su estudio ha causado grandes
revoluciones cientı́ficas y tecnológicas. Cada vez que parecı́a que no encontrarı́amos
solución a los problemas, la luz nos enseñó qué hacer. Pero más allá de todo esto,
la luz nos cautiva por las sensaciones que produce en nuestros sentidos. Todos nos
hemos entretenido observando muchos fenómenos ópticos, desde el esplendor del
arcoiris, hasta lo ingenioso de las ilusiones ópticas. La luz nos permite ver lo que
no podemos ver, como las ondas de radio, televisión y microondas. Nos permite
a la vez conocer una parte primordial de nuestro universo y de nosotros mismos.
Por ello, si alguien me preguntara qué es lo que nos hace falta para entender al
mundo, sin duda alguna mi respuesta es ¡Más luz!
5.2.11.
Bibliografı́a
(1) A. M. Cetto, La Luz en la Naturaleza y en el Laboratorio. Ed. Fondo de
Cultura Econı́omca, México, (1996).
(2) G. Galilei, Siderius Nuntius. Publicado en 1610.
(3) J. Kepler, Dioptrice Publicado en 1611.
(4) C. Huygens, Traité de la lumiére publicado en 1678.
(5) E. E. Bricio Barrios, Dualidad. Exposición sobre la dualidad onda-partı́cula
de la mecánica cuántica. Colima, Colima, México, (2003).
(6) La obra cientı́fica de Goethe se encuentra en la recopilación de los editores
G. Schmidt, W. Troll, L. Wolf, D. Kuhn y W. von Engelhardt Die Schriften
zur Naturwissenschaft.
(7) H. E. White, Fı́sica Moderna. Ed. Limusa, México, (1996).
(8) C. Gutiérrez Aranzeta, Electromagnetismo y Óptica. SEP, CONALEP y Limusa editores. México, (1999).
(9) F. J. Bueche, Fı́sica General. McGraw-Hill editores. Segunda edición en español. México, (1984).
(10) Liceo Digital. http://www.liceodigital.com/segundo/fisica2/la luz2.html
Instituto Heisenberg, Anuario 2004
5.3.
75
El radiotelescopio de UTEP
Jorge A. López Gallardo1 y Luis Basurto
Physics Departament, University of Texas at El Paso
500 W. University Ave, El Paso, Texas 79968, EUA
Resumen: La Universidad de Texas en El Paso (UTEP) ha iniciado un proyecto
para construir un radio telescopio usando antenas satelitales comerciales. El arreglo
usa dos antenas conectadas a un espectrómetro y logra detectar ondas de radio
producidas por hidrógeno intergaláctico, y puede ser usado para construir mapas
de la Vı́a Láctea.
5.3.1.
Introducción
La astronomı́a observacional cambió radicalmente en 1933 cuando Jansky, al
estudiar la interferencia que producen las tormentas eléctricas en las transmisiones
de radio, detectó ondas de radio extraterrestres. Debido a que una minúscula señal
seguı́a un patrón que se repetı́a cada 23:56 horas, Jansky concluyó que el origen
de esa señal era de fuera del sistema solar. La figura 5.3.1 muestra el telescopio
usado por Jansky.
Figura 5.1: Telescopio usado por Jansky.
1 [email protected]
76
En 1937 Reber se interesó en el tema y construyó una antena más apropiada
para el estudio de las ondas detectadas por Jansky. Además de descubrir una fuerte
emisión en λ = 1· 87 m, se dio cuenta que la Vı́a Láctea era una fuente de ondas de
radio. Después de la segunda guerra mundial, los radiotelescopios se multiplicaron
iniciando una nueva rama de la astronomı́a moderna. La figura 5.3.1 muestra una
comparación de imagenes de la Vı́a Láctea en ondas de radio, infrarrojo, rayos X
y visible.
Figura 5.2: Imágenes de la Vı́a Láctea en ondas de radio (superior izquierda), infrarrojo (superior derecha), rayos X (inferior derecha)y visible (inferior izquierda).
5.3.2.
El funcionamiento de los radio telescopios
Los radiotelescopios son simples antenas que detectan ondas electromagnéticas. Estas ondas, que pueden ser producidas por movimiento de cargas libres o
atómicas, se mueven a la velocidad de la luz (3 × 108 m/s) y pueden tener diversas longitudes de onda, λ (medidas en metros) o diversas frecuencias, ν = c/λ
(medidas en Hertz).
Las ondas electromagnéticas se pueden clasificar de acuerdo a la magnitud de λ
o ν. De menor a mayor λ (o de mayor a menor ν), las ondas electromagnéticas se
conocen como rayos γ, rayos X, ultravioleta, luz visible, infrarroja, microondas, y
ondas de radio. El cuadro 5.3.2 muestra los valores de λ en estas regiones, ası́ como
el origen de las fuentes y sus temperaturas.
Instituto Heisenberg, Anuario 2004
Cuadro 5.2: Tipos de
Radiación
λ (m)
Rayos γ
10−16 − 10−12
Rayos X
10−11 − 10−8
Ultravioleta
10− 8
Visible
4 − 7 × 10−7
Infrarrojo
103 − 10−6
Radio
1 − 104
5.3.3.
77
radiación electromagnética
T (K)
Origen
108
Choques de hoyos negros
106 − 108 Supernova, Corona solar
105 − 106
Estrellas calientes
103 − 105
Estrellas
103
Planetas, Nebulosas
< 10
Polvo intergaláctico
Emisión de ondas de radio por hidrógeno
intergaláctico
En el espacio intergaláctico existen átomos de hidrógeno libres. Debido a que el
hidrógeno está compuesto por un electrón que, de alguna manera, orbita alrededor
de un protón, el momento magnético del electrón interactúa con el del protón
alineándose de manera paralela o antiparalela. Como la alineación antiparalela es
más favorable energéticamente, es decir reduce la energı́a total del átomo, aquellos
hidrógenos con momentos magnético paralelos decaerán al estado antiparalelo. Al
hacerlo, el exceso de energı́a será liberado en forma de un fotón, es decir, de una
unidad de radiación electromagnética. Este proceso es ilustrado en la figura 5.3.3.
Figura 5.3: Emisión de un fotón en el alineamiento de los momentos
magnéticos en un átomo de hidrógeno.
La diferencia de energı́a entre los estados es de 9· 41170618 × 10−25 Joules. Esta
energı́a es emitida en un fotón de λ = 0,211061141 metros, correspondiente a una
frecuencia de ν = 1· 420405751800 GHz. Aunque la vida media de este decaimiento
es de 107 años, la abundante población de átomos de hidrógeno hace posible que
78
exista una emisión lo suficientemente intensa para que sea detectable.
Por su longitud de onda, esta radiación cae en el rango de ondas de radio. Para
detectarlas se necesitan antenas de tamaño apropiado, tales como las comerciales
que se usan para la recepción de ondas de televisión por satélite.
5.3.4.
El radiotelescopio de UTEP
El arreglo que está siendo construido en la Universidad de Texas en El Paso, The
Very Small Array, está compuesto por dos antenas de 10 pies (cf. figura 5.3.4), las
cuales tienen un receptor cilı́ndrico de banda L que recibe entre 950 y 1, 550 MHz,
pero ajustado para una recepción óptima a 1, 420 MHz; es decir, exactamente a la
frecuencia de emisión del hidrógeno.
Figura 5.4: Luis Basurto con una de las dos antenas del The Very Small
Array de UTEP.
Una vez recibida la señal, es filtrada por un espectrómetro Spectra Cyber de
1, 420 MHz. Debido a la baja intensidad de la radiación recibida, es necesario usar
una serie de amplificadores de bajo ruido con una ganancia de 28 dB a 1, 420
MHz. Estos amplificadores se instalan en los cables coaxiales de transmisión entre
las antenas y el espectrómetro a distancias de 50 pies entre cada amplificador.
Antes de entrar al espectrómetro, las señales de las dos antenas se combinan en
Instituto Heisenberg, Anuario 2004
79
fase con un mezclador electrónico. Las figuras 5.3.4 y 5.3.4 muestran los elementos
principales de este arreglo, ası́ como su interconexión.
Figura 5.5: Diagrama de conexiones del radiotelescopio.
A diferencia de los telescopios ópticos, este radiotelescopio no se apunta sobre
una fuente en particular, sino que se fija a cierto ángulo sobre el horizonte y se usa
para hacer observaciones sobre un intervalo de tiempo. De esta manera, al girar la
tierra es posible capturar radiación proveniente de una banda de aproximadamente
5o de todo el universo (figura 5.3.4). Debido a limitaciones mecánicas, las antenas
pueden ser fijadas entre 32o sobre el horizonte del norte hasta 13o sobre el horizonte
del sur. Mapas completos de estas partes de los hemisferios norte y sur pueden ser
obtenidos aproximadamente en un mes si se aumenta el ángulo 5o cada dı́a.
5.3.5.
Obtención de datos
El telescopio opera en incrementos de 24 horas. La señal eléctrica recibida del
espectrómetro es descompuesta en frecuencias alrededor de la banda de 1, 420
MHz ±600 kHz cada 90 segundos. En cada rastreo se determina la intensidad
de frecuencias entre 1, 420 MHz ±600 kHz a intervalos de 5 kHz; esto produce
600 × 2/5 = 240 datos cada minuto y medio. Puesto que el proceso se repite cada
90 segundos, se obtienen 960 mediciones con 240 datos cada una (cabe recordar
que los radio telescopios funcionan las 24 horas del dı́a).
Con los datos digitales, el análisis consiste en calcular los valores máximos y
mı́nimos, promedios, desviaciones estándar y diferencias promedio. La representa-
80
Figura 5.6: Camino recorrido por la señal.
ción visual de estos datos es por medio de gráficas de frecuencia de la señal recibida
versus el tiempo de recepción. Para esta representación gráfica se usa un código de
colores que indica la intensidad de las señales recibidas: con el negro, la intensidad
menor y seguido por el azul, verde, cyan, rojo, magenta, amarillo y blanco, en ese
órden. Comúnmente las señales caen en el rango de negro a rojo. Un ejemplo de
esto se ilustra en la figura 5.3.5.
Como se ilustra en la figura 5.3.5, otra forma de presentar los datos consiste en
graficar la diferencia respecto a la frecuencia promedio en función del tiempo. De
esta manera, se sabe que frecuencias con corrimiento hacia el rojo (i.e. menores
que 1, 420 MHz) provienen de fuentes que se alejan del centro de la Vı́a Láctea,
que es la que establece el promedio, mientras que frecuencias mayores al promedio
provienen de fuentes que se mueven hacia el centro de la galaxia.
5.3.6.
Conclusiones
El arreglo de dos platos receptores de ondas de radio de la UTEP es capaz de
detectar las ondas producidas por hidrógeno intergaláctico de λ = 21 cm. Haciendo
mapeos continuos de un mes de duración es posible construir mapas de la Vı́a
Láctea ası́ como detectar el movimiento de fuentes respecto al centro de la galaxia.
Dado que el arreglo consiste simplemente de dos discos, un espectrómetro, varios
Instituto Heisenberg, Anuario 2004
81
Figura 5.7: Ejemplo del área de observación del radio telescopio.
amplificadores, algunos metros de cable coaxial, y una computadora, su costo es
menor a $5, 000 USD, lo que lo hace un proyecto excelente para estudiantes de
licenciatura de fı́sica.
5.3.7.
Agradecimientos
Jorge A. López Gallardo agradece la hospitalidad de la Universidad de Colima.
82
Figura 5.8: Ejemplo de presentación de resultados.
Figura 5.9: Segundo tipo de presentación de resultados.
Instituto Heisenberg, Anuario 2004
5.4.
83
Doblamiento de proteı́nas: Un proyecto interdisciplinario
Christoph Hofmann1
Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo #340
Colima, Colima, México, 28045
A menudo, cuando queremos resolver problemas cientı́ficos, resulta que el problema es muy complejo. Para resolverlo necesitamos los conocimientos de varias
áreas o disciplinas de las ciencias naturales, entonces, se trata de un problema
interdisciplinario. En este artı́culo quiero hablar sobre un proyecto que verdaderamente es interdisciplinario ya que involucra tanto la quı́mica, la fı́sica teórica,
como la biologı́a y la medicina: se trata del doblamiento de proteı́nas.
Como introducción voy a platicar de la bioquı́mica y la biofı́sica de proteı́nas.
Las proteı́nas son polı́meros, es decir, moléculas muy largas que son compuestos de moléculas mas pequeñas: esos componentes se llaman aminoácidos. En los
organismos biológicos se encuantran veinte aminoácidos diferentes.
La secuencia de los aminoácidos en una proteı́na representa la estructura primaria. Existen varias estructuras más complejas, porque la cadena de proteı́na, la
estructura primaria, se puede doblar. Por ejemplo, en la naturaleza se observan
dos estructuras diferentes que se refieren a la estructura secundaria: el α-helix y
el β-sheet. Además, en las proteı́nas que encontramos en una célula biológica, por
ejemplo en la hemoglobina de la célula roja de la sangre, hay tantas partes helicales
como partes β-sheet; a esa estructura complicada se le llama estructura tercera.
Sorprendentemente, la estructura tercera –es decir, la estructura biológica y
activa de las proteı́nas– tiene una estructura muy bien definida: cada proteı́na
tiene su forma tri-dimensional única y caracterı́stica: un cambio de un aminoácido
sólo puede modificar la estructura de la proteı́na de manera que la proteı́na va a
ser inactiva, su función biológica va a ser destruida.
Preguntas esenciales sobre el doblamiento de proteı́nas son las siguientes: ¿Cómo
la proteı́na puede encontrar su estructura final, es decir, su estructura única para su
actividad biológica? ¿Es posible pronosticar su estructura biológica si conocemos
la secuencia de los aminoácidos?
Un experimento bioquı́mico sobre la naturaleza del doblamiento fue el de Christian Anfinson, hecho con la proteı́na ribonuclease que se compone de 124 aminoácidos. En ese experimento Anfinson mostró que la estructura primaria, es decir, la
secuencia de los aminoácidos, es suficiente para determinar la estructura biológica
de la proteı́na.
¿Pero cómo lo hace la proteı́na? ¿Cuáles son las fuerzas y las interacciones intramoleculares en la proteı́na responsables del doblamiento, para que la proteı́na
1 [email protected]
84
encuentre su estructura final? Además, si conocemos el mecanismo del doblamiento, ¿serı́a posible que podamos crear o diseñar proteı́nas con estructuras nuevas y
muy particulares?
Resulta que la resolución de esos problemas no es nada trivial, de hecho todavia
no hay soluciones completas o definitivas.
En lo que concierne al mecanismo del doblamiento de proteı́nas, un concepto importante es la frustración mı́nima del paisaje de la energı́a libre (minimal
frustration of the free energy landscape). ¿Qué quiere decir eso?
Un punto que es cierto es que la proteı́na no encuentra su estructura final
probando y probando varias estructuras –una tras otra– hasta que encuentra, por
casualidad, su estructura final. Como he expuesto en la plática, una proteı́na con
cien aminoácidos necesitarı́a alrededor de 1090 segundos para encontrar su forma
biológica, es decir, muchı́simo más tiempo que la edad del universo.
Entonces, la proteı́na más bien encuentra su estructura única y biológica de
otra manera. La idea es que la evolución bioquı́mica ha seleccionado secuencias
muy particulares de proteı́nas, que son muy eficaces en lo que concierne al doblamiento. Estas secuencias particulares (minimal folders) se encuentran en todas las
proteı́nas: en plantas, animales y humanos, y gracias a ellas el doblamiento pasa
muy rápido, alrededor de unos milisegundos en la célula biológica.
Para describir el proceso del doblamiento se necesita un método universal que
se usa en varias áreas de las ciencias: el método variacional. Pero como las proteı́nas son sistemas muy complejos, la descripción teórica de proteı́nas es bastante
complicada.
Un concepto central en esa teorı́a para describir las interacciones diferentes
en la proteı́na es el concepto del Hamiltoniano. Ese concepto es universal y se
usa en varias partes de la fı́sica, tanto en la teorı́a de las partı́culas elementales
como en la teorı́a de la materia condensada. Por eso, la resolución del problema del
doblamiento de proteı́nas tiene analogı́as con otros problemas de la fı́sica y métodos
que ya existen, por ejemplo en la teorı́a de ferromagnetos y antiferromagnetos, esos
métodos ahorita se pueden aplicar a la teorı́a de proteı́nas.
Sin embargo, las proteı́nas son sistemas tan complejos que no se puede resolver
el problema del doblamiento de manera analı́tica y se necesita una computadora
para hacerlo de manera numérica.
Unos resultados tı́picos del método que estoy usando se refieren a la emergencia
del orden en las proteı́nas: ¿Cuáles son las partes en la proteı́na que se forman
primero y cuáles son las partes que se forman más tarde en el proceso del doblamientio? ¿Existen varios caminos para llegar a la estructura biológica de la
proteı́na o hay un camino único? ¿Cuáles son las estructuras de la proteı́na entre
la estructura no-doblada y la estructura final?
Una razón para el estudio de esos problemas se refiere a la complejidad de los
sistemas: es un reto muy difı́cil de resolver, un problema complejo. Además, aparte
de esa pregunta fundamental, hay varias aplicaciones importantes, por ejemplo
en medicina: el tratamiento de enfermedades. Existen varias enfermedades que
son causadas por proteı́nas mal dobladas, proteı́nas que no se encuentran en su
Instituto Heisenberg, Anuario 2004
85
estructura normal. Por ejemplo la enfermadad de la vaca loca es causada por
proteı́nas mal-dobladas. Entonces, ¿Por qué esas proteı́nas no pueden encontrar
su estructura biológica? ¿Por qué no se forma la estructura normal? Además,
si conociéramos la causa, ¿serı́a posible tratar esas enfermedades? ¿Serı́a posible
curarlas en el nivel molecular?
Personalmente, el doblamiento de proteı́nas me fascina por tratarse de un proyecto interdisciplinario. Primero, la pregunta del doblamiento es un problema de
la bioquı́mica: la quı́mica en los organismos biológicos, y para resolverlo se necesitan métodos y conceptos de la fı́sica teórica y de las matemáticas y para la
resolución numérica se necesita la computadora y el diseño de programas. Además,
el conocimiento del doblamiento de proteı́nas tiene aplicaciones muy importantes
en la medicina. Esperamos que en el futuro el mecanismo biomolecular de unas
enfermedades se pueda entender y la enfermedad curar.
86
Capı́tulo 6
Pláticas de Matemáticas
87
88
Instituto Heisenberg, Anuario 2004
6.1.
89
Calculando el término n de la Sucesión de
Fibonacci
Oscar H. Estrada Estrada1
Department of Mathematics, University of Texas at El Paso
El Paso, TX 79960, USA
6.1.1.
Introducción
Siempre que se menciona la Sucesión de Fibonacci se habla sobre muchas de sus
propiedades u ocurrencias en la naturaleza, pero pocas veces se responde a una
pregunta que podrı́a surgir de manera natural al momento de ver la definición:
¿Se puede calcular el valor del n-ésimo término de la sucesión de Fibonacci sin
conocer el valor de los dos anteriores? o dicho de otra forma, ¿existirá alguna
formula que nos permita calcular el n-ésimo termino de la suceción de manera
directa, sin calcular los terminos anteriores? En esta breve plática responderemos
a esto utilizando métodos del algebra lineal y del algebra matricial.
6.1.2.
Leonardo de Pisa
Yo no voy a hablar sobre la vida de Fibonacci porque sufuciente se ha escrito
sobre él. Lo unico que les diré sobre su vida personal será que su verdadero nombre
era Leonardo de Pisa.
El dia de hoy les voy a hablar sobre la llamada Sucesión de Fibonacci, pero
no mencionaré nada sobre las multiples ocurrencias en la naturaleza. El dia de
hoy trataré de responder a una pregunta más interesante desde el punto de vista
computacional.
Primero, ¿qué demonios es una sucesión? Dicho de manera muy informal, una
sucesion es una secuencia infinta ordenada de números que se rigen por ciertas reglas. Una sucesión queda completamente determinada cuando se indica de
qué manera obtener cada término de ésta. Por ejemplo, 1,4,9,16,25,. . . ,n 2 , . . . es
una sucesión. Algunos otros ejemplos de sucesiones son:
1, 3, 5, 7, . . . , 2n − 1, . . . ,
1, 2, 3, 4, . . . , n, . . . ,
1
1 1 1
1, , , , . . . , , . . . ,
2 3 4
n
1, 1, 3, 7, 17, . . . , 2an−1 + an−2 , . . . .
(6.1)
La sucesión de Fibonacci está definida por:
f0 = 1, f1 = 1, f2 = 2, f3 = 3, f4 = 5, f5 = 8, f6 = 13, . . . , fn = fn−1 + fn−2 , . . .
(6.2)
1 [email protected]
90
Ahora bien, al ver la definición (6.2) y los ejemplos anteriores, es natural preguntarse si hay alguna otra manera de calcular el término general de esta sucesión
sin necesidad de calcular términos anteriores. La respuesta a esta pregunta, para
nuestra fortuna, es afirmativa.
Antes de comenzar a resolver nuestro problema, debo mostrarles las herramientas que serán necesarias para lograr nuestro fin. Estudiaremos el concepto de
matriz.
Una matriz A de m × n, denotada por A = (aij )m×n , es simplemente un arreglo
de números dispuestos en m renglones y n columnas. Donde aij representa el
número que se encuentra en
 i y columna j. Asi, por ejemplo, una matriz
 el renglón
1 3
de 3 × 2 se escribe A =  4 5 , y a22 = 5. Una matriz de 2 × 2 se escribe
6 1
2 4
3
B=
, y b11 = 2. Una matriz de 2 × 1 se escribe C =
y c21 = 2.
2 1
2
Una vez definidas las matrices, el siguiente paso es establecer algunas relaciones
entre ellas. Para ésto definiremos algunas operaciones de manera análoga a la
forma en que se hace con los números reales.
Definición 6.1.1. Sean A = (aij )m×n , B = (bij )m×n , C = (cij )n×p y λ ∈ R.
Definimos componente a componente
i) La matriz suma (A + B)ij = aij + bij
P
ii) La matriz producto (AC)ij = nk=1 aik ckj
iii) El producto por un escalar (λA)ij = λaij .
Para dejar claras estas definiciones veamos algunos ejemplos. Sean
3
− 51
2 1
3 1
5
,
A =
, B=
, T =
2
−1
1 3
1 2
5 5
1 0
3 0
1
I =
, D=
, E=
,
0 1
0 2
2
√
2 √
5+ 5
1 4 1
1+
5
, λ=
.
F =
, G=
3 2 0
1
2
Ası́,
A+B
=
AB
=
AF
=
=
3 1
5 2
=
1 2
2 5
1
3 1
23 + 11 21 + 12
7 4
=
=
3
1 2
13 + 31 11 + 32
6 7
1
1 4 1
21 + 13 24 + 12 21 + 10
=
3
3 2 0
11 + 33 14 + 32 11 + 30
10 2
.
10 1
2 1
1 3
2
1
2
1
5
10
+
Instituto Heisenberg, Anuario 2004
91
Y de manera análoga obtenemos,
3
2 1
− 51
1 0
5
AT =
=
2
1 3
−1
0 1
5 5 7 6
2 1
3 1
=
BA =
4 7
1 3
1 2
3 1
1 0
3 1
BI =
=
1 2
0 1
1 2
1 0
3 1
3 1
IB =
=
0 1
1 2
1 2
2
3 0
3 0
3
0
2
D = DD =
=
0 2
0 2
0 22
√
!
2 5+√5
√
2 1
1+ √5
5+1
=
AG =
5+3√ 5
1 3
1
1+ 5
√ !
√ 2 5+√5
√
5+ 5
1+ 5
1+√5
=
.
λG =
5+ 5
1
2
2
En los ejemplos anteriores se pueden observar algunas cosas interesantes. Por ejemplo, observen el resultado del producto AB y BA; Note que a pesar de que las
matrices que se utilizan en la multiplación son las mismas, el producto es distinto.
Esto se debe a que en general, la multiplicación de matrices no es conmutativa, esto
es, no se puede intercambiar el orden en que se multiplican las matrices porque
(casi siempre) el producto será distinto.
Observe el producto de A y T . ¿Qué pasa ahora si multiplicamos T A ?
3
− 51
2 1
1 0
5
TA =
=
.
2
− 15
1 3
0 1
5
Observamos que en este caso AT = T A = I. En este caso decimos que T es la
matriz inversa de A, y escribimos T = A−1 . Asi tenemos que AA−1 = A−1 A = I.
I se llama la matriz identidad (ya que tiene la propiedad de que AI = IA = A,
para toda matriz A).
Observemos ahora el producto de AG y λG. ¿Qué pueden decirme sobre él? Les
daré un poco de ayuda; nótese que
√
√
√
√
√
√
5+3 5
5+ 5
5+3 51− 5
5 − 5 5 + 3 5 − 15
√ =
√
√ =
=
−4
2
1+ 5
1+ 5 1− 5
¿Y ahora. . .? ¿qué me pueden decir? Correcto, AG = λG. Parece como si, al
multiplicar A por G, se pudiera intercambiar la matriz A por una constante. Esta
situación curiosa no es una coincidencia y tiene consecuencias importantes en la
matemática.
92
Definición 6.1.2. Decimos que λ es un eigenvalor o valor propio de la matrı́z A,
si Ax̄ = λx̄ para algún x̄ (x̄ es una matriz de 2 × 1 o vector columna). El vector x̄
se llama el eigenvector asociado al eigenvalor λ.
Ahora bien, ¿cómo
se encuentran λ y x̄ . . .?
a b
, entonces λ es la solución a la ecuación λ2 − (a + b)λ +
Fácil, si A =
c d
(ad −
0 y x̄ es la solución a la ecuación matricial (A − λI)x̄ = 0, donde
cb) = 1 0
.
I=
0 1
a las operaciones con matrices, considere la matriz de 2 × 2 A =
Volviendo
1 1
. ¿Cuál es el valor de A2 . . .? ¿el de A3 ?,. . . ¿y en general el de An ?
2 1
En general, la potencia de una matriz es dificil de calcular. Pero afortunadamente nos podemos valer de un pequeño truco. ¿Qué pasarı́a si la matriz A se
pudiera expresar como A = P DP −1 ? en donde D es una matriz diagonal (i.e.,
tiene ceros en todas sus entradas excepto posiblemente en la diagonal principal).
Tratemos de calcular algunas potencias de A:
A2
A3
= AA = P DP −1 P DP −1 = P DIDP −1 = P D2 P −1
= A2 A = P D2 P −1 P DP −1 = P D2 IDP −1 = P D3 P −1
A4
= A3 A = P D3 P −1 P DP −1 = P D3 IDP −1 = P D4 P −1 .
De aqui es fácil intuir que An = P Dn P −1 . Ahora, podemos preguntarnos si
se ha simplificado el problema. La pregunta se responde de manera afirmativa
o negativa dependiendo de quien sea la matriz D. Si D es una
matriz
diagonal,
a 0
entonces el problema se simplifica ya que si, por ejemplo, D =
, entonces
0 b
n
a
0
.
Dn =
0 bn
Entonces, el problema de encontrar An se reduce al problema de encontrar tres
matrices P, D y P −1 de manera que D sea una matriz diagonal y que P P −1 = I.
¿Cuándo es posible hacer esto?
Para nuestra fortuna, existe un teoreoma que no sólo nos dice en qué casos es
posible encontrar dichas matrices, sino que además nos dice cómo encontrarlas.
Teorema 6.1.3. Sea A una matriz n × n. Si A tiene n eigenvalores distintos de
cero y distintos entre sı́, entonces A puede expresarse como A = P DP −1 , donde
D es la matriz diagonal con los eigenvalores de A en las entradas diagonales, y
P es la matriz cuyas columnas son los respectivos eigenvectores asociados a los
eigenvalores de A.
¡Muy bien! ya casi somos todos unos expertos en la teorı́a de matrices y eigenvalores, pero creo que nos estamos olvidando un poco de nuestro problema original:
¿Cómo calculo el n-ésimo término de la sucesión de Fibonacci sin conocer los dos
Instituto Heisenberg, Anuario 2004
anteriores?
Bueno,
la respuesta será
1 1
.
A=
1 0
Veamos,
1
2
A =
1
2
A3 = A 2 A =
1
3
A4 = A 3 A =
2
5
A5 = A 4 A =
3
93
clara al considerar las potencias de la matriz
1
0
1
1
2
1
3
2
1 1
1 0
1 1
1 0
1 1
1 0
1 1
1 0
=
=
=
=
2 1
1 1
3 2
2 1
5 3
3 2
8 5
5 3
.
¿Pueden ver la relación con la sucesión de Fibonacci?
Correcto, se puede ver que:
n
A =
fn
fn−1
fn−1
fn−2
.
(6.3)
Ası́, nuestro problema quedarı́a resuelto si pudieramos calcular la matriz An . Esto nos regresa al teorema previamente enunciado. Veamos si se cumple la hipótesis
del teorema. Para ésto calculemos los eigenvalores de A.
Como sabemos, los√eigenvalores de√A son las soluciones a la ecuación λ2 −λ−1 =
0, esto es, λ1 = 1+2 5 y λ2 = 1−2 5 . Vemos que, como podiamos esperar, la
hipótesis del teorema se satisface. Asi que, la matriz A si se puede expresar con
el producto√ de tres matrices
especiales. Siguiendo con el teorema, tenemos que
!
1+ 5
0
2
√
D=
.
1− 5
0
2
Ahora, calculemos la matriz P . De acuerdo con el teorema, para poder saber
quien es P , debemos saber quienes son los eigenvectores asociados a los eigenvalores
de A. Como ya habiamos mencionado, los eigenvectores asociados al eigevalor λ 1 ,
son las soluciones a la ecuación matricial (A − λ1 I)x̄ = 0 que en nuestro caso, son
las soluciones a
!
√
x1
1 − 1+2 5
1√
x1
= 0, donde x̄ =
x2
x2
1
− 1+2 5
O escrito como sistema de ecuaciones,
√
1− 5
x1 + x 2 = 0
2
√
1+ 5
x1 −
x2 = 0
2
(6.4)
(6.5)
94
De donde, despejando x1 de la ecuación (6.5) y sustituyendo en la ecuación
(6.4) obtenemos que 0x2 = 0, es decir, x2 puede tomar cualquier valor en los
númerosreales. Porlo tanto, uno de los eigenvectores asociados al eigenvalor λ 1
− 1−2√5
es x̄1 =
. De manera análoga, obtenemos que un eigenvector asociado
1
− 1+2√5
.
al eigenvalor λ2 es x̄2 =
1
Ası́, la matriz P que necesitamos para resolver nuestro problema es
− 1−2√5 − 1+2√5
.
(6.6)
P =
1
1
Ahora sólo nos falta encontrar la inversa de P , es decir P −1 . ¿Cómo podemos
encontrar la inversa de una matriz de 2 × 2? Por fortuna, tenemos una fórmula
que nos permite calcular de manera directa dicha inversa. Si
1
a b
d −b
−1
→A =
A=
.
(6.7)
c d
−c a
ad − cb
Ası́, en nuestro caso tenemos que
P
−1
√1
5
− √15
=
√
5− 5
10
√
5+ 5
10
!
.
(6.8)
Según nuestro teorema, podemos expresar a A como:
A = P DP −1 ,
(6.9)
y por fin, nuestro problema está resuelto ya que solo tenemos que encontrar el
producto An = P Dn P −1 y mirar a la primer componente de la matriz resultante,
la cual será el valor deseado.
An
= P Dn P −1
−2
√
1− 5
=
1
−2
√
1− 5
=
1
−2
√
1+ 5
1
−2
√
1+ 5
1
√
5 n+1
=
( 1+2
)
√
1+ 5
2
0
0√
1− 5
2
√
( 1+2 5 )n
0
!n
0
√
( 1−2 5 )n
!
√
5 n+1
−( 1−2
√
5
)
No nos importa
√
5− 5
10
√
5+ 5
10
√1
5
− √15
No nos importa
No nos importa
√1
5
− √15
!
,
!
√
5− 5
10
√
5+ 5
10
!
(6.10)
... ası́, obtenemos que
√
√
( 1+2 5 )n+1 − ( 1−2 5 )n+1
√
.
fn =
5
(6.11)
Instituto Heisenberg, Anuario 2004
95
Como comentario final, quiero mencionar que la técnica empleada aquı́ no solo
se puede aplicar a este problema o a problemas similares (como por ejemplo,
encontrar el n-ésimo término de la sucesión definida por gn = gn−1 + 2gn−2 ). En
algunas aplicaciones a problemas de la vida real es útil encontrar la potencia de
una matriz, por ejemplo: en el caso de la dinámica de poblaciones, la teoria de
grafos o ecuaciones diferenciales.
96
6.2.
La Conjetura de Poincarè
Andrés Pedroza1
Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo #340
Colima, Colima, México, 28045
En el año de 1904, el célebre matématico francés Henri Poincarè, intentó caracterizar la esfera de dimensión tres, por medio de lazos. Esta caracterización se le
conoce como la Conjetura de Poincarè. Desde entonces, un sinnúmero de brillantes matemáticos han intentado resolver esta conjetura, pero han fracasado. Gran
avance se ha hecho desde entonces en entender estos objetos tridimensionales, pero aún no se ha logrado resolver la conjetura. El año pasado, el matemático ruso
Gregory Perlman sacudió a la comunidad matemática internacional por sus avances en resolver la conjetura de Poincarè. En esta nota explicaremos brevemente el
contenido de esta conjetura.
Empecemos estudiando la esfera. La esfera posee una caracterı́stica muy peculiar: en cualquier punto de la esfera existe una vecindad muy pequeña tal que
esta vecindad se parece al plano. Si pensamos en la Tierra como una esfera, esta
peculiaridad la notamos en nuestro andar cotidiano.
Nos interesa estudiar los objetos geométricos que satisfacen esta caracterı́stica.
Diremos que X es una variedad topológica de dimensión n, si para cada punto de X
existe una vecindad de puntos que se parece al espacio Euclideano de dimensión n
–por ejemplo, la recta y el cı́rculo son variedades topológicas de dimensión uno– El
plano, la esfera y la elipsoide son ejemplos de varidades topológicas de dimensión
dos. De ahora en adelante nos referiremos a una variedad topológica por variedad.
(a)
(b)
Figura 6.1: Deformación de un lazo en un punto: posible en el caso (a),
no posible en el caso (b).
1 [email protected]
Instituto Heisenberg, Anuario 2004
97
En nuestro estudio de variedades es necesario relajar el concepto de cuando dos
variedades son iguales. Diremos que dos variedades X y Y son iguales si es posible
deformar X por medio de transformaciones que manden puntos cercanos a puntos
cercanos en Y y viceversa. Bajo este nuevo concepto, se tiene que la esfera es igual
a la elipsoide. Más aún, la esfera, el cubo y el tetraedro son iguales.
Consideremos una variedad X y llamemos α a un lazo en X. Deseamos saber
cuándo se puede deformar el lazo α, dentro de la variedad en un punto. Por ejemplo,
si X es el plano, todo lazo se pude deformar en un punto (véase el caso (a) en la
figura 6.2). En cambio, si la variedad es el plano menos el origen y β es un lazo
que encierra al origen, entonces β no se pude deformar en un punto (véase el caso
(b) en la figura 6.2).
Definición. Una variedad topológica X es simplemente conexa si todo lazo en X
se puede contraer en un punto.
Este sencillo análisis geométrico tiene enormes consecuencias en distinguir variedades; es un invariante topológico. Esto es, si dos variedades X y Y son iguales
y X es simplemente conexa, entonces Y es simplemente conexa. De aquı́ se sigue
que si X es simplemete conexa y Y no es simplemente conexa, entonces X no es
igual a Y .
La recta, el plano y la esfera son ejemplos de variedades simplemente conexas.
El plano menos el origen no es simplemente conexo. Otro ejemplo de una variedad
que no es simplemente conexa es el toro. El toro es la superficie de una dona.
Como se muestra en la figura 6.2, los lazos α y β en el toro no se pueden contraer
en un punto.
Figura 6.2: Lazos en un toro.
Uno de los objetivos del estudio de las variedades es clasificarlas. Por ejemplo,
el cı́rculo es la única variedad compacta de dimensión uno. Bajo ciertas condiciones mı́nimas, una variedad de dimensión dos corresponde a una de las siguientes:
la esfera, el toro, la superficie con dos perforaciones (como se muestra en la figura 6.2) y ası́ sucesivamente. Esto es, una variedad de dimension dos está totalmente
caracterizada por el número de perforaciones que tiene.
Notemos que de esta lista, únicamente la esfera es simplemente conexa. El resto
de las variedades tiene al menos un lazo que no se puede contraer en un punto.
98
Figura 6.3: Efera, toro, superficie con dos perforaciones, etcétera.
La Conjetura de Poincarè trata sobre la esfera de dimensión tres. Si bien, es
difı́cil imaginar la esfera de dimensión tres, es posible describirla analı́ticamente.
Recordemos que de manera analı́tica la esfera se puede describir como el conjunto
de puntos (x, y, z), en el espacio Euclideano de dimensión tres, que satisfacen
la ecuación x2 + y 2 + z 2 = 1. De igual manera, la esfera de dimensión tres se
puede describir como el conjunto de puntos (x, y, z, w) en el espacio Euclideano
de dimensión cuatro que satisfacen la ecuación x2 + y 2 + z 2 + w2 = 1. La esfera
de dimensión tres es una variedad de dimensión tres y, al igual que la esfera, es
simplemente conexa.
De la clasificacion de las variedades de dimensión dos, se tiene que la esfera es
la única de la lista que es simplemente conexa. Ahora bien, es posible caracterizar
a la esfera de dimensión tres de esta manera.
Conjetura de Poincarè. Sea X una variedad topológica de dimensión tres, compacta y simplemente conexa. ¿Es X igual a la esfera de dimensión tres?
Instituto Heisenberg, Anuario 2004
6.3.
99
Dimensión rima con medición
Ricardo A. Sáenz 1
Instituto Heisenberg y Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo #340
Colima, Colima, México, 28040
¿Cómo sabemos la dimensión del espacio donde vivimos? Tenemos la idea de
que el espacio donde existimos tienes tres dimensiones, a las que denominamos
comúnmente largo, ancho y altura. Estas tres dimensiones representan, de cierta
forma, las direcciones en que nos podemos mover en el espacio: tres.
De la misma forma, podemos establecer que la dimensión de una recta, por
ejemplo, es uno, ya que sólo nos podemos mover en una dirección a través de ella
(aunque en dos sentidos, desde luego). Véase, por ejemplo, la figura 6.3.
Figura 6.4: En una recta, uno se puede mover en una sóla dirección,
aunque en dos sentidos.
De la misma forma, vemos que un cuadrado en el plano tiene dos dimensiones, ya que nos podemos mover a través de él en dos direcciones, y en cualquier
combinación de ellas (figura 6.5.).
Figura 6.5: En un cuadrado, es posible moverse en dos direcciones.
Sin embargo, esta forma de contar las dimensiones de un objeto es poco precisa, y nos puede dar problemas si el objeto a estudiar es más complicado, como
una curva o una superficie arrugada en el espacio. Existe una forma de definir la
1 [email protected]
100
dimensión de un objeto, y es a través de medirlo. Aquı́ discutiremos cómo se lleva
a cabo esto.
Empecemos con el siguiente ejemplo: ¿cómo calculamos la longitud de un segmento de recta? Lo primero que tenemos que hacer es establecer una unidad de
longitud, y luego comparamos esta unidad con el segmento que se desea medir,
como en la figura 6.3. Es posible que la comparación no sea exacta, es decir, que la
1
1
1
l~2
1/2
1/2
1/2
1/2
l ~ 3/2
1/8
1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8 1/8
l ~ 11/8
Figura 6.6: La longitud de un segmento se mide aproximadamente comparando una unidad con el segmento a ser medido. Mejores aproximaciones se obtienen al usar reglas más pequeñas.
longitud del segmento no corresponda a un número entero de veces la longitud de
la unidad, por lo que sólo obtendremos una aproximacı́on a la longitud; sin embargo, podemos obtener mejores aproximaciones si utilizamos reglas más pequeñas.
En fin, de seguir ası́, decimos que la longitud es la aproximación que obtenemos
en el lı́mite cuando la longitud de la unidad utilizada tiende a cero, es decir
l = lı́m εN (ε),
ε→0
(6.1)
donde ε es la longitud de la unidad utilizada, y N (ε) es el número de unidad que
tenemos que utilizar para cubrir el segmento que se desea medir.
De manera similar, el área de un cı́rculo, por ejemplo, se calcula aproximándola
con una unidad de área, que en esta ocasión corresponderá a un cuadrado dado,
como en la figura 6.3. Si el cuadrado tiene lado ε, entonces su área está dada por
ε2 , y por lo tanto, si, como antes, N (ε) es el número de cuadrados que se necesitan
para cubrir el cı́rculo, entonces su área estará aproximada por ε2 × N (ε). Ası́, su
Instituto Heisenberg, Anuario 2004
101
ε
ε
Figura 6.7: El área de una región en el plano se aproxima al comparar
una unidad dada, en este caso un cuadrado de lado ε, con la región a
medir. La aproximación es entonces ∼ ε2 N (ε).
área se define como el lı́mite que se obtiene al utilizar cuadrados cada vez más
pequeños, es decir,
A = lı́m ε2 N (ε).
(6.2)
ε→0
La única diferencia entre las ecuaciones (6.1) y (6.2) es el exponente con el que
aparece ε, es decir, el exponente que calcula la medida de la unidad utilizada. En la
primera, el exponente es uno, mientras que en la segunda es dos. Decimos entonces
que la dimensión del segmento de recta es uno, y la dimensión del cı́rculo es dos.
Podemos ahora dar una definición precisa del término dimensión. Por simplicidad,
nos restringiremos a objetos en el plano.
Definición. Decimos que un objeto en el plano tiene medida positiva si existe un
número n tal que el lı́mite
lı́m εn N (ε)
(6.3)
existe y es un número positivo. N (ε) denota el número de cuadrados que se requieren para cubrir el objeto a ser medido. El número n es llamado la dimensión
del objeto.
Hasta ahora hemos visto ejemplos de objetos con dimensión 1 y 2. ¿Existen
otras posibilidades? Es fácil ver que el caso n = 0 se obtiene en el caso de que el
objeto es un punto (N (ε) = 1 para cualquier ε > 0). Consideremos el siguiente
ejemplo.
102
La curva de Koch es un objeto construı́do de la siguiente forma: Dividimos un
segmento dado en tres partes iguales y remplezamos el segmento central por dos
segmentos de la misma longitud, formando dos lados de un triángulo equilátero,
como en la figura 6.3. Realizamos la misma operación con cada unos de los cuatro
Figura 6.8: Las primeras tres iteraciones en la construcción de la curva
de Koch.
nuevos segmentos, y continuamos de esa manera. En el lı́mite, obtenemos un objeto
que se asemeja a una curva, aunque con un número infinito de picos. ¿Cuál es la
dimensión de este objeto?
Nuestra intuición nos dice que su dimensión debe ser uno. Sin embargo, al
intentar calcular el lı́mite: lı́mε→0 εN (ε), tenemos que dicho lı́mite no existe; de
hecho, εN (ε) tiende a infinito, lo cual siginificarı́a que la curva de Koch tiene una
longitud infinita. Esto se puede ver tomando ε = 1/3, 1/9, . . . , 3−k , . . ., ya que,
para dichos valores de ε, N (3−k ) = 4k , y (4/3)k → ∞ cuando k → ∞ (es decir,
ε → 0).
La solución es permitir que la dimensión n de la fórmula (6.3) tome valores no
necesariamente enteros. En el caso de la curva de Koch, si tomamos
n=
log 4
,
log 3
entonces tenemos que, si ε = 3−k ,
log 4
εn · N (ε) = 3−k log 3 · 4k = 1,
Instituto Heisenberg, Anuario 2004
103
y no es muy difı́cil demostrar que, de hecho,
log 4
lı́m ε log 3 N (ε) = 1.
ε→0
Por lo tanto, concluı́mos que la dimensión de la curva de Koch no es un número
entero, sino que es
log 4
≈ 1· 2619.
log 3
Podemos encontrar otros ejemplos de objetos con dimensión fraccionaria. Dichos objetos son conocidos como fractales, término acuñado por el matemático
polaco Benoit Mandelbrot en los años setenta. El término fractal proviene de fraccionario o quebrado, y se refiere tanto a la forma aparente de los objetos como a
su dimensión.
Veamos otros ejemplos. Iniciemos con el conjunto de Cantor, construı́do de la
siguiente forma: empezamos con el intervalo cerrado [0, 1], y le sustraemos en tercio
central, es decir, el intervalo (1/3, 2/3). De tal forma, obtenemos el conjunto unión
de los intervalos [0, 1/3] ∪ [2/3, 1]. De nuevo, sustraemos el tercio central de cada
uno de estos intervalos, y ası́ sucesivamente (véase figura 6.3.).
0
1/9
2/9
1/3
2/3
7/9
8/9
1
Figura 6.9: La construcción del conjunto de Cantor hasta la quinta
iteración.
El conjunto de Cantor tiene dimensión (log 2)/(log 3) ≈ 0· 6309, lo cual se puede
ver tomando ε = 3−k y observando que para dichos ε tenemos
N (3−k ) = 2k .
Otro ejemplo de un conjunto fractal es el triángulo de Sierpinski. Este se construye de la siguiente forma: Empezamos con un triángulo equilátero en el plano,
lo dividimos en cuatro triángulos iguales bisecando cada uno de sus lados, y sustraemos el triángulo central. Realizamos la misma operación en cada uno de los
tres triángulos restantes, y ası́ sucesivamente (véase figura 6.3.).
Lo que obtenemos es un triángulo sin área, es decir,
lı́m ε2 N (ε) = 0.
ε→0
Esto se debe a que, por ejemplo, si tomamos ε = 2−k , entonces N (ε) = 3k , y
4−k ·3k → 0 cuando k → ∞. Sin embargo, si tomamos n = (log 3)/(log 2), entonces
log 3
ε log 2 N (ε) = 1.
104
Figura 6.10: Las primeras iteraciones en la construcción del triángulo
de Sierpinski.
Por lo tanto, la dimensión del triángulo de Sierpinski es
(log 3)/(log 2) ≈ 1· 585.
En conclusión, el concepto de dimensión como el número de direcciones libres
que posee un objeto es incompleto. Sin embargo, al definir la medida por medio de
la ecuación (6.3), ésta nos lleva de manera natural a un concepto de dimensión más
general, que además permite la existencia de objetos con dimensiones fraccionarias,
llamados fractales.
Instituto Heisenberg, Anuario 2004
6.4.
105
Modelos poblacionales
Christopher M. Kribs Zaleta 1
Department of Mathematics, University of Texas at Arlington
Arlington, TX. US.
y
Cynthia Hixahuary Sánchez Tapia 2
Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo # 340
Colima, Col., México. C.P. 28045
6.4.1.
Introducción
Teorı́a determinı́stica: Los modelos determinı́sticos de población existen en
dos formas:
Usando una variable de tiempo y una escala de edad continuas (Ecuaciones
diferenciales).
Usando una variable de tiempo y una escala de edad discretas (Ecuaciones
en diferencias).
Ambas formas tienen sus ventajas, pero será la formulación en tiempo discreto
(Ecuaciones en diferencias) la que abordaremos en este artı́culo. Desarrollaremos
el análisis de tres modelos: El modelo de Thomas Malthus, el modelo logı́stico y
el modelo de epidemia logı́stica.
6.4.2.
Modelo Thomas Malthus (1798)
Supón que estás interesado en saber la cantidad de peces que habitan en una
laguna, pero que además es importante conocer el número de peces que habitarán
la laguna para el siguiente año, el modelo de Malthus asegura que “la taza de
reproducción depende del tamaño actual de la población”, y lo podemos escribir
como sigue:
Xn+1 = rXn ,
donde:
Xn+1 es el tamaño de la población de peces al tiempo n + 1
r es la constante reproductiva
1 [email protected]
2 [email protected]
(6.1)
106
Desarrollando para las primeras n, veremos que, en general:
Xn = X 0 r n ,
(6.2)
donde X0 es la población inicial.
De la ecuación (2) observamos dos cosas importantes:
1. Si |r| > 1 la población crece a infinito. Aunque biológicamente no tenga
sentido decir que una población crece a menos infinito, este resultado se interpretará como que la población crece indefinidamente, al igual que cuando
crece a más infinito.
2. Si |r| < 1 la población tiende a extinguirse, que serı́a el equilibrio trivial del
ecosistema, el equilibrio sin peces en la laguna.
Después de dichas observaciones, podemos ver las limitaciones de este modelo,
pues en la naturaleza no existen poblaciones donde el número de individuos vaya a infinito. El error de este modelo radica en que no considera la variable de
mortalidad de la población, o la capacidad del medio ambiente para sostener a la
población, entre otras. Es claro que la laguna será capaz de producir alimento sólo
para una cierta cantidad de peces, el modelo logı́stico considera esta capacidad del
ecosistema para sostener a una población.
6.4.3.
Modelo logı́stico
Un simple modelo poblacional en el que el crecimiento per cápita es una función
decreciente del tamaño de la población:
Xn+1 = r(1 −
Xn
)Xn ,
K
(6.3)
que es menor o igual que la ecuación 6.1.
En la ecuación 6.3 se consideran positivas o iguales a cero a sus elementos, la
nueva incógnita es K que representa la capacidad del ambiente para mantener a
la población.
Analizando la ecuación 6.3 obtenemos que:
1. Si 0 < r < 1 entonces conforme n crece, Xn se aproxima a cero.
2. Si r ≥ 1, entonces podemos considerar lo que llamamos Puntos Fijos (X∞ )
Xn+1 = Xn ,
(6.4)
y obtenemos X∞ = K(1 − r1 ) siempre que 1 ≤ r < 3.
¿Qué sucede si r > 3? La respuesta es Caos
Si por ejemplo tomáramos r = 3· 1, K = 1 y X1 = 1/4 y resolvemos para
distintas n, obtenemos los resultados mostrados en los cuadros 6.1 y 6.2.
Instituto Heisenberg, Anuario 2004
107
Cuadro 6.1: Algunos valores de n y Xn para r = 3· 1, K = 1 y X1 = 1/4
n
1
2
3
4
5
6
7
8
9
10
Xn
0.250
0.581
0.754
0.574
0.758
0.569
0.760
0.565
0.762
0.562
n
11
12
13
14
15
16
17
18
19
20
Xn
0.763
0.561
0.764
0.560
0.764
0.559
0.764
0.559
0.764
0.558
Cuadro 6.2: Puntos de bifurcación con perı́odo duplicado.
r1
r2
r3
r4
r5
...
r∞
3
3.4495
3.5441
3.5644
3.5487
...
3.569946
perı́odo-2
perı́odo-4
perı́odo-8
perı́odo-16
perı́odo-32
...
Analizando los puntos fijos (equilibrios) de un perı́odo duplicado (doubling period):
!
r(1 − XKn )Xn
Xn
)Xn ) ,
(6.5)
Xn+2 = r 1 −
(r(1 −
K
K
√
(r+1)± (r+1)(r−3)
donde los equilibrios son: X∞ = 0, X∞ = K(1 − r1 ) o X∞ = K
.
2r
En términos ecológicos caos significa que una pequeña modificación que altera
la población drásticamente (y este cambio puede ser positivo o negativo para la
población). Es decir, la población se vuelve más diversa pero también más frágil,
una población con comportamiento caótico tiene un ciclo de vida más complejo.
6.4.4.
Modelo logı́stico de una epidemia
Supón una enfemedad contagiosa que afecta a una población constante, donde
el tamaño de la población es N , y ésta se divide en susceptibles (S = N − I),
108
individuos sanos que están en riesgo de contraer la enfermedad e infectados (I),
individuos contagiados con dicha enfermedad. Existe una taza per cápita de sanación (γ), es decir, personas que estuvieron enfermas y se han recuperado, por
último una tasa per cápita de infección (β). El modelo se representa como sigue:
In+1 = (1 − γ)In + βIn (
(6.6)
In
N
en la ecuación 6.6 obtenemos:
!
Xn
= (1 + β − γ)Xn 1 − 1+β−γ ,
Haciendo la sustitución Xn =
Xn+1
N − In
).
N
(6.7)
β
que es la ecuación logı́stica.
Ası́ que rápidamente podemos deducir que:
β < γ sı́ y sólo si 0 < 1 + β − γ < 1 entonces la enfermedad desaparece
(Xn → 0)
γ < β < γ + 2 sı́ y sólo si 1 < 1 + β − γ < 3 entonces Xn → (1 − βγ )
β > γ + 2 sı́ y sólo si 1 + β − γ > 3 entonces las soluciones son del tipo
caótico.
El problema de resultados del tipo caótico es que no podemos tener controlada a
la enfermedad, pues en este comportamiento el porcentaje de población infectada
puede ser mı́nimo y hacernos creer que la enfermedad ya está erradicada, cuando
eso no es verdad. El brote puede ser diverso, es decir, que es difı́cil de erradicarlo
en varios lugares simultaneamente. Cuando decimos que es frágil se puede eradicar
en ciertos lugares.
6.4.5.
Conclusiones
En cada modelo hay cierta cantidad umbral que cambia de forma cualitativa el
comportamiento del modelo. Este efecto ha sido observado experimentalmente y
corresponde a un fenómeno matemático que se llama: bifurcación. En el modelo de
Malthus y el modelo logı́stico la clave es r, mientras que en el modelo de epidemia
logı́stica es R0 = βγ , que se interpreta como el número de reproducción de la
enfermedad.
Instituto Heisenberg, Anuario 2004
6.5.
109
Algoritmos genéticos
Carlos Moisés Hernández Suárez1
Facultad de Ciencias, Universidad de Colima
Av. Bernal Dı́az del Castillo #340
Colima, Colima, México, 28045
6.5.1.
Antecedentes
El algoritmo genético es una técnica de búsqueda basada en la teorı́a de la
evolución de Darwin, que ha cobrado tremenda popularidad en todo el mundo
durante los últimos años. Se presentarán aquı́ los conceptos básicos que se requieren
para abordarla, ası́ como unos sencillos ejemplos que permiten comprender cómo
aplicarla al problema de su elección.
En los últimos años, la comunidad cientı́fica internacional ha mostrado un creciente interés en una nueva técnica de búsqueda basada en la teorı́a de la evolución
y que se conoce como el algoritmo genético. Esta técnica se basa en los mecanismos
de selección que utiliza la naturaleza, de acuerdo a los cuales los individuos más
aptos de una población son los que sobreviven, al adaptarse más fácilmente a los
cambios que se producen en su entorno. Hoy en dı́a se sabe que estos cambios se
efectúan en los genes de un individuo (unidad básica de codificación de cada uno
de los atributos de un ser vivo), y que sus atributos más deseables (i.e., los que le
permiten adaptarse mejor a su entorno) se transmiten a sus descendientes cuando
éste se reproduce sexualmente.
Un investigador de la Universidad de Michigan llamado John Holland, era consciente de la importancia de la selección natural, y a fines de los sesenta desarrolló una técnica que permitió incorporarla a un programa. Su objetivo era lograr
que las computadoras aprendieran por sı́ mismas. A la técnica que inventó Holland
se le llamó originalmente planes reproductivos, pero se hizo popular bajo el nombre
algoritmo genético tras la publicación de su libro en 1975.
Una definición bastante completa de un algoritmo genético es la propuesta por
John Koza: “Es un algoritmo matemático altamente paralelo que transforma un
conjunto de objetos matemáticos individuales con respecto al tiempo, usando operaciones modeladas de acuerdo al principio Darwiniano de reproducción y supervivencia del más apto, y tras haberse presentado de forma natural una serie de
operaciones genéticas de entre las que destaca la recombinación sexual. Cada uno
de estos objetos matemáticos suelen ser una cadena de caracteres (letras o números) de longitud fija que se ajusta al modelo de las cadenas de cromosomas, y se
les asocia con una cierta función matemática que refleja su aptitud.”
1 [email protected]
110
6.5.2.
Definición
Los Algoritmos Genéticos (AG) son métodos adaptativos que pueden usarse
para resolver problemas de búsqueda y optimización. Están basados en el proceso
genético de los organismos vivos. A lo largo de las generaciones, las poblaciones
evolucionan en la naturaleza de acorde con los principios de la selección natural y
la supervivencia de los más fuertes, postulados por Darwin. Por imitación de este
proceso, los AG son capaces de ir creando soluciones para problemas del mundo
real. La evolución de dichas soluciones hacia valores óptimos del problema depende
en buena medida de una adecuada codificación de las mismas.
Un algoritmo genético consiste en una función matemática o una rutina de
software que toma como entradas a los ejemplares y retorna como salidas cuales
de ellos deben generar descendencia para la nueva generación.
Versiones más complejas de algoritmos genéticos generan un ciclo iterativo que
directamente toma a la especie (el total de los ejemplares) y crea una nueva generación que reemplaza a la antigua una cantidad de veces determinada por su propio
diseño. Una de sus caracterı́sticas principales es la de ir perfeccionando su propia
heurı́stica en el proceso de ejecución, por lo que no requiere largos perı́odos de
entrenamiento especializado por parte del ser humano, principal defecto de otros
métodos para solucionar problemas, como los Sistemas Expertos.
6.5.3.
Problemática
Los principios básicos de los Algoritmos Genéticos fueron establecidos por Holland, y se encuentran bien descritos en varios textos: Goldberg, Davis, Michalewicz, Reeves.
En la naturaleza, los individuos de una población compiten entre sı́ en la búsqueda de recursos tales como comida, agua y refugio. Incluso los miembros de una
misma especie compiten a menudo en la búsqueda de un compañero. Aquellos
individuos que tienen más éxito en sobrevivir y en atraer compañeros tienen mayor probabilidad de generar un gran número de descendientes. Por el contrario,
individuos poco dotados producirán un menor número de descendientes. Esto significa que los genes de los individuos mejor adaptados se propagarán en sucesivas
generaciones hacia un número de individuos creciente. La combinación de buenas caracterı́sticas provenientes de diferentes ancestros, puede a veces producir
descendientes superindividuos, cuya adaptación es mucho mayor que la de cualquiera de sus ancestros. De esta manera, las especies evolucionan logrando unas
caracterı́sticas cada vez mejor adaptadas al entorno en el que viven.
Los AG usan una analogı́a directa con el comportamiento natural. Trabajan
con una población de individuos, cada uno de los cuales representa una solución
factible a un problema dado. A cada individuo se le asigna un valor o puntuación,
relacionado con la bondad de dicha solución. En la naturaleza esto equivaldrı́a
al grado de efectividad de un organismo para competir por unos determinados
recursos. Cuanto mayor sea la adaptación de un individuo al problema, mayor
Instituto Heisenberg, Anuario 2004
111
será la probabilidad de que él mismo sea seleccionado para reproducirse, cruzando
su material genético con otro individuo seleccionado de igual forma. Este cruce
producirá nuevos individuos –descendientes de los anteriores– los cuales comparten
algunas de las caracterı́sticas de sus padres. Cuanto menor sea la adaptación de un
individuo, menor será la probabilidad de que dicho individuo sea seleccionado para
la reproducción, y por tanto de que su material genético se propague en sucesivas
generaciones.
De esta manera se produce una nueva población de posibles soluciones, la cual
reemplaza a la anterior y verifica la interesante propiedad de que contiene una
mayor proporción de buenas caracterı́sticas en comparación con la población anterior. Ası́, a lo largo de las generaciones, las buenas caracterı́sticas se propagan a
través de la población. Favoreciendo el cruce de los individuos mejor adaptados,
van siendo exploradas las áreas más prometedoras del espacio de búsqueda. Si el
AG ha sido bien diseñado, la población convergerá hacia una solución óptima del
problema.
6.5.4.
Ventajas y desventajas
No necesitan conocimientos especı́ficos sobre el problema que intentan resolver.
Operan de forma simultánea con varias soluciones, en vez de trabajar de
forma secuencial como las técnicas tradicionales.
Cuando se usan para problemas de optimización, maximizar una función
objetivo, resultan menos afectados por los máximos locales (falsas soluciones)
que las técnicas tradicionales.
Resulta sumamente fácil ejecutarlos en las modernas arquitecturas masivamente paralelas.
Usan operadores probabilı́sticos y no los tı́picos operadores determinı́sticos
de las otras técnicas.
Pueden tardar mucho en converger o no converger en absoluto, dependiendo
en cierta medida de los parámetros que se utilicen: tamaño de la población,
número de generaciones, etcétera.
Pueden converger prematuramente debido a una serie de problemas de diversa ı́ndole.
6.5.5.
Limitaciones
El poder de los AG proviene del hecho de que se trata de una técnica robusta, y
pueden tratar con éxito una gran variedad de problemas provenientes de diferentes
áreas, incluyendo aquellos en los que otros métodos encuentran dificultades. Si
112
bien no se garantiza que el AG encuentre la solución óptima del problema, existe
evidencia empı́rica de que se encuentran soluciones de un nivel aceptable, en un
tiempo competitivo con el resto de algoritmos de optimización combinatoria. En el
caso de que existan técnicas especializadas para resolver un determinado problema,
lo más probable es que superen al AG, tanto en rapidez como en eficacia. El gran
campo de aplicación de los AG se relaciona con aquellos problemas para los cuales
no existen técnicas especializadas. Incluso en el caso en que dichas técnicas existan,
y funcionen bien, pueden efectuarse mejoras de las mismas hibridándolas con los
AG.
6.5.6.
¿Cómo saber si es posible usar un algoritmo genético
La aplicación más común de los AG ha sido la solución de problemas de optimización, en donde han mostrado ser muy eficientes y confiables. Sin embargo, no
todos los problemas pudieran ser apropiados para la técnica, y se recomienda en
general tomar en cuenta las siguientes caracterı́sticas del mismo antes de intentar
usarla:
Su espacio de búsqueda (i.e., sus posibles soluciones) debe estar delimitado
dentro de un cierto rango.
Debe poderse definir una función de aptitud que nos indique qué tan buena
o mala es una respuesta.
Las soluciones deben codificarse de una forma que resulte relativamente fácil
de implementar en la computadora.
El primer punto es muy importante, y lo más recomendable es intentar resolver problemas que tengan espacios de búsqueda discretos aunque éstos sean muy
grandes. Sin embargo, también podrá intentarse usar la técnica con espacios de
búsqueda continuos, pero preferentemente cuando exista un rango de soluciones
relativamente pequeño.
La función de aptitud no es más que la función objetivo de nuestro problema de
optimización. El algoritmo genético únicamente maximiza, pero la minimización
puede realizarse fácilmente utilizando el recı́proco de la función maximizante (debe
cuidarse, por supuesto, que el recı́proco de la función no genere una división por
cero). Una caracterı́stica que debe tener esta función es que tiene que ser capaz
de castigar a las malas soluciones, y de premiar a las buenas, de forma que sean
estas últimas las que se propaguen con mayor rapidez.
La codificación más común de las soluciones es a través de cadenas binarias,
aunque se han utilizado también números reales y letras. El primero de estos esquemas ha gozado de mucha popularidad debido a que es el que propuso originalmente
Holland, y además porque resulta muy sencillo de implementar.
Instituto Heisenberg, Anuario 2004
6.5.7.
113
Marco de desarrollo
Antes de continuar ahondando en la técnica de los AG serı́a interesante dejarla
situada dentro de un marco más amplio. Nos referimos a la rama de la Inteligencia
Artificial que se ha denominado Computación Evolutiva.
El término Computación Evolutiva se refiere al estudio de los fundamentos y
aplicaciones de ciertas técnicas heurı́sticas de búsqueda, basadas en los principios naturales de la evolución. Una gran variedad de algoritmos evolutivos han
sido propuestos pero principalmente pueden clasificarse en: Algoritmos Genéticos,
Programación Evolutiva, Estrategias Evolutivas, Sistemas Clasificadores y Programación Genética. Esta clasificación se basa sobre todo en detalles de desarrollo
histórico más que en el hecho de un funcionamiento realmente diferente, de hecho
las bases biológicas en las que se apoyan son esencialmente las mismas. Las diferencias entre ellos se centra en los operadores que se usan en cada caso y en general
en la forma de implementar la selección, reproducción y sustitución de individuos
en una población.
Aunque los detalles de la evolución no han sido completamente comprendidos,
incluso hoy en dı́a, existen algunos puntos en los que se fundamentan:
La evolución es un proceso que opera a nivel de cromosomas, y no a nivel de
individuos. Cada individuo es codificado como un conjunto de cromosomas.
La selección natural es el mecanismo mediante el cual los individuos mejor
adaptados son los que tienen mayores posibilidades de reproducirse.
El proceso evolutivo tiene lugar en la etapa de la reproducción. Es en esta
etapa donde se producen la mutación, que es la causante de que los cromosomas de los hijos puedan ser diferentes a los de los padres, y el cruce, que
combina los cromosomas de los padres para que los hijos tengan cromosomas
diferentes.
De forma breve, pasamos a comentar cada uno de los algoritmos mencionados anteriormente, para que el lector pueda tener una idea de las similitudes y
diferencias entre ellos.
Los AG resuelven los problemas generando poblaciones sucesivas a las que se
aplican los operadores de mutación y cruce. Cada individuo representa una solución
al problema, y se trata de encontrar al individuo que represente a la mejor solución.
La Programación Genética funciona igual que la técnica anterior pero se centra
en el estudio de problemas cuya solución es un programa. De manera que los
individuos de la población son programas que se acercan más o menos a realizar
una tarea que es la solución.
La Programación Evolutiva es otro enfoque de los algoritmos genéticos, en este
caso el estudio se centra en conseguir operadores genéticos que imiten lo mejor
posible a la naturaleza, en cada caso, más que en la relación de los padres con su
descendencia. En este caso no se utiliza el operador de cruce, tomando la máxima
importancia el operador de mutación.
114
Estrategias Evolutivas se centran en el estudio de problemas de optimización e
incluyen una visión del aprendizaje en dos niveles: a nivel de genotipo y a nivel de
fenotipo. Y por último los Sistemas Clasificadores engloban el estudio de problemas
en los que la solución buscada se corresponde con toda una población.
Para finalizar, se muestra un esquema en el que se sitúan las técnicas mencionadas con respecto a otros procedimientos de búsqueda conocidos.
6.5.8.
Comparación con otros métodos de optimización
Algoritmos Genéticos y Matemáticos: Existen problemas de optimización que
pueden ser resueltos por la implementación de un algoritmo tradicional. En este
caso lo más conveniente es utilizarlo.
Por ejemplo: Si tenemos la función Es el doble de, ésta puede ser interpretada
como:
f (x, y) = ∃ x, ∃ y | x + 2y , .
(6.1)
Esto también es válido para funciones booleanas (retornan un valor de Verdadero o Falso). Por ejemplo la función Es mayor que , puede ser interpretada
como
f (x, y) = ∃ x, ∃ y | x > y .
(6.2)
Para resolver un problema que requiera como solución saber solamente cual
número es mas grande, resulta más eficaz utilizar el algoritmo matemático directamente.
Sin embargo, éstos no son aplicables a problemas que posean algunas de estas
caracterı́sticas:
La función representativa del problema no es continua. En este caso el mismo
no es computable. Los algoritmos genéticos pueden trabajar con todo tipo de
funciones ya que encontrarán un mı́nimo aceptable si no es posible encontrar
el óptimo.
La función representativa es dinámica: La relación entre las variables cambia
dependiendo de los valores que tomen las mismas. Esta relación puede ser
advertida o no. Las reglas del tipo
“X es igual a Y si el valor de X es chico.
X es 1.5 de Y si el valor de X es grande.
No se sabe que pasa para valores medios de X”.
No pueden ser convertidas en un algoritmo algebraico ya que existen valores
que se desconocen. A diferencia de un algoritmo tradicional, un algoritmo
genético puede ser diseñado para trabajar bajo estas condiciones.
Instituto Heisenberg, Anuario 2004
115
Algoritmos Genéticos y Métodos Enumerativos: Existe la posibilidad teórica de
encontrar soluciones a problemas de optimización enumerando todas las soluciones posibles para todos los casos, y posteriormente buscando la misma en la base
de datos resultante. Los problemas se limitan entonces a un sistema de búsqueda
eficiente del caso concreto. Por ejemplo, los libros con tablas de logaritmos tradicionales constan de una larga serie de cálculos para todos los valores usuales. La
solución consiste simplemente en buscar en la lista el número decimal y retornar
el logaritmo dado.
La memorización de las tablas de multiplicar que se enseñan a los niños es otro
ejemplo usual. Se espera que ante la pregunta ¿Cuánto es siete por cinco? Los niños
respondan instantáneamente “35” sin tener que estar calculando mentalmente la
multiplicación.
Este método es factible siempre que el número de valores sea manejable. De
otra manera el simple cálculo de los mismos se vuelve imposible. Ejemplo: generar
una tabla que contenga todas las movidas de todos los partidos posibles de un
juego de damas resultarı́a imposible de hacer en la práctica.
La memorización de una serie de datos no es otra cosa que la construcción en
la memoria del equivalente a una base de datos en donde se busca la pregunta y
se encuentra automáticamente la respuesta.
Los algoritmos genéticos usan heurı́stica para la resolución de problemas, lo
cual limita drásticamente el número de datos a utilizar.
Algoritmos Genéticos y Sistemas Expertos: Un Sistema Experto es un programa
de computadora que encuentra soluciones a problemas del tipo condicional con la
estructura:
Si ocurren los hechos A, B, C, D, ¿cuál serı́a el valor del suceso E?
Ejemplo: Si un análisis médico detecta los sı́ntomas A, B, C y D en un paciente,
¿Cuál será la enfermedad del sujeto?
Ejemplo: Si el análisis geológico de una capa de suelo detecta la presencia de los
compuestos quı́micos A, B, C y D. ¿Es factible que exista petróleo en la misma?
Si bien existen en la literatura ejemplos de la utilidad de esta técnica, las reglas
deben ser provistas por un especialista (o varios) en el tema. Por ende, se requiere
que los conocimientos estén disponibles, que sean estructurados o factibles de ser
estructurados (convertidos a reglas heurı́sticas) y que los hechos de la realidad
sean relativamente estáticos; es decir, que las causas para arribar a una determinada conclusión no cambien, ya que cada vez que esto sucede, los expertos deben
reelaborar las reglas, lo cual dificulta y retarda considerablemente la operatoria
del sistema.
Las condiciones básicas necesarias para la implementación efectiva de un sistema
experto pueden observarse en la figura 6.5.8.
Los Sistemas Expertos tuvieron su apogeo en la década de los ochenta, aproximadamente de 1979 a 1985. En esa época se les llegó a considerar verdaderas
panaceas que resolverı́an muchos de los problemas cotidianos del hombre. Incluso
se formaron en ese entonces varias compañı́as con el objeto especı́fico de realizarlos
116
y comercializarlos. Algunos fueron exitosos y funcionaron bien, pero las dificultades
planteadas anteriormente no tardaron en aparecer. En particular:
Existen temas en los cuales el conocimiento no es estático sino que la aparición de nueva información altera las pautas o reglas de inferencia de los
resultados. La necesidad permanente de reevaluar las reglas por medio de
expertos humanos lleva al sistema a una operatoria lenta y burocrática. Cada conocimiento nuevo implica reentrenar manualmente el sistema. Los Sistemas Expertos demostraron no ser útiles en este campo.
Existen temas en los cuales la interrelación de ciertas variables no es conocida. Si la información disponible de cierto asunto es limitada, y no se
conoce el comportamiento de algunas de sus variables, el Sistema Experto
tendrá grandes dificultades de programarse ya que sus reglas serán imprecisas.
Los expertos no siempre estructuran su conocimiento. Existen numerosas
personas que razonan por métodos empı́ricos. Esto hace que les resulte muy
difı́cil traducir sus pensamientos o su método deductivo a reglas que la computadora pueda interpretar. Un Sistema experto no podrá llegar a resultados
valederos cuando los especialistas en un tema no puedan tener estructurados
sus pensamientos. Por ejemplo: supóngase que se quiera programar un sistema experto para calificar obras de arte. Difı́cilmente se encontrará un crı́tico
de arte que pueda estructurar las razones por las cuales considera buena o
mala a una obra de arte. En general, las palabras que pueda decir resultarán
a los oı́dos del programador del sistema como una serie de subjetividades
imposibles de sistematizar.
Luego de observar todo esto, se empezó a considerar a los sistemas expertos
como aptos solamente para entornos reducidos y con condiciones de ejecución
acotadas. La idea del Sistema Experto como resolvedor universal de problemas
quedó sepultada.
Si bien la investigación básica de los algoritmos genéticos es contemporánea a
la de los sistemas expertos, la renovada importancia que se les dio en el ámbito
cientı́fico se produjo en paralelo a la desvalorización que sufrieron estos últimos.
Los algoritmos genéticos se revalorizaron ya que poseen las siguientes ventajas
competitivas:
Solo necesitan asesoramiento del experto cuando se agregan o suprimen variables al modelo. Los Sistemas Expertos requieren la presencia del mismo
ante cada modificación del entorno.
Los algoritmos genéticos solo requieren del asesoramiento del experto para
identificar las variables pertinentes, aunque no es necesario que éstos definan
sus valores ni sus relaciones (las reglas) iniciales o finales. Los Sistemas Expertos solo trabajan con las reglas y valores que les dictan los seres humanos.
Instituto Heisenberg, Anuario 2004
117
Figura 6.11: Condiciones básicas necesarias para la implementación efectiva de un sistema experto.
118
Capı́tulo 7
Participantes
119
120
Nombre
Aguilar Anguiano Angel
Bachillerato No. 4 Ante Lezama Minerva
Arciniega Cobian Edgar
Cárdenas Sánchez Enrique
Chavarı́n Castillo Neptalı́ Uriel
Elias Rosales J. Hoscar
Flores Cárdenas Enriqueta
Garcı́a Vázquez Silvino
Guerra Garcı́a Luis Arturo
Guerra Guzmán Luis Miguel
Gutiérrez Vargas Yair Alejandro
Gutiérrez Zárate Gemma Gisell
Haces Pacheco David
Hernández Cuevas Karla
Isaı́s Millán Sara
López Ortega Lizeth
Marı́n Cruz Estefani Gabriela
Negrete Ramı́rez José Manuel
Ramı́rez Guzmán Juan Carlos
Reyes Alfaro Gabriel
Rı́os Flores Perla
Rodrı́guez González Laura Viridiana
Ruı́z Hernández Lidia
Valencia Ruı́z Manuel
Vázquez Cernas Homero Ulises
Velasco Garcı́a Homero
Institución
Bachillerato No. 4
Bachillerato No. 11
Cbta 148
Bachillerato No. 4
Bachillerato No. 11
Bachillerato No.1
Bachillerato No. 11
Bachillerato No. 1
Bachillerato No. 11
Bachillerato No. 11
Bachillerato No. 4
Cbta 148
Bachillerato No. 4
ITESM
Bachillerato No. 4
Bachillerato No. 4
Bachillerato No. 4
Bachillerato No. 11
ITESM
Bachillerato No. 4
Bachillerato No. 4
Bachillerato No. 11
Bachillerato No. 4
ITESM
Bachillerato No. 15
Instituto Heisenberg, Anuario 2004
121
122
Instituto Heisenberg
Anuario 2004
Alfredo Aranda Fernández
Se terminó de imprimir en ???? de 2004 en la Dirección General de
Publicaciones de la Universidad de Colima, Colima, México.
Diseño: Alfredo Aranda Fernández/ Corrección: Myriam Cruz Calvario
Descargar