INTRODUCCION La física es una ciencia fundamental que tiene

Anuncio
INTRODUCCION
La física es una ciencia fundamental que tiene una profunda influencia en todas
las otras ciencias. Por consiguiente, no sólo los estudiantes de física e ingeniería,
sino todo aquel que piense seguir una carrera científica (biología, química y
matemática) debe tener una completa comprensión de sus ideas fundamentales.
La palabra física viene del término griego que significa naturaleza, y por ello la
física debía ser una ciencia dedicada al estudio de todos los fenómenos naturales.
La física es una ciencia muy compleja y desarrollada, pero a la vez muy simple,
puesto que trata de las características más simples y fundamentales que son
comunes a cualquier proceso, sistema, fenómeno, etc. Es la ciencia más general,
puesto que sus principios son independientes de la naturaleza particular del objeto
de estudio, y son válidos para cualquier fenómeno que se produzca en la
naturaleza.
La simplicidad de la física reside en que sus principios fundamentales son
únicamente dos. Efectivamente, todo lo que enseña la física acerca de la
naturaleza puede resumirse en dos afirmaciones. Ahora bien, tales afirmaciones o
principios distan mucho de ser obvios, y su comprensión requiere un importante
esfuerzo y preparación conceptual. Por ejemplo, para su correcta comprensión es
necesaria una preparación matemática que permita el manejo de diversos
conceptos matemáticos, tales como fuerza, trabajo, energía, etc. Decimos esto
porque a menudo se tiene la impresión de que la física afirma muchas y complejas
cosas, y uno difícilmente llega a comprender la verdadera enseñanza de la física.
La física se estructura en diversas ramas o subdisciplinas. Desde un punto de
vista estrictamente teórico, Por tanto bajo este enfoque observaras que la física se
divide en dos áreas teóricas: la mecánica y la termodinámica. Además sus
disciplinas tienen ya un carácter aplicado, como por ejemplo, la dinámica de
fluidos, el electromagnetismo, la electrónica, la acústica, la física molecular,
atómica y nuclear, la óptica, la química física, la física del estado sólido, etc. Todas
ellas se fundamentan en la mecánica (clásica y cuántica) y la termodinámica.
Estos temas incluyen a dos grandes grupos de la física la clásica y la moderna
I. MECÁNICA.
Rama de la física que se ocupa del movimiento de los objetos y de su respuesta a
las fuerzas. Las descripciones modernas del movimiento comienzan con una
definición cuidadosa de magnitudes como el desplazamiento, el tiempo, la
velocidad, la aceleración, la masa y la fuerza.
Sin embargo, hasta hace unos 400 años el movimiento se explicaba desde un
punto de vista muy distinto. Por ejemplo, los científicos razonaban —siguiendo las
ideas del filósofo y científico griego Aristóteles— que una bala de cañón cae
porque su posición natural está en el suelo; el Sol, la Luna y las estrellas
describen círculos alrededor de la Tierra porque los cuerpos celestes se mueven
por naturaleza en círculos perfectos.
El físico y astrónomo italiano Galileo reunió las ideas de otros grandes pensadores
de su tiempo y empezó a analizar el movimiento a partir de la distancia recorrida
desde un punto de partida y del tiempo transcurrido. Demostró que la velocidad de
los objetos que caen aumenta continuamente durante su caída. Esta aceleración
es la misma para objetos pesados o ligeros, siempre que no se tenga en cuenta la
resistencia del aire (rozamiento). El matemático y físico británico Isaac Newton
mejoró este análisis al definir la fuerza y la masa, y relacionarlas con la
aceleración. Para los objetos que se desplazan a velocidades próximas a la
velocidad de la luz, las leyes de Newton han sido sustituidas por la teoría de la
relatividad de Albert Einstein. Para las partículas atómicas y subatómicas, las
leyes de Newton han sido sustituidas por la teoría cuántica. Pero para los
fenómenos de la vida diaria, las tres leyes del movimiento de Newton siguen
siendo la piedra angular de la dinámica (el estudio de las causas del cambio en el
movimiento).
1.1. SISTEMA BIDIMENSIONAL
1.1.1. TIRO PARABÓLICO
En este programa, se estudia un caso particular de movimiento curvilíneo, el tiro
parabólico, que es la composición de dos movimientos:

Uniforme a lo largo del eje X.

Uniformemente acelerado a lo largo del eje vertical Y.
Para resolver un problema de tiro parabólico es necesario seguir los siguientes
pasos
1.-Establecer el sistema de referencia, es decir, el origen y los ejes horizontal X, y
vertical Y
2.-Determinar el valor y el signo de la aceleración vertical
3.-Las componentes de la velocidad inicial (incluido el signo)
4.-La posición inicial
5.-Escribir las ecuaciones del movimiento
6.-A partir de los datos, hallar las incógnitas
1.1.1 Interpretación grafica del tiro parabólico
Las ecuaciones del movimiento de un proyectil bajo la aceleración constante de la
gravedad son:
Eliminado el tiempo en las ecuaciones que nos dan las posiciones x e y,
obtenemos la ecuación de la trayectoria, que tiene la forma y=ax2 +bx +c, lo que
representa una parábola. Obtenemos la altura máxima, cuando la componente
vertical de la velocidad vy es cero; el alcance horizontal x cuando el cuerpo retorna
al suelo y=0.
Las ecuaciones del movimiento de un proyectil bajo la aceleración constante de la
gravedad son:
Eliminado el tiempo en las ecuaciones que nos dan las posiciones x e y,
obtenemos la ecuación de la trayectoria, que tiene la forma y=ax2 +bx +c, lo que
representa una parábola.
Obtenemos la altura máxima, cuando la componente vertical de la velocidad vy es
En la figura tenemos un proyectil que
se ha disparado con una velocidad
inicial v0, haciendo un ángulo
con
la horizontal, las componentes de la
velocidad inicial son
Como
el
tiro
parabólico
es
la
composición de dos movimientos:

movimiento
rectilíneo
y
uniforme a lo largo del eje X

uniformemente acelerado a lo
largo del eje Y
cero; el alcance horizontal x cuando el cuerpo retorna al suelo y=0.
1.1.3. MOVIMIENTO CIRCULAR
Se define movimiento circular como aquél cuya trayectoria es una circunferencia.
Una vez situado el origen O de ángulos describimos el movimiento circular
mediante las siguientes magnitudes.
Posición angular,
En el instante t el móvil se encuentra en el punto
P. Su posición angular viene dada por el ángulo
,
que hace el punto P, el centro de la circunferencia
C y el origen de ángulos O.
El ángulo
, es el cociente entre la longitud del
arco s y el radio de la circunferencia r,
posición
angular
es
el
cociente
=s/r. La
entre
dos
longitudes y por tanto, no tiene dimensiones.
En la figura tenemos un proyectil que se ha
disparado con una velocidad inicial v0,
haciendo un ángulo
con la horizontal,
las componentes de la velocidad inicial son
Como el tiro parabólico es la composición
de dos movimientos:

movimiento rectilíneo y uniforme a lo
largo del eje X

uniformemente acelerado a lo largo
del eje Y
1.1.4. VELOCIDAD ANGULAR
En el instante t' el móvil se encontrará en la
posición P' dada por el ángulo
habrá desplazado
tiempo
=
' -
'. El móvil se
en el intervalo de
t=t'-t comprendido entre t y t'.
Se denomina velocidad angular media al cociente entre el desplazamiento y el
tiempo.
Como ya se explicó en el movimiento rectilíneo, la velocidad angular en un
instante se obtiene calculando la velocidad angular media en un intervalo de
tiempo que tiende a cero.
1.1.4. Aceleración angular
Si en el instante t la velocidad angular del móvil es
y en el instante t' la velocidad angular del móvil
es
'. La velocidad angular del móvil ha cambiado
= ' -
en el intervalo de tiempo
t=t'-t
comprendido entre t y t'.
Se denomina aceleración angular media al cociente entre el cambio de velocidad
angular y el intervalo de tiempo que tarda en efectuar dicho cambio.
La aceleración angular en un instante, se obtiene calculando la aceleración
angular media en un intervalo de tiempo que tiende a cero.
Dada la velocidad angular, hallar el desplazamiento angular
Si conocemos un registro de la velocidad angular del móvil podemos calcular su
desplazamiento
El producto
-
0
entre los instantes t0 y t, mediante la integral definida.
dt representa el desplazamiento angular del móvil entre los
instantes t y t+dt, o en el intervalo dt. El desplazamiento total es la suma de los
infinitos desplazamientos angulares infinitesimales entre los instantes t0 y t.
En la figura, se muestra una gráfica de la velocidad angular en función del tiempo,
el área en color azul mide el desplazamiento angular total del móvil entre los
instantes t0 y t, el arco en color azul marcado en la circunferencia.
Hallamos la posición angular
inicial
0
del móvil en el instante t, sumando la posición
al desplazamiento, calculado mediante la medida del área bajo la curva
-t o mediante cálculo de la integral definida en la fórmula anterior.
Dada la aceleración angular, hallar el cambio de velocidad angular
Del mismo modo que hemos calculado el desplazamiento angular del móvil entre
los instantes t0 y t, a partir de un registro de la velocidad angular
tiempo t, podemos calcular el cambio de velocidad
-
0
en función del
que experimenta el móvil
entre dichos instantes, a partir de una gráfica de la aceleración angular en función
del tiempo.
En la figura, el cambio de velocidad
área bajo la curva
-
0
es el
- t, o el valor numérico de la
integral definida en la fórmula anterior.
Conociendo el cambio de velocidad angular
y el valor inicial
0
0,
en el instante inicial t0,
podemos calcular la velocidad angular
instante t.
-
en el
Resumiendo, las fórmulas empleadas para resolver problemas de movimiento
circular son similares a las del movimiento rectilíneo.
1.2. Movimiento circular uniforme
Un movimiento circular uniforme es aquél cuya
velocidad angular
es constante, por tanto, la
aceleración angular es cero. La posición
angular
del móvil en el instante t lo podemos
calcular integrando
-
0=
(t-t0)
o gráficamente, en la representación de
en
función de t.
Habitualmente, el instante inicial t0 se toma como cero. Las ecuaciones del
movimiento circular uniforme son análogas a las del movimiento rectilíneo
uniforme
Movimiento circular uniformemente acelerado
Un
movimiento
circular
uniformemente
acelerado es aquél cuya aceleración
es
constante.
Dada la aceleración angular podemos obtener
el cambio de velocidad angular
-
0
entre los
instantes t0 y t, mediante integración, o
gráficamente.
Dada la velocidad angular
en función del
tiempo, obtenemos el desplazamiento
-
0
del móvil entre los instantes t0 y t, gráficamente
(área de un rectángulo + área de un triángulo),
o integrando
Habitualmente, el instante inicial t0 se toma como cero. Las fórmulas del
movimiento circular uniformemente acelerado son análogas a las del movimiento
rectilíneo uniformemente acelerado.
Despejando el tiempo t en la segunda ecuación y sustituyéndola en la tercera,
relacionamos la velocidad angular ù con el desplazamiento è-è0
1.2 SISTEMA TRIDIMENSIONAL
1.2.1 CONDICIONES DE EQUILIBRIO.
El equilibrio mecánico es una situación estacionaria en la que la se cumplen una
de estas dos condiciones:
(1) Un sistema está en equilibrio mecánico cuando la suma de fuerzas y
momentos, sobre cada partícula del sistema es cero.
(2) Un sistema está en equilibrio mecánico si su posición en el espacio de
configuración es un punto en el que el gradiente de energía potencial es cero.
La alternativa (2) de definición equilibrio que es más general y útil (especialmente
en mecánica de medios continuos).
Definición basada en equilibrio de fuerzas
Como consecuencia de las leyes de la mecánica, una partícula en equilibrio no
sufre aceleración lineal ni de rotación, pero puede estar moviéndose a velocidad
uniforme o rotar a velocidad angular uniforme. Esto es ampliable a un sólido rígido.
Las ecuaciones necesarias y suficientes de equilibrio mecánico son:
Una partícula o un sólido rígido esta en equilibrio de traslación cuando: la suma de
todas las fuerzas que actúan sobre el cuerpo es cero.
En el espacio, tiene tres ecuaciones de fuerzas, una por dimensión;
Descomponiendo cada fuerza en sus coordenadas tenemos:
Y como un vector es cero, cuando cada una de sus componentes es cero,
tenemos:
1.
2.
3.
Un solidó rígido esta en equilibrio de traslación cuando la suma, de las
componentes, de las fuerzas que actúan sobre él es cero.
Un sólido rígido esta en equilibrio de rotación, si la suma de momentos sobre el
cuerpo es cero.
En el espacio tiene las tres ecuaciones una por dimensión; por un razonamiento
similar al de las fuerzas:
Resultando:
1.
2.
3.
Un sólido rígido está en equilibrio de rotación cuando la suma de las componentes
de los momentos que actúan sobre él es cero
Un sólido rígido está en equilibrio si está en equilibrio de traslación y de rotación.
Se distingue un tipo particular de equilibrio mecánico llamado equilibrio estático
que correspondería a una situación en que el cuerpo está en reposo, con
velocidad cero: una hoja de papel sobre un escritorio estará en equibrio mecánico
y estático, un paracaidista cayendo a velocidad constante, dada por la velocidad
límite estaría en equilibrio mecánico pero no estático.
Definición basada en la energía potencial
La definición (1) del principio de este artículo es de poca utilidad en mecánica de
medios continuos, puesto que esa definición no es fácilmente generalizable a un
medio continuo. Además dicha definición no proporciona información sobre uno de
los aspectos más importantes del estado de equilibrio, la estabilidad. Para este
tipo de sistemas lo más cómodi es usar la definición (2). Debido a la relación
fundamental entre fuerza y energía, esta definición es equivalente a la primera
definición (1). Además esta segunda definición puede extenderse fácilmente para
definir el equilibrio estable. Si la función de energía potencial es diferenciable,
entonces los puntos de equilibrio coincidirán con los puntos donde ocurra un
máximo o un mínimo locales de la energía potencial.
Estabilidad del equilibrio
El análisis de la estabilidad del equilibrio puede llevarse a cabo estudiando los mínimos y
máximos locales (extremos locales) de la función de energía potencial.
Un resultado elemental del análisis matemático dice una condición necesaria para
la existencia de un extremo local de una función diferenciable es que todas las
derviadas primeras se anulen en algún punto. Para determinar problemas
unidimensionales, comprobar si un punto de equilibrio es estable, inestable o
indiferente implica verificar las derivadas segundas de la energía potencial:
Un punto es de equilibrio inestable, si la segunda derivada de la energía potencial
< 0 y por tanto la energía potencial tiene un máximo local. Si el sistema se sufre
una desplazamiento ni que sea pequeño de su posición de equilibrio entonces se
alejará más y más de él (de ahí el nombre inestabilidad para esa situación).
Un punto es de equilibrio indiferente o neutral, si la segunda derivada = 0,
entonces encontramos una región donde la energía no varía. Así si el sistema es
desplazado de la posición de equilibrio una cantidad suficientemente pequeña,
posiblemente no volverá a acercarse al equilibrio pero tampoco divergerá mucho
de la posición anterior de equilibrio.
Un punto es dequilibrio estable si la segunda derivada > 0 y por tanto la energía
potencial tiene un mínimo local. La respuesta del sistema frente a pequeñas
perturbaciones o un alejamiento arbitrariamente pequeño de del punto de
equilibrio es volver u oscilar alrededor del punto de equilibrio. Si existe más de un
punto de equilibrio estable para un sistema, entonces se dice que cualquiera de
ellos cuya energía potencia es mayor que el mínimo absoluto representa un
estado metaestable.
Para problemas bidimensionales y tridimensionales (o más generalmente ndimensionales) la discusión anterior de la estabilidad se hace más complicada y
requiere examinar la forma cuadrática Q(x1,...,xn) definida por la matriz hessiana
de la energía potencial:
Equilibrio estable, se da cuando la forma cuadrática Q(x1,...,xn) es definida
positiva y, por tanto, todos sus autovalores son números positivos.
Equilibrio totalmente inestable, se da cuando la forma cuadrática Q(x1,...,xn) es
definida negativa, por tanto, todos sus autovalores son negativos.
Equilibrio mixto inestable, se da cuando la forma cuadrática Q(x1,...,xn) es no es
definida positiva y alguno de sus autovalores es negativo. Esto implica que según
ciertas direcciones puede haber estabilidad unidimensional pero según otras habrá
inestabilidad unidimensional
1.2.2 MOMENTO DE FUERZA
En mecánica newtoniana, se denomina momento de fuerza, momentum, torque,
par (o sencillamente momento) [respecto a un punto fijado B] a la magnitud que
viene dada por el producto vectorial de una fuerza por un vector director. Más
concretamente si llamamos F a una fuerza, aplicada en un punto A, su momento
respecto a otro punto B viene dado por:
Donde
el vector director que va desde A a B. Por la propia definición del
producto vectorial, el momento
y
es un vector perpendicular al plano formado por
.
Se expresa en unidades de fuerza por unidades de distancia. En el Sistema
Internacional de Unidades resulta Newton·metro.
Interpretación del momento
El momento de una fuerza con respecto a un punto da a conocer en que medida
existe tendencia en una fuerza o desequilibrio de fuerzas que pueda causar la
rotación de un cuerpo con respecto a éste.
Momento de una fuerza
Supongamos que tenemos tres llaves que actúan sobre tres tornillos en la forma
indicada por las figuras. Se aplica una fuerza F en el extremo de la llave. Es fácil
contestar a las siguientes preguntas:

¿En qué situaciones se enrosca el tornillo?

¿En que situaciones se desenrosca el tornillo?

¿Cuáles producen el mismo resultado o son equivalentes?.
En la primera figura, el tornillo avanza
en una dirección perpendicular al plano
de la página, y hacia el lector. El
módulo del momento es F·d.
En la segunda figura, el tornillo avanza
en la misma dirección y sentido. El
módulo del momento es F/2·(2d)=F·d.
Con una llave más larga estamos en
una situación más favorable que con
una llave más corta.
En la tercera figura, el tornillo avanza
en la misma dirección pero en sentido
contrario.

Un momento se considera positivo, si el tornillo sale, avanza hacia el lector, la
llave gira en sentido contrario al movimiento de las agujas del reloj.
Un momento se considera negativo, si el tornillo entra, la llave gira en el sentido
del movimiento de las agujas del reloj.
Se denomina momento de una fuerza respecto de un punto, al producto vectorial
del vector posición r de la fuerza por el vector fuerza F.
M=r F
El vector M tiene

Por módulo, M=F·r·senè=F·d. Siendo d el brazo de la fuerza (la distancia
desde el punto O a la dirección de la fuerza)

Dirección, perpendicular al plano determinado por la fuerza F y el punto O.

Sentido, la aplicación de la regla del sacacorchos
La analogía de la llave y el tornillo, nos ayuda a entender el significado físico de la
magnitud momento, y a determinar correctamente el módulo, la dirección y el
sentido del momento de una fuerza:

El módulo es el producto de la fuerza F por
la longitud d de la llave. M=F·r·senè=F·d

La dirección, es la del eje del tornillo, eje Z

El sentido viene determinado por el avance
del tornillo (hacia dentro, negativo) cuando
hacemos girar a la llave.
Varilla que pende de dos muelles
La varilla delgada de masa m kg y longitud L pende de dos muelles elásticos
verticales de constantes k1 y k2 y de longitudes l01 y l02 sin deformar, situados a
una distancia d1 y d2 a uno y otro lado del c.m de la varilla

La fuerza que ejerce el muelle situado a la izquierda del c.m. es F1=k1x1,
donde x1 es la deformación del muelle

La fuerza que ejerce el muelle situado a la derecha del c.m. es F2=k2x2,
donde x2 es la deformación del muelle
Cuando la varilla está en equilibrio en posición horizontal. La resultante de las
fuerzas sobre la varilla debe ser cero y el momento resultante respecto del c.m.
debe ser cero.
k1x1+
k2x2=mg
-k1x1·d1+ k2x2·d2=0
Despejamos x1 y x2

El muelle de la izquierda se ha de colgar de un punto situado a l1=l01+x1 por
encima de la varilla horizontal

El muelle de la derecha se ha de colgar de un punto situado a l2=l02+x2 por
encima de la varilla horizontal
Ejemplo:

Constantes elásticas de los muelles: k1=50 N/m, k2=25 N/m

Masa de la barra, m=1 kg

Longitud de los muelles sin deformar, l01=l02=0.5 m
Cuando d1=75 cm, d2=90 cm, las deformaciones son

El muelle de la izquierda se ha de colgar de un punto situado a
l1=50+10.7=60.7 cm por encima de la varilla horizontal

El muelle de la derecha se ha de colgar de un punto situado a
l2=50+17.8=67.8 cm por encima de la varilla horizontal
1.2.3 CENTRO DE MASA
El centro de masas de un sistema discreto es el punto geométrico que
dinámicamente se comporta como si estuviese sometido a la resultante de las
fuerzas externas al sistema. De manera análoga. Normalmente se abrevia como
CM.
En física, el centroide, el centro de gravedad y el centro de masas pueden, bajo
ciertas circunstancias, coincidir entre sí. En estos casos se suele utilizar los
términos de manera intercambiable, aunque designan conceptos diferentes. El
centroide es un concepto puramente geométrico mientras que los otros dos
términos se relacionan con las propiedades físicas de un cuerpo. Para que el
centroide coincida con el centro de masa, el objeto debe tener densidad uniforme,
o la distribución de materia a través del objeto debe tener ciertas propiedades,
tales como simetría. Para que un centroide coincida con el centro de gravedad, el
centroide debe coincidir con el centro de masa y el objeto debe estar bajo la
influencia de un campo gravitatorio uniforme.
En un tratamiento de sistemas de masas puntuales el centro de masas es el
punto donde se supone concentrada toda la masa del sistema. El concepto se
utiliza para análisis físicos en los cuales no es importante considerar la distribución
de masa. Por ejemplo, en las órbitas de los planetas.
Un isobaricentro (iso: mismo) es un baricentro con todas las masas iguales entre
sí; es usual en tal caso tomarlas iguales a 1. Si no se precisan las masas, el
baricentro es por defecto el isobaricentro.
El baricentro coincide con la noción física de centro de gravedad, también
llamado centro de masa, en algunos casos como:
El baricentro de {A, es el centro de masa del segmento [A;B], o sea de una barra
de extremos A y B, de masa uniformemente distribuida.
El baricentro de {A, B, es el centro de gravedad del triángulo ABC, suponiéndole
una densidad superficial uniforme (por ejemplo, al recortar un triángulo en una
hoja de cartón). Corresponde al punto donde se cortan las medianas. El triángulo
de cartón se mantendrá en equilibro (inestable) en la punta de un lápiz o de un
compás si éste está colocado justo debajo del centro de masa. El baricentro de un
triángulo tiene además la propiedad de pertenecer a la recta de Euler.
El baricentro de cuatro puntos {A, B, C, D} del espacio es el centro de gravedad
del tetraedro, suponiéndole una densidad volúmica uniforme. Corresponde al
punto donde se cortan los segmentos que unen cada vértice con el isobaricentro
de la cara opuesta.
Se puede generalizar lo anterior en cualquier dimensión.
La coincidencia del baricentro y el centro de gravedad permite localizar el primero
de una forma sencilla. Si tomamos el pedazo de cartón antes comentado y lo
sujetamos verticalmente desde cualquiera de sus puntos, girará hasta que el
centro de gravedad (baricentro) se sitúe justamente en la vertical del punto de
sujeción; marcando dicha vertical sobre el cartón y repitiendo el proceso sujetando
desde un segundo punto, encontraremos el baricentro en el punto de intersección.
1.2.4 CENTRO DE GRAVEDAD
El centro de gravedad (C.G. o también, bajo ciertas circunstancias, llamado
centro de masas) es el punto de aplicación de la resultante de todas las fuerzas de
gravedad que actuán sobre las distintas masas materiales de un cuerpo.
En física, el centroide, el centro de gravedad y el centro de masas pueden, bajo
ciertas circunstancias, coincidir entre sí. En éstos casos es válido utilizar estos
términos de manera intercambiable.
El centroide es un concepto puramente geométrico, mientras que los otros dos
términos se relacionan con las propiedades físicas de un cuerpo. Para que el
centroide coincida con el centro de masas, el objeto tiene que tener densidad
uniforme, o la distribución de materia a través del objeto debe tener ciertas
propiedades, tales como simetría.
Para que un centroide coincida con el centro de gravedad, el centroide debe
coincidir con el centro de masas y el objeto debe estar bajo la influencia de un
campo gravitatorio uniforme.
En geometría, el centroide o baricentro de un objeto X perteneciente a un
espacio n-dimensional es la intersección de todos los hiperplanos que dividen a X
en dos partes de igual n-volumen con respecto al hiperplano. Informalmente, es el
promedio de todos los puntos de X.
En física, el centroide puede, bajo ciertas circunstancias, coincidir con el centro de
masas del objeto y además con el centro de gravedad. En algunos casos, esto
hace utilizar estos términos de manera intercambiable. Para que el centroide
coincida con el centro de masa, el objeto tiene que tener densidad uniforme, o la
distribución de materia a través del objeto debe tener ciertas propiedades, tales
como simetría. Para que un centroide coincida con el centro de gravedad, el
centroide debe coincidir con el centro de masa y el objeto debe estar bajo la
influencia de un campo gravitatorio uniforme.
Una figura cóncava tendrá su centroide en algún punto fuera de la figura misma. El
centroide de una lámina con forma de luna creciente estará en algún lugar del
espacio vacío central.
El centroide de un triángulo (también llamado baricentro) se encuentre en el punto
donde se intersectan sus medianas (líneas que unen un vértice con el punto medio
del lado opuesto). Este punto es además el centro de masa del triángulo si éste
está hecho de una lámina de material uniforme además de ser también su centro
de gravedad si éste es de proporciones humanas y no astrales o atómicas.
2. ONDAS
Imaginemos un estanque de agua quieta al que tiramos una piedra, pronto, pero
no instantáneamente, se formarán olas. Esas "olas" en realidad son ondas que se
propagan desde el centro donde la piedra, al caer, es la "fuente" de perturbaciones
circulares. Si llevamos este ejemplo a un parlante, este igual que la piedra,
perturba el medio propagándose y alejándose de su fuente. Así como las ondas
necesitaban al agua para poder difundirse, el sonido necesita del aire para lograr
lo mismo.
Al arrojar una roca aun recipiente con agua (H2O) observamos la propagación de
la onda de un lado a otro, por medio del agua, en ella se nota el movimiento
ondulatorio.
La onda consta de dos movimientos: uno es la vibración de las partículas y otro es
la propagación de la onda en sí. Si el movimiento de cada partícula es " de arriba
hacia abajo y viceversa" la onda se llama transversal.. Si la partícula se mueve en
la misma dirección de propagación moviéndose atrás y adelante, la onda recibe el
nombre de longitudinal.
El sonido es una onda longitudinal mientras que la luz y cualquier onda
electromagnética es transversales. Si hacemos ondas con una soga nos dará
ondas transversales mientras que un resorte puede transportar ambos tipos de
ondas.
Una onda es una perturbación periódica que se propaga en un medio o en el
espacio transportando energía. La propagación de una onda involucra el
desplazamiento elástico de partículas materiales o cambios periódicos en alguna
cantidad física como la presión, la temperatura o los cambios electromagnéticos.
Para descubrir una onda se considera: el valle, la cresta, el nodo, frecuencia,
longitud de onda, la amplitud y la velocidad de propagación.
Lo que afirma la ley de la conservación de la energía; “La energía ni se crea ni se
destruye simplemente se transforma”, la energía puede ser propagada a través del
espacio y de la materia por medio de vibraciones, por ejemplo el sonido, la luz, las
ondas de radio, esto se comprende estudiando como se forman, como se
comportan y como se propagan.
En física una onda es una oscilación que se propaga por el espacio a partir de un
medio, transportando energía pero no materia. Una onda es causada por algo que
oscila, es decir, que se mueve repetidamente de un lado a otro en torno a una
posición central o de equilibrio.
Las ondas son una perturbación periódica del medio en que se mueven. En las
ondas longitudinales, el medio se desplaza en la dirección de propagación. Por
ejemplo, el aire se comprime y expande (figura 1) en la misma dirección en que
avanza el sonido. En las ondas transversales, el medio se desplaza en ángulo
recto a la dirección de propagación. Por ejemplo, las ondas en un estanque
avanzan horizontalmente, pero el agua se desplaza verticalmente.
Los terremotos generan ondas de los dos tipos, que avanzan a distintas
velocidades y con distintas trayectorias. Estas diferencias permiten determinar el
epicentro del sismo. Las partículas atómicas y la luz pueden describirse mediante
ondas de probabilidad, que en ciertos aspectos se comportan como las ondas de
un estanque.
Propagación de las ondas
El mecanismo mediante el cual una onda mecánica monodimensional se propaga
a través de un medio material puede ser descrito inicialmente considerando el
caso de las ondas en un muelle. Cuando el muelle se comprime en un punto y a
continuación se deja en libertad, las fuerzas recuperadoras tienden a restituir la
porción contraída del muelle a la situación de equilibrio. Pero dado que las
distintas partes del muelle están unidas entre sí por fuerzas elásticas, la dilatación
de una parte llevará consigo la compresión de la siguiente y así sucesivamente
hasta que aquélla alcanza el extremo final.
En las ondas en la superficie de un lago, las fuerzas entre las moléculas de agua
mantienen la superficie libre como si fuera una película tensa. Tales fuerzas de
unión entre las partículas componentes son las responsables e que una
perturbación producida en un punto se propague al siguiente, repitiéndose el
proceso una y otra vez de forma progresiva en todas las direcciones de la
superficie del líquido, lo que se traduce en el movimiento de avance de ondas
circulares.
Como puede deducirse del mecanismo de propagación descrito, las propiedades
del medio influirán decisivamente en las características de las ondas. Así, la
velocidad de una onda dependerá de la rapidez con la que cada partícula del
medio sea capaz de transmitir la perturbación a su compañera. Los medios más
rígidos dan lugar a velocidades mayores que los más flexibles. En un muelle de
baja constante elástica k una onda se propagará más despacio que en otra que
tenga una k mayor. Lo mismo sucede con los medios más densos respecto de los
menos densos.
Ningún medio material es perfectamente elástico. Las partículas que lo forman en
mayor o menor grado rozan entre sí, de modo que parte de la energía que se
transmite de unas a otras se disipan en forma de calor. Esta pérdida de energía se
traduce, al igual que en el caso de las vibraciones, en una atenuación o
amortiguamiento. Sin embargo, el estudio de las ondas en las condiciones más
sencillas prescinde de estos efectos indeseables del rozamiento.
Características de las ondas

LONGITUD DE ONDA
Es la distancia entre una cresta y otra o valles consecutivos.
Parámetro físico que indica el tamaño de una onda. Si se representa la onda como
una serie de crestas regulares (una línea ondulada), la longitud de onda sería la
distancia entre dos crestas consecutivas. Se representa con la letra griega l
(lambda)
En espectroscopía, la longitud de onda es el parámetro usado para definir el tipo
de radiación electromagnética, y se mide usualmente en nanómetros. Una longitud
de onda corta indica que la radiación es muy energética, y viceversa. Por ejemplo,
la longitud de onda de la radiación ultravioleta de una lámpara de las usadas para
comprobar billetes es de 254 nanómetros, mientras que la longitud de onda de la
radiación infrarroja emitida por una bombilla es de unos 700 nanómetros.
Es la distancia entre dos puntos iguales correspondientes a dos ondas sucesivas.
La longitud de onda esta relacionada con la frecuencia V de la onda mediante la
formula:
Se expresa en unidades de longitud; metros, centímetros, kilómetros y las
longitudes de onda de la luz son de orden de millonésimas de metro (micrometros)

NODO
Es el punto donde la onda cruza la línea de equilibrio.

OSCILACIÓN
Se lleva a cabo cando un punto en vibración ha tomado todos los valores positivos
y negativos.
Son los puntos medios que están entre las crestas y los valles en la línea central
de los desplazamientos.

ELONGACIÓN
Es la distancia en forma perpendicular de un punto de la onda a la línea o posición
de equilibrio.

AMPLITUD
Es la distancia entre el punto extremo que alcanza una partícula vibrante y su
posición de equilibrio. La amplitud es la máxima elongación.
La amplitud de onda está directamente relacionada con la intensidad de la onda, la
amplitud es el ancho de onda, es decir, la distancia que separa a dos crestas o
dos valles sucesivos.

FRECUENCIA:
Es el numero de veces que se representa un fenómeno periódico en la unidad de
tiempo, es decir, el numero de ondas que pasan por segundo, la unidad en la que
se mide la frecuencia se llama hertz (hz) en honor a Heinrich Hertz, quien
demostró la existencia de las ondas de radio en 1886. Y se calcula como ciclos
entre segundos, es decir, el numero de veces por segundo que ocurre algún
fenómeno.
1 Hz = 1/s
Una vibración por segundo corresponde a una frecuencia de 1 hertz; dos
vibraciones por segundo equivalen a 2 hertz, y así sucesivamente. Las grandes
frecuencia se miden en kilohertz (kHz) y las frecuencias aún más elevadas en
megahetz (MHz). Las ondas de radio de amplitud modulada se transmiten en
kilohertz, mientras que las ondas de frecuencia modulada se transmiten en
megahertz.
Por ejemplo, una estación ubicada en la posición correspondiente a 960 kHz en la
banda de AM emite ondas de radio cuya frecuencia es de 960 000 vibraciones por
segundo. Una estación ubicada en la posición de 101 MHz de la banda de FM
emite ondas de radio cuya frecuencia es de 101 000 000 hertz. La frecuencia con
que vibra la fuente y la frecuencia de las ondas que produce son iguales.
PERIODO:
Tiempo que tarda un cuerpo que tiene un movimiento periódico –el cual el cuerpo
se mueve de un lado a otro, sobre una trayectoria fija-en efectuar un ciclo
completo de su movimiento. Su unidad, oscilación, onda, ciclo, vibración, segundo.
RELACIÓN ENTRE FRECUENCIA Y PERIODO
Por ejemplo, un centro emisor produce una onda en ½ segundo, o sea su periodo
es de T= ½ segundo y su frecuencia, f, será 2 ondas/segundo.
Lo que significa que f y T son reciprocas, es decir:
VELOCIDAD DE PROPAGACIÓN
Desplazamiento de una onda en una unidad de tiempo, es decir, habrá realizado
una oscilación completa cuando la onda se haya desplazado una longitud de
onda. Si el periodo (T) es el tiempo en que el punto considerado tarda en realizar
una oscilación, podemos decir que la onda ha avanzado una distancia ë en un
tiempo, es decir: V = ë / T, pero como el periodo T es igual a 1/f, la expresión
anterior también podemos expresarla de la siguiente manera: V = ëf.
Velocidad de propagación es igual al valor de la longitud de onda entre el periodo.
Sus unidades son, cm/s, m/s.
La velocidad con que se propague un fenómeno ondulatorio depende de la
naturaleza del medio en que se realiza la propagación. Así, la velocidad del sonido
no es la misma en el aire que en el agua o que en el acero, ni tampoco la
velocidad de la luz en la misma en el vació que en el agua, aire o vidrio. La
velocidad de la luz en el vació es igual a 300 000 km/s y es la máxima velocidad
que se puede alcanzar en la naturaleza.
Las ondas sonoras por ejemplo, viajan con rapidez de 330 o 350 m/s en el aire
(dependiendo la temperatura) y unas cuatro veces mas aprisa en el agua. Cual
sea el medio, la rapidez de una onda esta relacionada con su frecuencia y su
longitud de onda.
VALLE
La parte inferior de una onda
CRESTA
La parte superior de una onda
2.1 PROCESOS TERMODINÁMICOS
En termodinámica se designa como proceso adiabático a aquel en el cual el
sistema (generalmente, un fluido que realiza un trabajo) no intercambia calor con
su entorno. Un proceso adiabático que es además reversible se conoce como
proceso isentrópico. El extremo opuesto, en el que tiene lugar la máxima
transferencia de calor, causando que la temperatura permanezca constante, se
denomina como proceso isotérmico.
El término adiabático hace referencia a elementos que impiden la transferencia de
calor con el entorno. Una pared aislada se aproxima bastante a un límite
adiabático. Otro ejemplo es la temperatura adiabática de llama, que es la
temperatura que podría alcanzar una llama si no hubiera pérdida de calor hacia el
entorno. En climatización los procesos de humectación (aporte de vapor de agua)
son adiabáticos, puesto que no hay transferencia de calor, a pesar que se consiga
variar la temperatura del aire y su humedad relativa.
El calentamiento y enfriamiento adiabático son procesos que comúnmente ocurren
debido al cambio en la presión de un gas. Esto puede ser cuantificado usando la
ley de los gases ideales
Existen tres relaciones en el enfriamiento adiabático del aire:
1. La relación ambiente de la atmósfera, que es el proporción a la que el
aire se enfría a medida que se gana altitud.
2. La tasa seca adiabática, es de unos -10° por cada 1000 metros de
subida.
3. La tasa húmeda adiabática, es de unos -6° por cada 1000 metros de
subida.
La primera relación se usa para describir la temperatura del aire circundante a
través del cual está pasando el aire ascendente. La segunda y tercera proporción
son las referencias para una masa de aire que está ascendiendo en la atmósfera.
La tasa seca adiabática se aplica a aire que está por debajo del punto de rocío,
por ejemplo si no está saturado de vapor de agua, mientras que la tasa húmeda
adiabática se aplica a aire que ha alcanzado su punto de rocío. El enfriamiento
adiabático es una causa común de la formación de nubes.
El enfriamiento adiabático no tiene por qué involucrar a un fluido. Una técnica
usada para alcanzar muy bajas temperaturas (milésimas o millonésimas de grado
sobre el cero absoluto) es la desmagnetización adiabática, donde el cambio en un
campo magnético en un material magnético es usado para conseguir un
enfriamiento adiabático.
La ecuación matemática que describe un proceso adiabático en un gas es
donde P es la presión del gas, V su volumen y
siendo CP el calor específico molar a presión constante y CV el calor específico
molar a volumen constante. Para un gas monoatómico ideal, γ = 5 / 3. Para un gas
diatómico (como el nitrógeno o el oxígeno, los principales componentes del aire) γ
= 1,4
Derivación de la fórmula
La definición de un proceso adiabático es que la transferencia de calor del sistema
es cero, Q = 0.
Por lo que de acuerdo con el primer principio de la termodinámica,
donde U es la energía interna del sistema y W es el trabajo realizado por el
sistema. Cualquier trabajo (W) realizado debe ser realizado a expensas de la
energía U, mientras que no haya sido suministrado calor Q desde el exterior. El
trabajo W realizado por el sistema se define como
Sin embargo, P no permanece constante durante el proceso adiabático sino que
por el contrario cambia junto con V.
Deseamos conocer como los valores de ΔP y ΔV se relacionan entre sí durante el
proceso adiabático. Para ello asumiremos que el sistema es una gas
monoatómico, por lo que
donde R es la constante universal de los gases.
Dado ΔP y ΔV entonces W =
PΔV y
Ahora sustituyendo las ecuaciones (2) y (3) en la ecuación (1) obtenemos
simplificando
dividiendo ambos lados de la igualdad entre PV
Aplicando las normas del cálculo diferencial obtenemos que
que se puede expresar como
Para ciertas constantes P0 y V0 del estado inicial. Entonces
elevando al exponente ambos lados de la igualdad
eliminando el signo menos
por lo tanto
3. OPTICA
Óptica, rama de la física que se ocupa de la propagación y el comportamiento de
la luz. En un sentido amplio, la luz es la zona del espectro de radiación
electromagnética que se extiende desde los rayos X hasta las microondas, e
incluye la energía radiante que produce la sensación de visión. El estudio de la
óptica se divide en dos ramas, la óptica geométrica y la óptica física.

Propagación de la luz.
o
Observación fenomenológica del hecho que la luz se refleja,
transmite y absorbe, al igual que el sonido. Distinción entre la
propagación de una onda en un medio (sonido) y en el vacío (luz).
Historia del debate entre la hipótesis corpuscular y la hipótesis
ondulatoria, para explicar estos fenómenos.
o
Derivación geométrica de la ley de reflexión, a partir del principio de
Fermat. Distinción cualitativa del comportamiento de la luz reflejada
por espejos convergentes y divergentes. Espejos parabólicos.
o
Distinción cualitativa entre lentes convergentes y divergentes. La
óptica del ojo humano. Defectos de la visión y su corrección
mediante diversos tipos de lentes.
o
El telescopio y su impacto en nuestra concepción del Universo, a
través de la historia.

Naturaleza
o
de
la
luz.
Demostración fenomenológica de la descomposición de la luz blanca
en un prisma. El arco iris: debate acerca de diversas hipótesis
explicativas de su origen.
o
La luz como una onda. Observación y discusión de esta
característica a través de la difracción en bordes y fenómenos de
interferencia.
o
Distinción entre luz visible, radiación infrarroja y ultravioleta, rayos X,
microondas, ondas de radio. El radar. El rayo láser como fuente de
luz coherente y monocromática.
La luz como una forma de energía. Descripción del espectro de radiación del Sol y
su carácter de principal fuente de energía para la vida en la Tierra.
3.3 ESPEJOS Y LENTES
Los espejos son superficies muy pulimentadas, con una capacidad reflectora del
95% o superior de la intensidad de la luz incidente.
Consideremos un rayo de luz que se refracta desde un medio de índice n a otro
hipotético de índice de refracción –n. Aplicando la ley de Snell:
n sen i = -n sen r
De donde se deduce que: i = -r Un ángulo de refracción negativo equivale a
una inversión en el sentido del rayo.
Espejos esféricos formación de imágenes por espejos esféricos
Un espejo esférico está caracterizado por su radio de curvatura R. En el caso de
los espejos esféricos solo existe un punto focal F=F´=R/2 cuya posición coincide
con el punto medio entre el centro del espejo y el vértice del mismo. Se encontrará
a la izquierda del vértice para los espejos cóncavos y a la derecha para los
espejos convexos.
El aumento del espejo será A =y´/y y dependerá de la curvatura del espejo y de la
posición del objeto.
Formación de imágenes
La construcción de imágenes es muy sencilla si se utilizan los rayos principales:

Rayo paralelo: Rayo paralelo al eje óptico que parte de la parte superior
del objeto. Después de refractarse pasa por el foco imagen.

Rayo focal: Rayo que parte de la parte superior del objeto y pasa por el
foco objeto, con lo cual se refracta de manera que sale paralelo . Después
de refractarse pasa por el foco imagen.

Rayo radial: Rayo que parte de la parte superior del objeto y está dirigido
hacia el centro de curvatura del dioptrio. Este rayo no se refracta y continúa
en la mismas dirección ya que el ángulo de incidencia es igual a cero.
Hay que distinguir entre los espejos cóncavos y los convexos:
Espejos cóncavos
1. Objeto situado a la izquierda del centro de curvatura. La imagen es real,
invertida y situada entre el centro y el foco. Su tamaño es menor que el
objeto.
2. Objeto situado en el centro de curvatura. La imagen es real, invertida y
situada en el mismo punto. Su tamaño igual que el objeto.
3. Objeto situado entre el centro de curvatura y el foco. La imagen es real,
invertida y situada a la izquierda del centro de curvatura. Su tamaño es
mayor que el objeto.
4. Objeto situado en el foco del espejo. Los rayos reflejados son paralelos y la
imagen se forma en el infinito.
5. Objeto situado a la derecha del foco. La imagen es virtual, y conserva su
orientación. Su tamaño es mayor que el objeto.
a) Objeto situado a la izquierda
del centro de curvatura. La
imagen
es
real,
invertida
y
situada entre el centro y el foco.
Su tamaño es menor que el
objeto.
b) Objeto situado en el centro de
curvatura. La imagen es real,
invertida y situada en el mismo
punto. Su tamaño igual que el
objeto.
c) Objeto situado entre el centro
de curvatura y el foco. La
imagen
es
real,
invertida
y
situada a la izquierda del centro
de curvatura. Su tamaño es
mayor que el objeto.
d) Objeto situado en el foco del
espejo. Los rayos reflejados son
paralelos y la imagen se forma
en el infinito.
e) Objeto situado a la derecha
del foco. La imagen es virtual, y
conserva
su
orientación.
Su
tamaño es mayor que el objeto.
Espejos convexos
Se produce una situación en la que la imagen es virtual, derecha y más pequeña
que el objeto.
Se produce una situación en la
que la imagen es virtual, derecha
y más pequeña que el objeto.
Para observar la formación de rayos pulsa start y cambia la posición del objeto y
el radio de curvatura de los espejos. Se puede cambiar entre lentes y espejos.
Lentes delgadas convergentes y divergentes
Una lente es un medio transparente limitado por dos superficies curvas. Una onda
incidente sufre dos refracciones al pasar a través de la lente.
Hay dos tipos de lentes: convergentes y divergentes.
En las lentes convergentes el foco imagen está a la derecha de la lente, f´ > 0.
En la lentes divergentes el foco imagen está a la izquierda de la lente, f´ < 0.
Las lentes convergentes son más gruesas por el centro que por los extremos,
mientras que las divergentes son más gruesas por los extremos que por el centro.
Se define además la potencia de una lente como la inversa de su distancia focal
imagen P=1/f´ y mide la mayor o menor convergencia de los rayos emergentes, a
mayor potencia mayor convergencia de los rayos. La unidad de potencia de una
lente es la dioptría, que se define como la potencia de una lente cuya distancia
focal es de un metro.
Formación de imágenes por lentes delgadas
La construcción de imágenes es muy sencilla si se utilizan los rayos principales:

- Rayo paralelo: Rayo paralelo al eje óptico que parte de la parte superior
del objeto. Después de refractarse pasa por el foco imagen.

- Rayo focal: Rayo que parte de la parte superior del objeto y pasa por el
foco objeto, con lo cual se refracta de manera que sale paralelo . Después
de refractarse pasa por el foco imagen.

- Rayo radial: Rayo que parte de la parte superior del objeto y está dirigido
hacia el centro de curvatura del dioptrio. Este rayo no se refracta y continúa
en la mismas
Rayo focal en una lente convergente.
Lentes convergentes
Tanto en la lentes convergentes como en las divergentes hay dos posibilidades
para situar el espejo: más lejos de la lente que el foco objeto (imágenes reales) o
entre ambos (imágenes virtuales).
Lentes divergentes
Hay dos posibilidades para situar el espejo: más lejos de la lente que el foco
objeto o entre ambos. En ambos casos las imágenes que se forman son virtuales.
Una cantidad importante es el cociente entre el tamaño de la imagen y el tamaño
del objeto A=y´/ý cantidad que recibe el nombre de aumento lateral.
Instrumentos ópticos
El trazado de rayos en sistemas de lentes y espejos es particularmente importante
para el diseño de los siguientes instrumentos ópticos:
a) El microscopio: Es un sistema de lentes que produce una imagen virtual
aumentada de un apequeño objeto. El microscopio más simple es una lente
convergente, la lupa. El objeto se coloca entre la lente y el foco, de modo que la
imagen es virtual y está a una distancia que es la distancia mínima de visón nítida,
alrededor de 25 cm.
El microscopio compuesto consiste en dos lentes convergentes de pequeña
distancia focal, llamadas objetivo y ocular. La distancia focal del objetivo f, es
mucho menos que la distancia focal f´ del ocular. El objeto AB se coloca a una
distancia del objetivo ligeramente mayor que f. El objetivo forma una primera
imagen a´b´ que hace de objeto para el ocular. La imagen a´b´ debe estar a una
distancia del ocular ligeramente menor que f´. La imagen final ab es virtual,
invertida y mucho mayor que el objeto. El objeto AB se coloca de tal manera que
ab está a una distancia del ocular igual a la distancia mínima de visión nítida,
alrededor de 25 cm. Esta condición se realiza mediante el enfoque que consiste
en mover todo el microscopio respecto al objeto.(Se puede observar la imagen a
través de una lente convexa).
b) El Telescopio: El objetivo es una lente convergente de distancia focal f muy
grande, a veces de varios metros. Como el objeto AB es muy distante, su imagen
a´b´ producida por el objetivo, está en su foco F0. Sólo se necesitan los rayos
centrales para conocer la posición de la imagen.
El ocular es una lente convergente de distancia focal f´ mucho menor. De coloca
de tal que la imagen intermedia a´b´ esté entre el ocular y su foco. y la imagen
final ab esté a la la distancia mínima de visón nítida, alrededor de 25 cm. El
enfoque se hace moviendo el ocular ya que nada se gana moviendo el objetivo.
(Se puede observar la imagen a través de una lente concava).
Interferencia, efecto que se produce cuando dos o más ondas se solapan o
entrecruzan. Cuando las ondas interfieren entre sí, la amplitud (intensidad o
tamaño) de la onda resultante depende de las frecuencias, fases relativas
(posiciones relativas de crestas y valles) y amplitudes de las ondas iniciales
(véase Movimiento ondulatorio). Por ejemplo, la interferencia constructiva se
produce en los puntos en que dos ondas de la misma frecuencia que se solapan o
entrecruzan están en fase; es decir, cuando las crestas y los valles de ambas
ondas coinciden. En ese caso, las dos ondas se refuerzan mutuamente y forman
una onda cuya amplitud es igual a la suma de las amplitudes individuales de las
ondas originales. La interferencia destructiva se produce cuando dos ondas de la
misma frecuencia están completamente desfasadas una respecto a la otra; es
decir, cuando la cresta de una onda coincide con el valle de otra. En este caso, las
dos ondas se cancelan mutuamente. Cuando las ondas que se cruzan o solapan
tienen frecuencias diferentes o no están exactamente en fase ni desfasadas, el
esquema de interferencia puede ser más complejo.
La luz visible está formada por ondas electromagnéticas que pueden interferir
entre sí. La interferencia de ondas de luz causa, por ejemplo, las irisaciones que
se ven a veces en las burbujas de jabón. La luz blanca está compuesta por ondas
de luz de distintas longitudes de onda. Las ondas de luz reflejadas en la superficie
interior de la burbuja interfieren con las ondas de esa misma longitud reflejadas en
la superficie exterior. En algunas de las longitudes de onda, la interferencia es
constructiva, y en otras destructiva. Como las distintas longitudes de onda de la
luz corresponden a diferentes colores, la luz reflejada por la burbuja de jabón
aparece coloreada. El fenómeno de la interferencia entre ondas de luz visible se
utiliza en holografía e interferometría (véase Holograma; Interferómetro).
La interferencia puede producirse con toda clase de ondas, no sólo ondas de luz.
Las ondas de radio interfieren entre sí cuando rebotan en los edificios de las
ciudades, con lo que la señal se distorsiona. Cuando se construye una sala de
conciertos hay que tener en cuenta la interferencia entre ondas de sonido, para
que una interferencia destructiva no haga que en algunas zonas de la sala no
puedan oírse los sonidos emitidos desde el escenario. Arrojando objetos al agua
estancada se puede observar la interferencia de ondas de agua, que es
constructiva en algunos puntos y destructiva en otros.
3.6 POLARIZACION DE LA LUZ
Los átomos de una fuente de luz ordinaria emiten pulsos de radiación de duración
muy corta. Cada pulso procedente de un único átomo es un tren de ondas
prácticamente monocromático (con una única longitud de onda). El vector eléctrico
correspondiente a esa onda no gira en torno a la dirección de propagación de la
onda, sino que mantiene el mismo ángulo, o acimut, respecto a dicha dirección. El
ángulo inicial puede tener cualquier valor. Cuando hay un número elevado de
átomos emitiendo luz, los ángulos están distribuidos de forma aleatoria, las
propiedades del haz de luz son las mismas en todas direcciones, y se dice que la
luz no está polarizada. Si los vectores eléctricos de todas las ondas tienen el
mismo ángulo acimutal (lo que significa que todas las ondas transversales están
en el mismo plano), se dice que la luz está polarizada en un plano, o polarizada
linealmente.
Cualquier onda electromagnética puede considerarse como la suma de dos
conjuntos de ondas: uno en el que el vector eléctrico vibra formando ángulo recto
con el plano de incidencia y otro en el que vibra de forma paralela a dicho plano.
Entre las vibraciones de ambas componentes puede existir una diferencia de fase,
que puede permanecer constante o variar de forma constante. Cuando la luz está
linealmente polarizada, por ejemplo, esta diferencia de fase se hace 0 o 180°. Si la
relación de fase es aleatoria, pero una de las componentes es más intensa que la
otra, la luz está en parte polarizada. Cuando la luz es dispersada por partículas de
polvo, por ejemplo, la luz que se dispersa en un ángulo de 90°. Con la trayectoria
original del haz está polarizada en un plano, lo que explica por qué la luz
procedente del cenit está marcadamente polarizada.
Para ángulos de incidencia distintos de 0 o 90°, la proporción de luz reflejada en el
límite entre dos medios no es igual para ambas componentes de la luz. La
componente que vibra de forma paralela al plano de incidencia resulta menos
reflejada. Cuando la luz incide sobre un medio no absorbente con el denominado
ángulo de Brewster, llamado así en honor al físico británico del siglo XIX David
Brewster, la parte reflejada de la componente que vibra de forma paralela al plano
de incidencia se hace nula. Con ese ángulo de incidencia, el rayo reflejado es
perpendicular al rayo refractado; la tangente de dicho ángulo de incidencia es igual
al cociente entre los índices de refracción del segundo medio y el primero.
Algunas sustancias son anisótropas, es decir, muestran propiedades distintas
según la dirección del eje a lo largo del cual se midan. En esos materiales, la
velocidad de la luz depende de la dirección en que ésta se propaga a través de
ellos. Algunos cristales son birrefringentes, es decir, presentan doble refracción. A
no ser que la luz se propague de forma paralela a uno de los ejes de simetría del
cristal (un eje óptico del cristal), la luz se separa en dos partes que avanzan con
velocidades diferentes. Un cristal uniáxico tiene uno de estos ejes. La componente
cuyo vector eléctrico vibra en un plano que contiene el eje óptico es el llamado
rayo ordinario; su velocidad es la misma en todas las direcciones del cristal, y
cumple la ley de refracción de Snell. La componente que vibra formando un ángulo
recto con el plano que contiene el eje óptico constituye el rayo extraordinario, y la
velocidad de este rayo depende de su dirección en el cristal. Si el rayo ordinario se
propaga a mayor velocidad que el rayo extraordinario, la birrefringencia es
positiva; en caso contrario la birrefringencia es negativa.
Cuando un cristal es biáxico, la velocidad depende de la dirección de propagación
para todas las componentes. Se pueden cortar y tallar los materiales
birrefringentes para introducir diferencias de fase específicas entre dos grupos de
ondas polarizadas, para separarlos o para analizar el estado de polarización de
cualquier luz incidente. Un polarizador sólo transmite una componente de la
vibración, ya sea reflejando la otra mediante combinaciones de prismas
adecuadamente tallados o absorbiéndola. El fenómeno por el que un material
absorbe preferentemente una componente de la vibración se denomina dicroísmo.
El material conocido como Polaroid presenta dicroísmo; está formado por
numerosos cristales dicroicos de pequeño tamaño incrustados en plástico, con
todos sus ejes orientados de forma paralela. Si la luz incidente es no polarizada, el
Polaroid absorbe aproximadamente la mitad de la luz. Los reflejos de grandes
superficies planas, como un lago o una carretera mojada, están compuestos por
luz parcialmente polarizada, y un Polaroid con la orientación adecuada puede
absorberlos en más de la mitad. Este es el principio de las gafas o anteojos de sol
Polaroid.
Los llamados analizadores pueden ser físicamente idénticos a los polarizadores.
Si se cruzan un polarizador y un analizador situados consecutivamente, de forma
que el analizador esté orientado para permitir la transmisión de las vibraciones
situadas en un plano perpendicular a las que transmite el polarizador, se
bloqueará toda la luz procedente del polarizador.
Las sustancias ‘ópticamente activas’ giran el plano de polarización de la luz
linealmente polarizada. Un cristal de azúcar o una solución de azúcar, pueden ser
ópticamente activos. Si se coloca una solución de azúcar entre un polarizador y un
analizador cruzados tal como se ha descrito antes, parte de la luz puede atravesar
el sistema. El ángulo que debe girarse el analizador para que no pase nada de luz
permite conocer la concentración de la solución. El polarímetro se basa en este
principio.
Algunas sustancias —como el vidrio y el plástico— que no presentan doble
refracción en condiciones normales pueden hacerlo al ser sometidas a una
tensión. Si estos materiales bajo tensión se sitúan entre un polarizador y un
analizador, las zonas coloreadas claras y oscuras que aparecen proporcionan
información sobre las tensiones. La tecnología de la fotoelasticidad se basa en la
doble refracción producida por tensiones.
También puede introducirse
birrefringencia
en
materiales
normalmente
homogéneos mediante campos magnéticos y eléctricos. Cuando se somete un
líquido a un campo magnético fuerte, puede presentar doble refracción. Este
fenómeno se conoce como efecto Kerr, en honor del físico británico del siglo XIX
John Kerr. Si se coloca un material apropiado entre un polarizador y un analizador
cruzados, puede transmitirse o no la luz según si el campo eléctrico en el material
está conectado o desconectado. Este sistema puede actuar como un conmutador
o modulador de luz extremadamente rápido.
4. ELECTRICIDAD
4.1 Circuitos eléctricos
Un circuito eléctrico está compuesto normalmente por un conjunto de elementos
activos -que generan energía eléctrica (por ejemplo baterías, que convierten la
energía de tipo químico en eléctrica)- y de elementos pasivos -que consumen
dicha energía (por ejemplo resistencias, que convierten la energía eléctrica en
calor, por efecto Joule)- conectados entre sí. El esquema siguiente presenta un
circuito compuesto por una batería (elemento de la izquierda) y varias resistencias.
Las magnitudes que se utilizan para describir el comportamiento de un circuito son
la Intensidad de Corriente Eléctrica y el Voltaje o caída de potencial. Estas
magnitudes suelen representarse, respectivamente, por I y V y se miden en
Amperios (A) y Voltios (V) en el Sistema Internacional de Unidades.
La intensidad de corriente eléctrica es la cantidad de carga que, por segundo,
pasa a través de un cable o elemento de un circuito.
El voltaje es una medida de la separación o gradiente de cargas que se establece
en un elemento del circuito. También se denomina caída de potencial o diferencia
de potencial (d.d.p.) y, en general, se puede definir entre dos puntos arbitrarios de
un circuito. El voltaje está relacionado con la cantidad de energía que se convierte
de eléctrica en otro tipo (calor en una resistencia) cuando pasa la unidad de carga
por el dispositivo que se considere; se denomina fuerza electromotriz (f.e.m.)
cuando se refiere al efecto contrario, conversión de energía de otro tipo (por
ejemplo químico en una batería) en energía eléctrica. La f.e.m. suele designarse
por e y, lógicamente, se mide también en Voltios.
Los elementos de un circuito se interconectan mediante conductores. Los
conductores o cables metálicos se utilizan básicamente para conectar puntos que
se desea estén al mismo potencial (es decir, idealmente la caída de potencial a lo
largo de un cable o conductor metálico es cero).
4.1.1 Leyes de Kirchoff
Las leyes de Kirchoff se utilizan para la resolución de un circuito en la forma
que se expone a continuación. Utilizaremos como ejemplo de aplicación el circuito
ya presentado anteriormente:
4.1.2. MALLAS Y NODOS
La ley de nudos proviene de la conservación de la carga y dice, esencialmente,
que la suma de las corrientes que llegan a un nodo es cero; es decir, que el total
de corriente que entra (signo mas, por ejemplo) es igual al total de la corriente que
sale del nudo (signo menos en su caso). Esta ley ha de aplicarse a tantos nudos
existan en nuestro circuito, menos uno. En nuestro caso, a un nudo;
seleccionando el nudo A y suponiendo definimos como positiva la corriente
entrante en el nudo:
I1 - I2 - I3 = 0
La ley de mallas establece que la suma de caídas de potencial a lo largo de una
malla debe coincidir con la suma de fuerzas electromotrices (de los elementos
activos) a lo largo de la misma. Si no hubiera elementos activos, la suma de
potenciales a lo largo de un recorrido cerrado es cero, lo cual está ligado al
carácter conservativo del campo eléctrico. Para su aplicación es preciso
previamente asignar un sentido de recorrido a las mallas y dar algún convenio de
signos:
Una f.e.m se tomará como positiva si en nuestro recorrido salimos por el polo
positivo. Una caída de potencial se tomará como positiva si en nuestro recorrido
vamos a favor de la corriente cuando pasamos por el elemento. En nuestro circuito
las caídas de potencial son todas en resistencias óhmicas; si es I la intensidad que
atraviesa a una resistencia R, la caída de potencial es IR.
En nuestro caso, utilizando las mallas I y II recorridas en los sentidos indicados
tendremos las siguientes ecuaciones:
e1 = I1R1 + I3R3
-e2 = I2R2+I2R4– I3R3 = I2(R2 + R4) – I3R3
Conocidos los valores de los elementos que constituyen nuestro circuito, las tres
ecuaciones anteriormente expuestas configuran un sistema lineal del que se
pueden despejar los valores de I1, I2 e I3. Obsérvese que en el circuito anterior R2
y R4 se asocian como si fueran una sola resistencia de valor (R2 + R4). Este es un
ejemplo de cómo se asocian resistencias en serie, que son las que están en una
misma rama no importando en qué ubicación.
4.1 Asociación de elementos en Serie y en Paralelo
Previo a analizar un circuito conviene proceder a su simplificación cuando se
encuentran asociaciones de elementos en serie o en paralelo. El caso estudiado
anteriormente corresponde, como se ha dicho, a una asociación de resistencias en
Serie. Se dice que varios elementos están en serie cuando están todos en la
misma rama y, por tanto, atravesados por la misma corriente. Si los elementos en
serie son Resistencias, ya se ha visto que pueden sustituirse, independiente de su
ubicación y número, por una sola resistencia suma de todas las componentes. En
esencia lo que se está diciendo es que la dificultad total al paso de la corriente
eléctrica es la suma de las dificultades que individualmente presentan los
elementos componentes
RS = R1 + R1 + R3
Esta regla particularizada para el caso de Resistencias sirve también para
asociaciones de f.e.m. (baterías).
Por otra parte, se dice que varios elementos están en Paralelo cuando la caida de
potencial entre todos ellos es la misma. Esto ocurre cuando sus terminales están
unidos entre si como se indica en el esquema siguiente
Ahora la diferencia de potencial entre cualquiera de las resistencias es V, la
existente entre los puntos A y B. La corriente por cada una de ellas es V/Ri
(i=1,2,3) y la corriente total que va de A a B (que habría de ser la que atraviesa Rp
cuando se le aplica el mismo potencial) será I1 + I2 + I3. Para que esto se cumpla
el valor de la conductancia 1/Rp ha de ser la suma de las conductancias de las
Resistencias componentes de la asociación:
1/Rp = 1/R1 + 1/R2 + 1/R3
Lo cual significa que, al haber tres caminos alternativos para el paso de la
corriente, la facilidad de paso (conductancia) ha aumentado: la facilidad total es la
suma de las facilidades.
Las baterías No suelen asociarse en paralelo, debido a su pequeña resistencia
interna. Si se asociaran tendrían que tener la misma f.e.m. que sería la que se
presentaría al exterior. Pero cualquier diferencia daría lugar a que una de las
baterías se descargara en la otra.
4.2 CIRCUITOS ELECTRONICOS DE CORRIENTE ALTERNA
4.2.1 CIRCUITOS RC
Los circuitos RC son circuitos que están compuestos por una resistencia y un
condensador.
Se caracteriza por que la corriente puede variar con el tiempo. Cuando el tiempo
es igual a cero, el condensador está descargado, en el momento que empieza a
correr el tiempo, el condensador comienza a cargarse ya que hay una corriente en
el circuito. Debido al espacio entre las placas del condensador, en el circuito no
circula corriente, es por eso que se utiliza una resistencia.
Cuando el condensador se carga completamente, la corriente en el circuito es
igual a cero.
La segunda regla de Kirchoff dice: V = (IR) - (q/C)
Donde q/C es la diferencia de potencial en el condensador.
En un tiempo igual a cero, la corriente será: I = V/R cuando el condensador no se
ha cargado.
Cuando el condensador se ha cargado completamente, la corriente es cero y la
carga será igual a: Q = CV
CARGA DE UN CONDENSADOR
Ya se conoce que las variables dependiendo del tiempo serán I y q. Y la corriente I
se sustituye por dq/dt (variación de la carga dependiendo de la variación del
tiempo):
(dq/dt)R = V - (q/C)
dq/dt = V/R - (q/(RC))
Esta es una ecuación
Diferencial. Se pueden dq/dt = (VC - q)/(RC)
Separar variable dq/(q - VC) = - dt/(RC)
Al integrar se tiene ln [ - (q - VC)/VC)] = -t/(RC)
Despejando q q dt = C V [(1 - e-t/RC )] = q (1- e-t/RC )
El voltaje será
)=V
DESCARGA DE UN CONDENSADOR
Debido a que la diferencia de potencial en el condensador es IR = q/C, la razón de
cambio de carga en el condensador determinará la corriente en el circuito, por lo
tanto, la ecuación que resulte de la relación entre el cambio de la cantidad de
carga dependiendo del cambio en el tiempo y la corriente en el circuito, estará
dada remplazando I = dq/dt en la ecuación de diferencia de potencial en el
condensador:
q = Q e-t/RC
Donde Q es la carga máxima
La corriente en función del tiempo entonces, resultará al derivar esta ecuación
respecto al tiempo:
I = Q/(RC) e-t/RC
Se puede concluir entonces, que la corriente y la carga decaen de forma
exponencial.
4.2.2 CIRCUITOS RL
Los circuitos RL son aquellos que contienen una bobina (inductor) que tiene
autoinductancia, esto quiere decir que evita cambios instantáneos en la corriente.
Siempre se desprecia la autoinductancia en el resto del circuito puesto que se
considera mucho menor a la del inductor.
Para un tiempo igual a cero, la corriente comenzará a crecer y el inductor
producirá igualmente una fuerza electromotriz en sentido contrario, lo cual hará
que la corriente no aumente. A esto se le conoce como fuerza contraelectromotriz.
Esta fem está dada por: V = -L (inductancia) dI/dt
Debido a que la corriente aumentará con el tiempo, el cambio será positivo (dI/dt)
y la tensión será negativa al haber una caída de la misma en el inductor.
Según kirchhoff: V = (IR) + [L (dI / dt)]
IR = Caída de voltaje a través de la resistencia.
Esta es una ecuación diferencial y se puede hacer la sustitución:
x = (V/R) - I es decir; dx = -dI
Sustituyendo en la ecuación: x + [(L/R)(dx/dt)] = 0
dx/x = - (R/L) dt
Integrando: ln (x/xo) = -(R/L) t
Despejando x: x = xo e -Rt / L
Debido a que xo = V/R
El tiempo es cero
Y corriente cero V/R - I = V/R e -Rt / L
I = (V/R) (1 - e -Rt / L)
El tiempo del circuito está representado por _ = L/R
I = (V/R) (1 - e - 1/_)
Donde para un tiempo infinito, la corriente de la malla será I = V/R. Y se puede
considerar entonces el cambio de la corriente en el tiempo como cero.
Para verificar la ecuación que implica a _ y a I, se deriva una vez y se reemplaza
en la inicial: dI/dt = V/L e - 1/_
Se sustituye: V = (IR) + [L (dI / dt)]
V = [ (V/R) (1 - e - 1/_)R + (L V/ L e - 1/_)]
V - V e - 1/_ = V - V e - 1/_
OSCILACIONES EN UN CIRCUITO LC
Cuando un condensador se conecta a un inductor, tanto la corriente como la carga
den el condensador oscila. Cuando existe una resistencia, hay una disipación de
energía en el sistema porque una cuanta se convierte en calor en la resistencia,
por lo tanto las oscilaciones son amortiguadas. Por el momento, se ignorará la
resistencia.
En un tiempo igual a cero, la carga en el condensador es máxima y la energía
almacenada en el campo eléctrico entre las placas es U = Q2máx/(2C). Después
de un tiempo igual a cero, la corriente en el circuito comienza a aumentar y parte
de la energía en el condensador se transfiere al inductor. Cuando la carga
almacenada en el condensador es cero, la corriente es máxima y toda la energía
está almacenada en el campo eléctrico del inductor. Este proceso se repite de
forma inversa y así comienza a oscilar.
En un tiempo determinado, la energía total del sistema es igual a la suma de las
dos energías (inductor y condensador): U = Uc + UL
U = [ Q2/(2C) ] + ( LI2/2 )
4.2.3 CIRCUITO RLC
Un circuito RLC es aquel que tiene como componentes una resistencia, un
condensador y un inductor conectados en serie
En un tiempo igual a cero, el condensador tiene una carga máxima (Qmáx).
Después de un tiempo igual a cero, la energía total del sistema está dada por la
ecuación presentada en la sección de oscilaciones en circuitos LC
U = [ Q2/(2C) ] + ( LI2/2 )
En las oscilaciones en circuitos LC se había mencionado que las oscilaciones no
eran amortiguadas puesto que la energía total se mantenía constante. En circuitos
RLC, ya que hay una resistencia, hay oscilaciones amortiguadas porque hay una
parte de la energía que se transforma en calor en la resistencia.
El cambio de la energía total del sistema dependiendo del tiempo está dado por la
disipación de energía en una resistencia:
dU/dt = - I2R
Luego se deriva la ecuación de la energía total respecto al tiempo y se remplaza la
dada: LQ´ + RQ´ + (Q/C) = 0
Se puede observar que el circuito RCL tiene un comportamiento oscilatorio
amortiguado:
m(d2x/dt2) + b(dx/dt) + kx = 0
Si se tomara una resistencia pequeña, la ecuación cambiaría a :
Q = Qmáx e -(Rt/2L)Cos wt
w = [ (1/LC) - (R/2L)2 ] 1/2
Entre más alto el valor de la resistencia, la oscilación tendrá amortiguamiento más
veloz puesto que absorbería más energía del sistema. Si R es igual a (4L/C) ½ el
sistema se encuentra sobreamortiguado.
carga
5. INTERACCIONES MATERIA Y ENERGIA
5.1 MECANICA CUANTICA
Modelo atómico de Bohr
Diagrama del modelo atómico de Bohr.
Niels Bohr se basó en el átomo de hidrógeno para realizar el modelo que lleva su
nombre. Bohr intentaba realizar un modelo atómico capaz de explicar la
estabilidad de la materia y los espectros de emisión y absorción discretos que se
observan en los gases. Describió el átomo de hidrógeno con un protón en el
núcleo, y girando a su alrededor un electrón. El modelo atómico de Bohr partía
conceptualmente del modelo atómico de Rutherford y de las incipientes ideas
sobre cuantización que habían surgido unos años antes con las investigaciones de
Max Planck y Albert Einstein. Debido a su simplicidad el modelo de Bohr es
todavía utilizado frecuentemente como una simplificación de la estructura de la
materia.
En este modelo los electrones giran en órbitas circulares alrededor del núcleo,
ocupando la órbita de menor energía posible, o sea la órbita más cercana al
núcleo posible. El electromagnetismo clásico predecía que una partícula cargada
moviéndose de forma circular emitiría energía por lo que los electrones deberían
colapsar sobre el núcleo en breves instantes de tiempo. Para superar este
problema Bohr supuso que los electrones solamente se podían mover en órbitas
específicas, cada una de las cuales caracterizada por su nivel energético. Cada
órbita puede entonces identificarse mediante un número entero n que toma
valores desde 1 en adelante. Este número "n" recibe el nombre de Número
Cuántico Principal.
Bohr supuso además que el momento angular de cada electrón estaba cuantizado
y sólo podía variar en fracciones enteras de la constante de Planck. De acuerdo al
número cuántico principal calculó las distancias a las cuales se hallaba del núcleo
cada una de las órbitas permitidas en el átomo de hidrógeno.
Estos niveles en un principio estaban clasificados por letras que empezaban en la
"K" y terminaban en la "Q". Posteriormente los niveles electrónicos se ordenaron
por números. Cada órbita tiene electrones con distintos niveles de energía
obtenida que después se tiene que liberar y por esa razón el electrón va saltando
de una órbita a otra hasta llegar a una que tenga el espacio y nivel adecuado,
dependiendo de la energía que posea, para liberarse sin problema y de nuevo
volver a su órbita de origen.
El modelo atómico de Bohr constituyó una de las bases fundamentales de la
mecánica cuántica. Explicaba la estabilidad de la materia y las características
principales del espectro de emisión del hidrógeno. Sin embargo no explicaba el
espectro de estructura fina que podría ser explicado algunos años más tarde
gracias al modelo atómico de Sommerfeld. Históricamente el desarrollo del modelo
atómico de Bohr junto con la dualidad onda-corpúsculo permitiría a Erwin
Schrödinger descubrir la ecuación fundamental de la mecánica cuántica.
Postulados de Bohr
En 1913 Niels Bohr desarrolló su célebre modelo atómico de acuerdo a cuatro
postulados fundamentales:
1. Los electrones orbitan el átomo en niveles discretos y cuantizados de energía,
es decir, no todas las órbitas están permitidas, tan sólo un número finito de éstas.
2. Los electrones pueden saltar de un nivel electrónico a otro sin pasar por
estados intermedios.
3. El salto de un electrón de un nivel cuántico a otro implica la emisión o
absorción de un único cuanto de luz (fotón) cuya energía corresponde a la
diferencia de energía entre ambas órbitas.
4. Las órbitas permitidas tienen valores discretos o cuantizados del momento
angular orbital L de acuerdo con la siguiente ecuación:
Donde n = 1,2,3,… es el número cuántico angular o número cuántico principal.
La cuarta hipótesis asume que el valor mínimo de n es 1. Este valor corresponde a
un mínimo radio de la órbita del electrón de 0.0529 nm. A esta distancia se le
denomina radio de Bohr. Un electrón en este nivel fundamental no puede
descender a niveles inferiores emitiendo energía.
Se puede demostrar que este conjunto de hipótesis corresponde a la hipótesis de
que los electrones estables orbitando un átomo están descritos por funciones de
onda estacionarias.
La mecánica cuántica, conocida también como mecánica ondulatoria y como
física cuántica, es la rama de la física que estudia el comportamiento de la
materia a escala muy pequeña.
El concepto de partícula "muy pequeña" atiende al tamaño en el cual comienzan a
notarse efectos como la imposibilidad de conocer con exactitud, arbitraria y
simultáneamente, la posición y el momento de una partícula (véase Principio de
indeterminación de Heisenberg), entre otros. A tales efectos suele denominárseles
"efectos cuánticos". Así, la mecánica cuántica es la que rige el movimiento de
sistemas en los cuales los efectos cuánticos sean relevantes. Se ha documentado
que tales efectos son importantes en materiales mesoscópicos (unos 1000
átomos).
Las suposiciones más importantes de esta teoría son las siguientes:

La energía no se intercambia de forma continua, sino que en todo
intercambio energético hay una cantidad mínima involucrada, es decir un
cuanto (cuantización de la energía).

Al ser imposible fijar a la vez la posición y el momento de una partícula, se
renuncia al concepto de trayectoria, vital en mecánica clásica. En vez de eso,
el movimiento de una partícula queda regido por una función matemática que
asigna, a cada punto del espacio y a cada instante, la probabilidad de que la
partícula descrita se halle en tal posición en ese instante (al menos, en la
interpretación de la Mecánica cuántica más usual, la probabilística o
interpretación de Copenhague). A partir de esa función, o función de ondas, se
extraen teóricamente todas las magnitudes del movimiento necesarias.
Aunque la estructura formal de la teoría está bien desarrollada, y sus resultados
son coherentes con los experimentos, no sucede lo mismo con su interpretación,
que sigue siendo objeto de controversias.
La teoría cuántica fue desarrollada en su forma básica a lo largo de la primera
mitad del siglo XX. El hecho de que la energía se intercambie de forma discreta se
puso de relieve por hechos experimentales como los siguientes, inexplicables con
las herramientas teóricas "anteriores" de la mecánica clásica o la electrodinámica:

Espectro de la radiación del cuerpo negro, resuelto por Max Planck con la
cuantización de la energía. La energía total del cuerpo negro resultó que tomaba
valores discretos más que continuos. Este fenómeno se llamó cuantización, y los
intervalos posibles más pequeños entre los valores discretos son llamados quanta
(singular: quantum, de la palabra latina para "cantidad", de ahí el nombre de
mecánica cuántica.") El tamaño de los cuantos varía de un sistema a otro.
Bajo ciertas condiciones experimentales, los objetos microscópicos como los
átomos o los electrones exhiben un comportamiento ondulatorio, como en la
interferencia. Bajo otras condiciones, las mismas especies de objetos exhiben un
comportamiento corpuscular, de partícula, ("partícula" quiere decir un objeto que
puede ser localizado en una región especial del Espacio), como en la dispersión
de partículas. Este fenómeno se conoce como dualidad onda-partícula.
Las propiedades físicas de objetos con historias relacionadas pueden ser
correlacionadas en una amplitud prohibida por cualquier teoría clásica, en una
amplitud tal que sólo pueden ser descritos con precisión si nos referimos a ambos
a la vez. Este fenómeno es llamado entrelazamiento cuántico y la desigualdad de
Bell describe su diferencia con la correlación ordinaria. Las medidas de las
violaciones de la desigualdad de Bell fueron de las mayores comprobaciones de la
mecánica cuántica.
Explicación del efecto fotoeléctrico, dada por Albert Einstein, en que volvió a
aparecer esa "misteriosa" necesidad de cuantizar la energía.
Efecto Compton.
El desarrollo formal de la teoría fue obra de los esfuerzos conjuntos de muchos y
muy buenos físicos y matemáticos de la época como Erwin Schrödinger, Werner
Heisenberg, Albert Einstein, P.A.M. Dirac, Niels Bohr y Von Neumann entre otros
(la lista es larga). Algunos de los aspectos fundamentales de la teoría están siendo
aún estudiados activamente. La mecánica cuántica ha sido también adoptada
como la teoría subyacente a muchos campos de la física y la química, incluyendo
en materia condensada, química cuántica y física de partículas.
La región de origen de la mecánica cuántica puede localizarse en la Europa
central, en Alemania y Austria, y en el contexto histórico del primer tercio del siglo
XX.
LOS CUANTA DE ENERGÍA
El problema de la radiación térmica también conocido como el problema del
"cuerpo negro", fue resuelto por Max Planck en el año de 1900. Así se inició una
de las más importantes ramas de lo que ahora llamamos física moderna. Planck
halló la solución al postular que la energía de una onda electromagnética (o
cualquier otro sistema oscilante) puede existir en forma de paquetes llamados
cuanta. La energía E de cada cuanta es directamente proporcional a la frecuencia
de oscilación. Esto es
E = hv
donde h es una constante universal, hoy conocida como constante de Planck y
que vale h = 6.6256 x 10-34 joules-segundo.
Con esta suposición y haciendo uso de la física estadística se puede ahora
calcular la distribución de energía emitida por longitud de onda por un cuerpo a la
temperatura T. El resultado es una expresión matemática que concuerda
maravillosamente con los resultados experimentales mostrados en la figura I.2. ¡El
problema del cuerpo negro estaba así resuelto!
Aunque Planck tuvo la necesidad de postular la cuantificación de la energía, él no
creía realmente en la existencia física de tales paquetes energéticos. Sin embargo
la evidencia experimental mostró, en efecto, que un sistema físico no puede
intercambiar cantidades arbitrarias de energía sino sólo cantidades cuantizadas.
Asimismo, dicha evidencia experimental mostró que los cuanta se comportan
como partículas. Es decir, los cuanta no eran sólo un recurso matemático que
permitió resolver un problema, sino entes físicos reales. Dos importantes
experimentos que apoyaron decididamente esta idea fueron el efecto fotoeléctrico
y el efecto Compton; el primero fue explicado por Albert Einstein en 1905 y el
segundo por Arthur H. Compton en 1923.
ÁTOMOS Y TRANSICIONES ELECTRÓNICAS
El primer modelo "moderno" del átomo fue proporcionado por Ernest Rutherford.
Este modelo estaba basado en sus resultados experimentales que mostraban
conclusivamente que el átomo está formado por un núcleo muy masivo con carga
positiva, alrededor del cual giraban los electrones, con carga negativa, formando
un sistema similar a un pequeño sistema planetario. El problema fundamental de
este modelo estaba en que, de acuerdo con la teoría electromagnética clásica,
una partícula cargada como un electrón, girando en una órbita, debería radiar
ondas electromagnéticas y perder así rápidamente toda su energía. Es decir, un
átomo sería un sistema inestable en el cual sus electrones se colapsarían
siguiendo órbitas espirales hacia el núcleo atómico y emitiendo en el proceso un
breve destello de radiación electromagnética de una cienmillonésima de segundo.
El universo, tal como lo conocemos, no podría existir. Nuevamente, como en el
problema de la radiación térmica, la física clásica era incapaz de proporcionar una
respuesta congruente con la observación experimental.
Quien solucionó en 1913 esta paradójica situación fue el físico Niels Bohr al
proponer un modelo atómico en el cual los electrones únicamente pueden
encontrarse en un número discreto de órbitas alrededor del núcleo; para que un
electrón pase de una órbita a otra debe emitir (o absorber, según el caso) un
cuanto de energía. Así, Bohr sintetizó con su modelo los resultados
experimentales de Rutherford y las proposiciones teóricas de Planck.
La figura I.3 muestra la estructura de un átomo de acuerdo con la teoría de Bohr.
En este ejemplo tenemos que un electrón puede encontrarse solamente en una de
las cinco órbitas mostradas. Para que el electrón pase de la primera a la segunda
órbita necesita recibir un cuanto con energía exactamente igual a la diferencia de
energía entre la primera y la segunda órbita. Igualmente, el paso de un electrón de
una órbita superior a otra inferior sólo será posible si éste emite un cuanto con
energía igual a la diferencia de energía entre dichas órbitas.
Figura I.3.
Nótese que si el electrón se encuentra en la primera órbita no podrá emitir ningún
cuanto de energía puesto que ya no hay órbitas de menor energía a las cuales
pueda descender. Por otra parte, también debe observarse que a partir de la
última órbita (en el caso de la figura, la 5ª. órbita), si el electrón recibe otro cuanto
de energía éste pasará a ser un "electrón libre" y se separará del átomo, pues ya
no hay más órbitas superiores a las cuales pasar. Entonces decimos que el átomo
está ionizado, esto es, se ha convertido en un átomo que ha perdido uno o varios
de sus electrones.
El modelo de Bohr explicó los espectros de emisión de átomos simples como el
hidrógeno y el helio, y proporcionó las bases para comprender el espectro de
átomos más complejos. Claro está, la física atómica no se detuvo allí; pronto este
modelo fue incapaz de explicar nuevas observaciones experimentales y como
consecuencia tuvo que ser mejorado. No obstante, las ideas esenciales del
modelo atómico de Bohr que hemos expuesto son suficientes para comprender lo
que veremos a continuación.
INTERACCIÓN ÁTOMO-CUANTO
Ahora enunciaremos los procesos básicos de interacción entre la materia y la
radiación electromagnética que en su más pequeña escala se reducen a los
procesos de interacción entre átomos y cuantos de energía de radiación
electromagnética.
Supondremos un sistema atómico elemental con dos niveles de energía E1 y E2 en
el cual el primer nivel corresponde a un electrón en su órbita inferior y el segundo
nivel corresponde a un electrón en su órbita superior. En el primer caso diremos
que el átomo se encuentra en su estado base y en el segundo caso en su estado
excitado. Como vimos en la sección anterior, este sistema atómico sólo podrá
interaccionar con cuantos que tengan una energía E igual a la diferencia de
energía E = E2 - E1. Por lo tanto, la frecuencia v asociada a dichos cuantos de
energía es
E2 - E1
v
=
h
En tal caso diremos que la interacción átomo-cuanto es un proceso resonante. En
este libro sólo consideraremos interacciones resonantes.
Por brevedad, de ahora en adelante llamaremos fotón a un "cuanto de radiación
electromagnética". El término fotón fue introducido por Einstein al estudiar el
efecto fotoeléctrico.
El primer proceso de interacción átomo-fotón que veremos es el proceso de
absorción, que se muestra esquemáticamente en la figura I.4. Consiste en la
interacción entre un fotón y un átomo que inicialmente se encuentra en su estado
base. El resultado de esta interacción es que el átomo "absorbe" al fotón y usa su
energía para pasar a su estado excitado.
Figura I.4. Absorción
El siguiente proceso importante de interacción átomo- fotón es el proceso de
emisión espontánea, el cual se muestra esquemáticamente en la figura I.5. Ahora
tenemos un átomo ya excitado inicialmente, que en forma espontánea (y
generalmente en un tiempo breve, del orden de 10-8 segundos) pasa a su estado
base emitiendo en el proceso un fotón con energía igual a la diferencia de energía
entre los dos estados. El fotón se emite en una dirección totalmente aleatoria.
Figura I.5. Emisión espontánea
Finalmente, el otro proceso importante de interacción átomo-fotón es el proceso
de emisión estimulada. Su existencia fue propuesta por Albert Einstein en 1917 y
es el proceso fundamental gracias al cual existe el láser. La figura I.6 muestra
esquemáticamente tal proceso. En él tenemos la interacción entre un fotón y un
átomo que inicialmente se encuentra en su estado excitado. Como resultado de
esta interacción el átomo pasa a su estado base emitiendo en el proceso un fotón
que tiene las mismas características de dirección y de fase que el fotón inicial. Por
lo tanto, decimos que la radiación electromagnética que resulta es coherente.
Figura I.6. Emisión estimulada
Podemos realmente afirmar que el germen que dio origen al desarrollo del láser
fue dado a la vida cuando este fenómeno de "emisión estimulada" fue propuesto.
De hecho, la palabra láser es el acrónimo de la expresión en inglés Light
Amplification by Stimulated Emission of Radiation, que en español podemos
traducir
como
"amplificación
de
la
luhttp://omega.ilce.edu.mx:3000/sites/ciencia/volumen2/ciencia3/105/htm/sec_5.ht
mz por emisión estimulada de radiación".JORGE FLORES VALDÉS
NÚMEROS CUÁNTICOS n, l, ml
Cuando se resuelve la Ecuación H
=E
para encontrar la función de onda
(x,y,z) y describir los orbitales, resulta que muchas soluciones existen de modo
que cada una presenta números cuánticos que describen las propiedades de
estos orbitales:

Número Cuántico Principal n que puede adquirir los valores n=1,2,3.....
Este número cuántico se relaciona directamente con el tamaño y la energìa
del orbital. A medida que n crece, el orbital es más grande y el electrón que
lo ocupa, permanece más tiempo alejado del núcleo. Un aumento en n
implica entonces un aumento en la energía del orbital. Este número
cuántico corresponde al que Bohr planteó en su modelo para los orbitales
esféricos.

Número Cuántico azimutal l, adquiere los valores enteros desde 0 hasta
n-1, para cada valor de n. Este número l se relaciona directamente con la
forma que adquiere ese orbital en el espacio. La manera de usar su
significado en Quìmica, es definirlos mediante letras s, p, d, f, g. ..según el
valor que l adquiere:
Números Cuánticos Azimutales y sus correspondientes Orbitales Atómicos
Valor de l
0
1
2
3
4
Letra usada
s
p
d
f
g

Número
Cuántico
Magnético
ml
adquiere
"todos"
los
valores
comprendidos entre -l y +l , y se relaciona con la orientación del orbital en
el espacio, relativo a los otros orbitales en el átomo.
En resumen, estos números cuánticos pueden llegar a tomar valores como se
muestra a continuación:
n = 1, 2, 3, 4, 5, ...
l = 0, 1, 2, 3, 4, ... (n-1) para cada n
ml = -l, ..., 0, ...,+l ,
Números Cuánticos de los primeros cuatro niveles de Orbitales en el átomo
H
n
l
1
0
2
3
4
Designación
ml
N° de orbitales
1s
0
1
0
2s
0
1
1
2p
-1,0,+1
3
0
3s
0
1
1
3p
-1,0,+1
3
2
3d
-2,-1,0,+1,+2
5
0
4s
0
1
1
4p
-1,0,+1
3
2
4d
-2,-1,0,+1,+2
5
3
4f
-3,-2,-1,0,+1,+2,+3
7
orbital
Ejemplo
Para el nivel principal cuántico con n=5, determine las subcapas que tienen
diferentes valores de l. Indique la designación y cantidad para cada uno de ellos.
R Para n=5, los valores permitidos para l son 0, 1, 2, 3, 4. Así, la designación de
las subcapas son
l=
0
Designación
5s 5p 5d 5f 5g
Cantidad de niveles 1
1
3
2
5
3 4
7 9
5.1.2 IMPACTO DE LA FÍSICA NUCLEAR EN LA SOCIEDAD
El objetivo de la física nuclear es el entendimiento fundamental de los núcleos,
que constituyen la parte central de los átomos, donde reside casi toda la masa de
la materia común. Los físicos nucleares estudian cómo se formó esta materia,
cómo se mantiene unida, cómo es su estructura, cómo interacciona en colisiones y
cómo se transforma en el interior de las estrellas. La persecución de estos
objetivos involucra desarrollar nuevas tecnologías e instalaciones avanzadas,
educar científicos jóvenes, entrenar cuadros técnicos altamente especializados y
contribuir a la empresa científica y tecnológica más amplia a través de las muchas
intersecciones de la física nuclear con otras disciplinas. En este documento se
describen brevemente algunos ejemplos selectos que dan una idea del impacto
que la física nuclear ha tenido en la sociedad mundial y que ilustran la importancia
de invertir recursos en las ciencias nucleares. Por necesidad, no es posible hacer
justicia a toda la gama de aplicaciones existentes en el corto espacio disponible y
se han tenido que omitir innumerables ejemplos importantes. Los ejemplos
escogidos son relevantes en los campos de Ciencias Ambientales, Energía,
Materiales y Física Médica.
Física Nuclear en México
La ciencia nuclear continúa empujando las fronteras del conocimiento y
expandiendo las capacidades de la tecnología. Los frutos de las investigaciones
fundamentales actuales indudablemente llevaría a nuevas aplicaciones tan
importantes como las descritas aquí que seguramente cristalizarán en la medida
en que exista una contraparte industrial interesada. En México existen varios
grupos de investigadores de alto nivel con formación en física nuclear, producto de
una tradición de alrededor de cinco décadas en las que la física nuclear, tanto
teórica como experimental, ha sido parte esencial y en ocasiones símbolo y motor
de la ciencia mexicana, con una contribución fundamental a la formación de
recursos humanos de muy alto nivel. Estos han sido a su vez investigadores y
profesores universitarios, y muchos de ellos han evolucionado hacia áreas de
interés fuera de la física nuclear, tanto en aplicaciones de los métodos de la física
nuclear teórica a otros campos, como de las técnicas de la física nuclear
experimental (p. ej. PIXE, RBS, channeling, etc.) a otras áreas. Puesto que la
presencia de la física nuclear en el mundo es grande, como lo ilustran los
ejemplos anteriores, es clara la importancia de que haya mucha gente que la
entienda en toda sociedad, en particular en la sociedad mexicana.
La investigación por sí misma reviste una gran importancia en general, y muy
particularmente en física nuclear. Se genera conocimiento que a corto o mediano
plazo se convierte en dinero. Producir investigación básica es una condición
necesaria para poder generar en el futuro nuevos conocimientos, nuevas
aplicaciones, nuevas tecnologías. Dentro de la física nuclear teórica, la comunidad
mexicana ha hecho contribuciones de gran importancia mundial en estudios de
estructura nuclear, introduciendo métodos originales de cálculo y desarrollando
modelos nucleares novedosos. Los grupos experimentales, por su parte, se
mantienen a la vanguardia en campos de actualidad tales como reacciones
nucleares con haces nucleares radiactivos (de importancia en estudios de
estructura nuclear y en astrofísica nuclear), reacciones nucleares con iones
pesados a energías bajas e intermedias y desarrollo de métodos originales de
detección. Entre algunos de los físicos nucleares mexicanos se comparten
intereses con áreas relacionadas, tales como la Física de radiaciones, la
aplicación de diferentes técnicas nucleares y la física médica.
Es importante que se aporten los recursos necesarios para que el país no quede
al margen de los avances actuales en física nuclear.
PROBLEMAS DE FÍSICA NUCLEAR
Se sabe que al medir con precisión la masa que corresponde al núcleo de un
átomo, resulta siempre que la masa de dicho núcleo es inferior a la suma de las
masas de los nucleones que lo forman. ¿A qué equivale este defecto de masa?
Razona la respuesta. (P.A.U. Jun 92)
¿Cuál es la diferencia fundamental entre fisión y fusión nuclear? Razona la
respuesta.
(P.A.U. Jun 92)
Cuestión: Analogías y diferencias entre la fisión y fusión nuclear.
Jun 93)
(P.A.U.
Cuestión; La masa de los núcleos de los átomos no coincide exactamente con la
suma de las masas de los nucleones constituyentes. ¿Por qué? (P.A.U. Jun 93)
Cuestión: Los rayos g rompen el núcleo de
partícula se obtiene y por qué?
Rta.: 11H, conservación nº másico y carga
9 Be
4
para formar
8 Li.
3
¿Qué otra
(P.A.U. Sep 94)
Una muestra de material radiactivo contiene 500 millones de núcleos radiactivos.
La vida media es de 30 segundos. Determinar:
El número de núcleos radiactivos que existen en la muestra después de 15
segundos.
La constante , de decaimiento exponencial, o constante radiactiva del núcleo.
Rta.: 300 millones; 0’033 s-1 (P.A.U. Jun 92)
Un miligramo de
60
Co se desintegra de acuerdo con la reacción
27
60
27
Co 
60
28
0
0
1
0
Ni  e  
siendo el periodo de semidesintegración igual a 5´3 años. Hallar
la energía desprendida
el número de desintegraciones por segundo en el momento inicial.
Datos mCo =59’919010 ·u , mNi= 59’915439·u ; me=5’486·u siendo u= u.m.a.=
1’66·10-27 kg y velocidad de la luz en el vacío, c= 3’00·108m·s-1
Rta. : 4’539·106 J ; 4’16·1010 átomos/s (P.A.U. Jun96)
Sitúase un detector de radiactividade fronte a unha mostra radiactiva que posúe
un periodo de semidesintegración de 60 s. No instante t= 0 o detector marca unha
velocidade de desintegración de 2000 contas/s . Calcular a) a constante de
desintegración ou constante radiactiva . E b) a velocidade de desintegración ó
cabo dun minuto.
Rta: a) = 1'16·10 -2 s -1; b) A = 1000 contas/s. (P.A.U. Junio 98)
Se dispone de 1 mol de 32 P radiactivo, cuyo período de semidesintegración es de
14'6 días . a) ¿ Cuántas desintegraciones por segundo se producen?. B) ¿Cuántos
días tardará en desintegrarse el 90 % del material?
Rta :
= 5'5 ·10 -7 s -1; b) t=48'5 días ( P.A.U Junio 99)
5.2 MECANICA RELATIVISTA
5.2.1 TEORIA ESPECIAL DE LA RELATIVIDAD
Albert Einstein publicó en 1905 la Teoría especial de la relatividad, que sostiene
que lo único constante en el universo es la velocidad de la luz en el vacío y todo lo
demás (velocidad, longitud, masa y paso del tiempo) varía según el marco
referencial del observador. La teoría resolvió muchos de los problemas que habían
preocupado a los científicos hasta entonces. La famosa ecuación resultante de la
teoría E = mc2 establece que la energía (E) es igual a la masa (m) por la velocidad
de la luz (c) al cuadrado.
-Masa y energía
Einstein estableció la ecuación E = mc2 (donde E es energía; m, masa; y c, la
velocidad constante de la luz) para explicar que masa y energía son equivalentes.
Hoy se sabe que masa y energía son formas distintas de una misma cosa que
recibe el nombre de masa-energía. Si la energía de un objeto disminuye una
cantidad E, su masa también se reduce una cantidad igual a E/c2. Pero la masaenergía no desaparece, sino que se libera en forma de la llamada energía
radiante.
-Espacio-tiempo
Doscientos años antes de que Albert Einstein formulara sus teorías sobre la
relatividad, el matemático inglés Isaac Newton sugirió que el espacio y el tiempo
eran absolutos (fijos) y que el primero estaba totalmente separado del segundo.
Según la teoría de la relatividad, sin embargo, el tiempo y las tres dimensiones del
espacio (longitud, altura y profundidad) constituyen un marco de cuatro
dimensiones que recibe el nombre de continuum espacio-temporal.
-Longitud relativa
El físico irlandés George Fitzgerald sugirió que la materia se contrae en la
dirección de su movimiento. Por ejemplo, desde el punto de vista de un
observador estático un cohete que viajara casi a la velocidad de la luz parecería
más corto que si estuviera estático, aunque los ocupantes no notarían diferencia.
Einstein demostró que cualquier objeto que viajara a la velocidad de la luz se
encogería hasta una longitud cero.
-Tiempo relativo
La teoría especial de la relatividad sostiene que el tiempo no es absoluto (fijo).
Según Einstein, el tiempo de un objeto visto por un observador externo pasa más
lentamente a medida que aumenta su movimiento lineal, lo que se ha demostrado
con relojes atómicos sincronizados: mientras uno permanece en la Tierra, el otro
es sometido a un viaje muy rápido (por ejemplo, en un reactor); al compararlos, el
estacionario está algo más avanzado que el móvil. Einstein puso de ejemplo la
famosa paradoja de los gemelos, en la que se explica que un hombre viaja al
espacio casi a la velocidad de la luz dejando en la tierra a su hermano gemelo. Al
volver en la tierra han pasado 50 años pero para el viajero solo han pasado unos
20.
5.2.2 TEORÍA DE LA RELATIVIDAD GENERAL.
Albert Einstein (1879-1955) formuló su teoría general de la relatividad. Einstein
demostró que el espacio es finito pero ilimitado, como si se tratara de un universo
bidimensional que tuviera la forma de la superficie de una esfera: sería finito, pero
no tendría límites. Ese universo finito pero ilimitado descrito por Einstein era, en
principio, estático aunque de hecho podía ser objeto de un movimiento de
expansión o contracción. Esta teoría explicaba tambien que los efectos de la
gravedad y la aceleración son indistinguibles y por lo tanto equivalentes. También
explicaba que las fuerzas gravitatorias están vinculadas a la curvatura del espaciotiempo. Mediante un modelo matemático, Einstein demostró que cualquier objeto
flexiona el espacio-tiempo que lo rodea. Si tiene una masa relativamente grande,
como una estrella, la curvatura que produce puede cambiar la trayectoria de todo
lo que pase cerca, incluso de la luz.
Todo esto significa que todo objeto con masa produce o genera gravedad hacia
los objetos que le rodean, generalmente cuanto más grande es la masa, más
gravedad produce. Este hecho se rompe ante la presencia de un agujero negro o
ante una estrella de neutrones cuyas masas son muy pequeñas sin embargo la
fuerza
de
la
gravedad
es
enorme.
La teoría general de la relatividad sostiene que las fuerzas gravitatorias son
consecuencia de la curvatura del espacio-tiempo. Al pasar cerca de un objeto
masivo, la luz describe una trayectoria curva al seguir la curvatura del espaciotiempo causada por la masa del objeto. Los agujeros negros tienen una
concentración de masa tal que la curvatura del espacio-tiempo a su alrededor es
tan pronunciada que ni la luz puede escapar de ellos
Con el nombre de Teoría de la Relatividad se engloban generalmente dos cuerpos
de investigación en ciencias físicas, usualmente conectadas con las
investigaciones del físico Albert Einstein: su Teoría de la Relatividad Especial y su
Teoría de la Relatividad General.
La primera, publicada en 1905, trata de la física del movimiento de los cuerpos en
ausencia de fuerzas gravitatorias. La segunda, de 1915, es una teoría de la
gravedad que reemplaza a la gravedad newtoniana pero se aproxima a ella en
campos gravitatorios débiles. La teoría general se reduce a la especial en
ausencia de campos gravitatorios.
Conceptos principales
La idea esencial de ambas teorías es que dos observadores que se mueven
relativamente uno al otro con gran velocidad a menudo medirán diferentes
intervalos de tiempo y espacio para describir las mismas series de eventos. Sin
embargo, el contenido de las leyes físicas será el mismo para ambos
observadores.
Artículo principal: Teoría de la Relatividad Especial
La Teoría de la Relatividad Especial, también llamada Teoría de la Relatividad
Restringida, publicada por Einstein en 1905, describe la física del movimiento en el
marco de sistemas de referencia inerciales. Estos conceptos fueron presentados
anteriormente por Poincaré y Lorentz, que son considerados también como
originadores de la teoría.
[editar] La relatividad general
Esquema de la curvatura del espacio-tiempo alrededor de una masa.
Artículo principal: Teoría de la Relatividad General
T.T.'os <e-o>La relatividad general fue publicada por Einstein en 1915 (presentada
como conferencia en la Academia de Ciencias prusiana el 25 de noviembre de
1915). Debe notarse que el matemático alemán David Hilbert escribió e hizo
públicas las ecuaciones de la covariancia antes que Einstein. Ello resultó en no
pocas acusaciones de plagio contra Einstein, pero probablemente sea más
cercano a la realidad afirmar que ambos fueron los co-creadores de la relatividad
general. Esta teoría introduce una ecuación que precisa, mejora y reemplaza la ley
de gravedad de Newton. Utiliza las matemáticas de la geometría diferencial y los
tensores a fin de describir los efectos de la interacción gravitatoria, también
llamada gravitación o gravedad. Se trata de una perspectiva que considera que
todos los observadores son equivalentes, no sólo aquellos que se mueven a
velocidad uniforme sino también aquellos que aceleran y retardan sus
movimientos. Las leyes de la relatividad general son las mismas para todos los
observadores, incluso cuando varían sus movimientos recíprocos.
En la relatividad general la gravedad no sigue siendo vista como una fuerza (como
se la conceptuaba en la ley de gravedad de Newton) sino como una consecuencia
de la curvatura del espacio-tiempo. La relatividad general no puede conceptuar
fuerzas, porque es una teoría (o perspectiva) geométrica. La misma postula que la
presencia de masa o energía «curva» al espacio-tiempo, y esta curvatura afecta la
trayectoria de los cuerpos móviles e incluso la trayectoria de la luz.
http://es.wikipedia.org/wiki/Teor%C3%ADa_de_la_relatividad
Postulkados Y consecuencias
La ciencia específica básica de la naturaleza es la Física; y son la Teoría de la
relatividad y la Teoría cuántica las que dominan la Física actual. Sin embargo, a
un siglo de sus enunciados fundamentales, persiste el clima controversial en torno
de ellas; como lo ha sido desde sus comienzos. La discusión atañe a la propia
lógica de las teorías: para algunos no hay nada que objetar, mientras que para
otros todo es ilógico de raiz. Nadie que conozca un mínimo de ellas puede
abstrarse de esta discusión; por demás apasionante, pues se trata, nada menos,
del poder humano sobre la naturaleza.
Nuestra intención, como la de todos, es también contribuir a despejar este
hambiente enrarecido; y, si no es mucho pedir, encauzar la discusión hacia la
fuente problemática de la cual procede la Física actual.
Un estudio de la Teoría de la relatividad (parte de un estudio mayor en curso;
cuyos resultados confío publicar en fecha no lejana, si la vida y la sociedad me lo
permiten) nos conduce a la siguiente interpretación, sinópticamente expuesta.
La Teoría de la relatividad parte de dos postulados:
I)- El principio de la relatividad.
Dos sistemas(K, K') pueden hallarse en reposo o en movimiento rectilíneo y
uniforme, uno respecto del otro, gobernados por leyes idénticas. Por ende, la
determinación del estado posicional de cada uno exige la consideración de un
referente; es decir, de otro respecto del cual reposa o se mueve.
II)- La ley de la velocidad constante de la luz.
Hecha la medición desde un sistema(K), con los patrones de medición de
este sistema, la medida de la velocidad de la luz(l) en el vacío es constante(C),
sea que su fuente(f) repose o se mueva, se aleje o se acerque, respecto de dicho
sistema(K). Por lo tanto, la velocidad(e/t) de la luz en el vacío no varía respecto de
K, no obstante cualquier variación posicional de su fuente respecto de K.
Esta ley es indiferente a la velocidad de la luz en sentidos opuestos respecto
de K. O mejor dicho, es indiferente al sentido del desplazamiento de la luz. Sin
embargo, lo más natural es suponer que es la misma en sentidos opuestos, al
recorrer las mismas condiciones. Aun si el medio total de la trayectoria no es
homogéneo.
La independencia de la velocidad de la luz respecto de su fuente(f) parece
corroborar la Teoría ondulatoria de la luz( sugerida por el holandés Huyghens en
1690). Su comportamiento se asemeja al de las ondas, como las del agua o el
aire, por ejemplo. Estas ondas viajan con velocidades independientes de su fuente
de origen. Lo que nos lleva a suponer un medio de propagación de las ondas-luz,
denominado tradicionalmente "éter".
Si la luz es onda, existe un medio de su propagación( como son el agua y el
aire para sus correspondientes ondas) de extensión universal: através del "vacío"
y de los cuerpos, como el aire, el vidrio, el agua, etc., através de los cuales puede
desplazarse la luz.
Vale recordar que la Teoría ondulatoria explica satisfactoriamente numerosos
fenómenos empíricos; uno de los cuales es el espectro de franjas claras y
oscuras, supuestas resultantes de la interferencia entre las ondas-luz.
Es mas, la Teoría electromagnética(1865) de Clerk Maxwell, unificadora de
los conocimientos acerca de la electricidad y la magneticidad en una teoría del
campo electromagnético y precursora de los grandes adelantos tecnológicos del
siglo XX, incluye la hipótesis de la naturaleza ondulatoria de la radiación
electromagnética de la cual es una especie la luz, cuya velocidad es precisamente
una constante(C).
____________
Ahora bien, ¿ son compatibles estos postulados?
Si la velocidad de una luz es C respecto de K, en un sentido cualquiera, sería
diferente de C respecto de K', que se mueve rectilínea y uniformemente respecto
de K; por más que K atraviese K'.
Esto no parece contradecir al Principio de la relatividad; asi como no lo hace
el hecho de que la velocidad de un cuervo que vuela por la corriente de aire que
atraviesa al tren(con sus puertas delantera y trasera abiertas) sea, respecto del
tren(K'), diferente a su velocidad(w) respecto del aire y la estación(K).
Además, si unas ondas del aire de la estación, aire que atraviesa el tren(como un
viento respecto de éste), se desplazan a determinada velocidad constante
respecto de la estación(K), pero, simultáneamente, a velocidades diferentes, y
diferente en sentidos contrarios, respecto del susodicho tren(K'), sin contradecir el
Principio de la relatividad, ¿por qué si lo harían las ondas del éter?
Porque, tratándose de una Ley(C), una misma luz(l), y cualquier otra, debe
cumplirla respecto de ambos sistemas a la vez, tal como se cumplen las demás
Leyes físicas de acuerdo al Principio de la relatividad.
Tesis que es corroborada por el experimento de Michelson y Morley, y otros
semejantes, interpretados según la Teoría ondulatoria. Más aun, ¡no se han
detectado velocidades diferentes en sentidos diferentes respecto de K', no
obstante su movimiento respecto del éter-K.
Si la luz se desplaza a lo largo de dos brazos perpendiculares terrestres, iguales,
en ida y vuelta, a diferentes velocidades en sentidos diferentes respecto de estos
brazos, como sugiere la hipótesis del éter luminífero(K), el espectro de franjas
producidas a su regreso por la interferencia de las ondas-luz se desplazaría en
magnitud perceptible con la modificación del emplazamiento de los brazos
respecto de la dirección del movimiento traslacional de la Tierra(K') respecto del
éter universal(K). Pero, en el experimento crucial(1887) llevado a cabo por
Michelson y Morley, y en otros después, no se ha detectado nada atribuible a
tiempos y velocidades de la luz diferentes, según su sentido, respecto de la
Tierra(K'). El tiempo de recorrido transversal es igual al tiempo de recorrido
paralelo; por ende, la velocidad de la luz sería la misma respecto de K' y respecto
de K-éter de la Teoría ondulatoria. Esquema 4:
Esto equivale a la conjunción utilizada por Einstein de la Ley de la velocidad
constante y el Principio de la relatividad en el sentido de que si la velocidad de una
luz en el vacío es siempre C respecto de un sistema (K), a la vez la velocidad de la
misma luz debe ser también siempre C respecto de otro(K'), en cualquier
dirección, en movimiento respecto del primero(K).
¿Qué implica ello?
Sean los sistemas K y K' simultáneos(coexistentes).
K' se desplaza rectilínea y uniformemente, a velocidad v, respecto de K.
En K' se halla emplazado el brazo A_B, de extensión idéntica a la distancia
A_B en K.
Una luz recorre una trayectoria de ida y vuelta respecto de este brazo, a velocidad
C, tanto en la ida como en la vuelta. Velocidad que, supuestamente, también se
cumple con la misma luz respecto de K.
Por tanto, si la distancia que recorre la luz respecto de K'(brazo) :e' es diferente a
la distancia que recorre respecto de K:e, ¡el tiempo(t') que tarda en recorrer la
distancia e' sería diferente al tiempo(t) que tarda recorrer la distancia e, a la
vez! Entonces, así como resulta la medida C con un reloj de K, debe resultar la
medida C con el reloj de K'.
No se trata de inventar una hipótesis sino de revelar lo implícito entre el resultado
experimental de Michelson-Morley y la Teoría ondulatoria de la luz, o entre el
Principio de la relatividad y la Ley de la velocidad constante de la luz. Esquema
5:
x :donde y cuando la luz recorrió 1/2 de su recorrido anterior(ida) respecto
de K, y A_B(K') también recorrió 1/2 de su recorrido anterior.
Total e = eida
e > e'
y
Total e'= e'ida+ e'vuelta
vuelta
e/t = C = e'/t'
por lo tanto, en totales, t > t'
Si v fuese mayor( pero aún menor que C), la diferencia de t y t' sería mayor. Si
v=C, entonces e'=0 y t'=0.
Duración del sistema:
La lentitud del reloj de K' (t'<t) implica que cada fase suya dura(T') más que
su equivalente en K. El reloj total de K' es lento; lo que se traduce como dilatación
del tiempo en K'. Dicho de otro modo, su duración en K'(T') sería igual a la
dilatación, o prolongación, de su duración en K(T). Dilatación que debe ser un
producto
de
la
duración
en
K
por
un
factor(1/q)
de
dilatación.
T' > T .
T'= T/q
* t y t' simbolizan tiempo de recorrido de
la luz.
* T y T' simbolizan duración de fases.
* q es un factor de dilatación.
Longitud de A_B :
La longitud de A_B según el sistema K es L.
La longitud del sistema K' es L' .
La longitud puede medirse considerando la velocidad(v) de la barra A_B y el
tiempo que tarda en pasar un extremo de la barra después que pasó el otro frente
al mismo punto. Esto se cumple en el instante en que A de K' pasa frente a B de
K. Es evidente, por los esquemas 5 y 6, que es el momento que el reloj de K'
marca un intervalo(t') menor a lo que marca(t) el reloj de K: t' < t . Esquema 6 :
Por tanto, la longitud de A_B sería...
según K:
según K':
L=v.t
L' = v. t'
L' < L
L' = L.q
* q es el factor de contracción. Si la contracción espacial y la dilatación
temporal obedecen a la misma causa, o condicionante, el factor representativo
debe ser el mismo.
Esto contradice a la premisa de la identidad entre las distancias A_B en K y
K' (esquema 5).
Así tenemos ¡tiempos diferentes al mismo tiempo, y espacios diferentes
entre espacios idénticos!
Que un reloj es lento a la vez- es decir al mismo tiempo-que el otro es rápido
no es ningún absurdo, pero sí lo es lo que representan: ¡tiempos diferentes al
mismo tiempo!
La contradicción es descomunal:¡ K y K' son sistemas simultáneos, pero con
tiempos diferentes!
Si sólo se tratase de las medidas el caso no sería tan grave, aunque nadie
entiende que los relojes de un sistema marchen más rápido o más lento que los
del otro según la dirección de la luz. Mas, aquí se trata del tiempo mismo si se
trata de la velocidad misma, y no solo de su medida. El espectro de interferencias
de ondas-luz, en el experimento de Michelson y Morley, y cualquier otro, no
obedece a medidas sino a movimientos, y sus velocidades, en sí. Y la Ley de la
velocidad constante no sólo se refiere a la medida de la velocidad, sino que de su
constancia se infiere la constancia de la velocidad en sí.
Hasta aquí aún no hay concordancia plena con el Principío de la relatividad.
Pues este principio se basa en la identidad de las leyes que gobiernan los
fenómenos físicos respecto de K y K' en movimiento rectilíneo y uniforme, uno
respecto del otro. Entonces, los efectos espaciales y temporales deben ser
relativos, según el Principio de la relatividad; lo cual implica duplicar la
contradicción dentro de otra mayor: lo que ocurre con K' sólo ocurre relativamente:
respecto de K; pues todo se debe a su movimiento, y se mueve respecto de lo
exterior, en este caso respecto de K. Por lo mismo, debemos considerar que
análogamente le ocurre a K, pero respecto de K'; como que se mueve respecto de
K'.
Einstein: -" ...un observador en reposo en el SC-sistema de coordenadasinferior encontraría que un reloj en movimiento cambia su ritmo. Al mismo
resultado llegaría un observador en reposo en el SC superior, al mirar un reloj en
movimiento relativo a su sistema;...pues las leyes de la naturaleza deben ser ser
las mismas en ambos SC en movimiento relativo."(Física. Aventura del
pensamiento. Pág.232).
-"No solo nos es posible imaginnar que un reloj en movimiento
modifique su ritmo, sino que una barra en movimiento cambie su longitud, siempre
que dichas variaciones sean las
inerciales."(Ibídem.¨Pág.223). Esquema 7:
mismas
para
todos
los
SC
¿Cómo entender esto?
No se tratarían de perpectivas visuales, como parecen por los esquemas y la
inclusión permanente del observador en la disertación de Eisntein, sino de
fenómenos independientes de la visión, debidos al movimiento de los sistemas.
Los sistemas físicos se mueven aunque no se les observen.
La conclusión relativista es una paradoja impresionante. Se trata de una
contradición lógica. Ésta puede presentarse en versiones diversas; una, por
demás notable, es la de los gemelos: hallándose uno en K y el otro en K', cada
cual sería mayor que el otro. No solo en edad, también en dimensión espacial. ¡
Es más, como uno puede llegar a morir de viejo, el otro puede aún estar vivo
respecto del muerto, y viceversa!
Pero, ¿cuál es el error cometido en el procedimiento de su concepción por el
cual se ha caido en este absurdo? Einstein no inventó el Principio de la relatividad,
ni la Ley de la velocidad constante de la luz, ni la Teoría ondulatoria, sólo dedujo
las consecuencias teóricas relativistas de las premisas que la Física ya había
concebido.
Einstein: "Con respecto a a teoría de la relatividad no se trata en absoluto de
un acto revolucionario, sino del desarrollo natural de una línea que se remonta a
siglos y siglos..."(La Teoría de la relatividad. L.Pearce Williams. Alianza Editorial.
Madrid, 1981. Pág. 117).
No es nada nuevo en la ciencia el que un procedimiento lógicamente correcto
conduzca a un absurdo. Y cuando ocurre, no queda sino re-examinar las premisas
de su construcción. Es una tarea cualitativa que no puede ser ajena a la Filosofía
natural.
¿ Y si sustituimos la Teoría ondulatoria por la Teoría cuántica, o corpuscular,
según la cual la unidad de luz es una especie de corpúsculo(fotón)? ¡La Teoría
cuántica está plagada también de paradojas, tan o más absurdas que la Teoría de
la relatividad! Vale recordar que Einstein contribuyó decisivamente en la
construcción de los fundamentos de la Teoría cuántica(que le valieron para ganar
el Premio Nóbel de Física de 1921), sin embargo, ni él, ni Max Planck(el fundador
de la teoría), nunca quedaron conformes con las consecuencias interpretativas o
lógicas de la misma.
Además, quedaría la Ley de la velocidad constante de la luz. De esta ley y el
Principio de la relatividad es inferible la paradoja relativista, aun sin la Teoría
ondulatoria.Salvo que la corrección de una implique la corrección de la otra. Como
parece.
5.3 COSMOLOGIA
Principios Cosmológicos:
El científico, aunque no necesariamente el poeta o el teólogo, comienza su
estudio del Universo asumiendo que las leyes físicas, medidas localmente en el
laboratorio,
tienen
una
aplicación
más
general.
Si los experimentos comprueban que esta suposición es incorrecta, entonces uno
procede
a
explorar
las
generalizaciones
de
la
física
local.
En este espíritu, la cosmología, la ciencia de los estudios del Universo, se
desarrolla por extrapolación a lugares remotos en el espacio y el tiempo, de leyes
físicas verificadas localmente, que puedan ser comprobadas con las modernas
técnicas astronómicas.
A diferencia de otras ramas de la ciencia, la cosmología es única en que sólo hay
un Universo disponible para el estudio. No podemos ajustar un parámetro,
modificar otro, y terminar con un sistema diferente para experimentar. No
podremos nunca saber qué tan único es nuestro Universo, porque no tenemos
otro Universo para compararlo. El Universo significa todo lo que es o será jamás
observable, así que jamás podremos esperar ver otro Universo.
Sin embargo, podemos imaginar otros posibles Universos. Podríamos tener un
Universo sin galaxias, estrellas o planetas. Es innecesario decir que el hombre no
podría existir en tal Universo
El hecho mismo de que nuestra especie haya evolucionado en el planeta Tierra
impone restricciones significativas sobre las posibles formas en que nuestro
Universo ha evolucionado. De hecho, algunos cosmólogos piensan que esta
podría ser la única forma en que podremos abordar asuntos tales como: Por qué
el espacio tiene tres dimensiones?, o, Por qué el protón tiene una masa que es
precisamente 1.836 veces mayor que la del electrón?
Si alguno de estos no fuera el caso, nosotros ciertamente no estaríamos aquí.
Podemos llevar el argumento más allá: Nuestra actual existencia requiere que el
Universo halla tenido tres dimensiones espaciales, y el protón una masa de 1.836
electrones. A esta conclusión se le llama "Principio Cosmológico Antrópico":
Particularmente, que el Universo debe ser compatible con el origen y desarrollo de
vida
inteligente.
Por supuesto, esto no es una explicación, y el principio antrópico no tiene
significado físico alguno. Más bien, limita nuestras posibilidades. Podría existir una
multitud de Universos radicalmente diferentes sobre los que no tenemos que
preocuparnos.
Es inevitable que un astrónomo estudie objetos remotos en el tiempo, así como en
el espacio; La luz viaja una distancia de 300.000 Kilómetros en un segundo, o diez
millones
de
millones
de
Kilómetros
en
un
año.
La estrella más cercana, Alfa Centauri, está a 4,3 años-luz de nosotros: La vemos
como era hace más de cuatro años. La galaxia más cercana comparable con
nuestra Vía Láctea está a 2 millones de años-luz de distancia: Vemos la Galaxia
de Andrómeda, un objeto de ojo desnudo bajo un cielo oscuro, como era cuando
el
homo
sapiens
todavía
no
había
evolucionado.
Un telescopio grande es una máquina del tiempo que puede llevarnos parte del
camino hacia la creación, para examinar regiones de las que la luz emanó hace
más de cinco mil millones de años, antes de que nuestro Sol se hubiera formado.
Para el cosmólogo, el asunto de la creación es inevitable.
Hay tres posibilidades que uno podría concebir para la creación del Universo:
1. El comienzo fue un estado singular, no descriptible por la ciencia física.
Un escéptico podría preguntar, Qué hacía Dios antes de que Él creara el
Universo?
La respuesta apócrifa es que Él estaba preparando el Infierno para la gente
que pudiese hacer tales preguntas (atribuida a San Agustín).
2. El comienzo fue el estado más simple y permanente imaginable,
conteniendo dentro de sí las semillas de la futura evolución.
Esta es la posición moderna, y uno busca las leyes físicas correctas que
describan este estado inicial.
3. No hubo creación, y el Universo es inalterable y de edad infinita.
Podemos tratar de distinguir entre las últimas dos posibilidades, las únicas dos
opciones sobre las que las herramientas científicas podrían ser utilizadas.
Las anteriores consideraciones sobre la simplicidad de una teoría exitosa, están
incorporadas en un simple principio que sirve de guía para construir un modelo del
Universo. Hay varias versiones de tal principio cosmológico.
El "Principio Cosmológico" afirma que el Universo, en promedio, se ve igual
desde cualquier punto. Es motivado por el argumento de Copérnico sobre que la
Tierra
no
está
en
una
posición
central,
preferida.
Si el Universo es localmente isotrópico, visto desde cualquier punto, es por lo tanto
tambien
uniforme.
Así que el principio cosmológico afirma que el universo es aproximadamente
isotrópico y homogéneo, visto por cualquier observador estático. Esto permite la
posibilidad de muy diversos estados pasados y futuros para el Universo.
Una versión más fuerte, el "Principio Cosmológico Perfecto", va más allá: El
Universo parece el mismo desde todo punto y desde todos los tiempos.
En otras palabras, no pudo haber evolución: El Universo debe siempre estar en el
mismo estado, al menos en un promedio sobre tiempos largos.
Finalmente, el "Principio Cosmológico Antrópico" argumenta que el Universo
debe haber sido construido como para haber conducido al desarrollo de la
inteligencia.
Cosmología del Estado Estacionario:
"Steady State Universe" (Universo en Estado Estacionario, Bondi, Gold, y Hoyle,
1949) postula la creación de materia a partir del vacío, para satisfacer el Principio
Cosmológico Perfecto (la densidad es constante y el Universo parece el mismo, en
promedio sobre grandes volúmenes y tiempos). Este postulado fue motivado por
un
aparente
problema
de
escala
de
tiempo.
Hubble encontró que el Universo de galaxias se expandía con una velocidad dada
por: V = H0 * R, que aumentaba sistemáticamente con la distancia R a la galaxia.
H0
es
la
tasa
de
expansión
de
Hubble.
Esto significa que si no ha habido aceleración o deceleración, toda la materia debe
haber estado amontonada al inicio de la expansión; hace un tiempo R/V o 1/H 0.
Se encontró que la tasa de expansión de Hubble actualmente era H0= 500
km/s/Mpc
en
el
trabajo
original
de
Hubble.
Esto significa que 1/H0 = 2 mil millones de años, era un límite superior para la
edad del Universo.
Uno podría comparar esto con la técnica de fechado por radioactividad de las
rocas antiguas, p. ej. U238 -> Pb205 con una vida-media de 4x109 años.
Medidas en diferentes muestras de rocas y meteoritos, las actuales abundancias
de isótopos del plomo permiten un estimado de su edad. Inferimos 4.6x10 9 años
para las más antiguas rocas meteóricas o Lunares (4.600 millones de años).
La teoría de evolución estelar, con fusión de hidrógeno en helio como fuente de
energía, produce la edad de los cúmulos globulares, las estrellas más antiguas en
nuestra
Galaxia.
El punto de quiebre en la secuencia principal denota la duración de la era
observada de "quemado" de hidrógeno, mientras que la rama horizontal en el
diagrama H-R indica la posición de las estrellas que están "quemando" helio. La
edad inferida para ajustarse al diagrama H-R observado es 10x109 años (10 mil
millones
de
años).
La discrepancia entre la edad de Expansión Universal, por una parte, y las edades
de los meteoritos y estrellas por la otra, fue removida en los 1950s, cuando se
obtuvo
un
valor
más
preciso
para
H0.
El mejor valor moderno es H0 = 50 km/s Mpc, o 1/H0 = 20x109 años (20 mil
millones de años).
Las predicciones clave de la Cosmología del Estado Estacionario eran que:
Hubo y hay creación de un átomo de hidrógeno por metro cúbico cada 10 10 años.
La creación se asume que ocurre a partir del vacío, violando radicalmente la ley de
conservación
de
la
masa
y
energía.
Se esperaba que tambien se produjera antimateria, produciendo un fondo de
rayos gamma que resultaría de la ocasional aniquilación de protones y
antiprotones. No se quiere violar tambien otra ley fundamental, la ley de
conservación de la carga eléctrica. Por tanto otra posible forma de nueva materia
creada son neutrones. Estos decaen dejando gas caliente que emite rayos-X
difundiéndose por el Universo. Ni los esperados rayos gamma cósmicos, ni los
rayos-X, fueron observados, de modo que la teoría fue modificada para postular
creación sólo en densos núcleos que identificamos con los núcleos de las
galaxias.
No
La
ha
podido
cuenta
de
ocurrir
fuentes
evolución
de
radio
a
grandes
investigó
distancias.
esta
predicción:
N(>f) es el número observado más brillantes que el flujo f, el cual, para una fuente
a una distancia d, con luminosidad L, está dada por f = L/4Pi d 2. Así que la
distancia hasta la que es posible observar, en un sondeo limitado por flujo, de
fuentes
con
idéntica
luminosidad
L
es
d
=
(L/4Pi
f)1/2.
Ahora bien, el número total de fuentes medidas en un sondeo de todo el cielo es
N=(4/3)Pi
d3n,
donde
n
es
la
densidad
de
la
fuente.
El modelo del Estado Estacionario predice que n = constante, de manera que
N(>f) es proporcional a d3 o (L/f)3/2, prediciendo que al aumentar la sensibilidad del
sondeo (o al disminuir f), N(>f) debería aumentar como f -3/2 en el espacio
Euclidiano.
Las observaciones revelaron un aumento mucho más fuerte en la cuenta de
fuentes.
Los proponentes del modelo del Estado Estacionario en los 1950s argumentaron
que podríamos estar viviendo en un rincón muy local. Sin embargo, subsiguientes
identificaciones ópticas y determinaciones de distancia han mostrado que
principalmente las fuentes de radio son radio galaxias y quasares que están a
varios miles de millones de mega-parsecs de nosotros, demostrando que la
evolución debe estar ocurriendo sobre una escala del orden de 10 10 años. Las
galaxias luminosas emisoras de radio eran mucho más frecuentes en el pasado
que lo que parecen ser actualmente.
El golpe final para la teoría del Estado Estacionario vino con el descubrimiento del
Fondo
Cósmico
de
Microondas
en
1964.
Este era evidencia directa de radiación originada en una fase densa y caliente del
Universo, como predijo la teoría del Big Bang. Está caracterizada por un espectro
de cuerpo negro apropiado para un cuerpo negro a 2,75 grados Kelvin. La
intensidad de la radiación un cuerpo negro tan frío, llega a un máximo en una
longitud
de
onda
de
1mm,
en
la
banda
de
microondas.
Para explicar tal radiación en un modelo de Estado Estacionario se requiere
postular la presencia universal de gramos de polvo milimétricos, que absorberían
un intenso campo de radiación producido por muchas galaxias excepcionalmente
luminosas,
y
lo
re-irradiarían
a
la
temperatura
apropiada.
Esta interpretación es tan artificial, y requiere tantas conjeturas especiales, que es
considerada muy poco posible.
INVESTIGACION ACERCA DE LA COSMOLOGÍA
Alumno: Tomas Rossini
Profesora: Claudia Gonzalez
Estudio del Universo en su conjunto, en el que se incluyen teorías sobre su
origen, su evolución, su estructura a gran escala y su futuro. Al estudio más
específico del origen del Universo y de sus sistemas astronómicos como el
Sistema Solar, se le suele llamar cosmogonía.
Primeras teorías cosmológicas
Las teorías cosmológicas más antiguas datan del 4000 a.C., y son las de los
pueblos mesopotámicos, que creían que la Tierra era el centro del Universo y
que todos los demás cuerpos celestes giraban alrededor de ella. Algunos
clásicos como Aristóteles y el astrónomo griego Tolomeo, explicaban que las
estrellas se movían de noche porque estaban fijas en esferas cristalinas
rotatorias. El astrónomo griego Aristarco de Samos, alrededor del 270 a.C.,
sostenía que la Tierra gira alrededor del Sol. Sin embargo, debido sobre todo a
la autoridad de Aristóteles, el concepto de que la Tierra era el centro del
Universo permaneció inamovible hasta 1543, cuando el astrónomo polaco
Nicolás Copérnico publicó sus teorías en De revolutionibus orbium caelestium
(Sobre las revoluciones de los cuerpos celestes). Copérnico proponía un sistema
en el que los planetas giraban en órbitas circulares alrededor del Sol, el cual
estaba situado en el centro del Universo. Atribuía el nacimiento y la colocación
de las estrellas a la rotación de la Tierra sobre su eje. El astrónomo alemán
Johannes Kepler adoptó el sistema copernicano y descubrió que los planetas
giran en órbitas elípticas a velocidad variable, de acuerdo con tres leyes bien
definidas (conocidas desde entonces como leyes de Kepler). Galileo, uno de los
primeros en observar los planetas con un telescopio, también rechazó la idea de
Aristóteles de que la Tierra era el centro del Universo y se convirtió en un
defensor de la visión copernicana del mundo. El matemático y físico inglés Isaac
Newton demostró que las leyes de Kepler sobre el movimiento planetario podían
derivarse de las leyes generales del movimiento y de la gravitación que Newton
había descubierto, indicando así que estas leyes físicas eran válidas en todo el
Universo.
Distancias interestelares
Una idea de la escala de las distancias entre las estrellas fue proporcionada a
principios del siglo XIX por el astrónomo alemán Friedrich Wilhelm Bessel.
Descubrió que la cercana estrella 61 Cygni estaba unas 600.000 veces más
lejos de la Tierra que el Sol. En 1917 el astrónomo estadounidense Harlow
Shapley calculó que la galaxia de la Tierra, la Vía Láctea, tiene un diámetro de
unos 350.000 años luz; ésta fue la primera indicación del tamaño de nuestra
galaxia. Por desgracia, Shapley no consideró la absorción de la luz de las
estrellas por partículas de polvo en la Vía Láctea, lo que hace que los objetos
parezcan más oscuros y, por tanto, más lejos de lo que están en realidad. El
actual valor del diámetro de la parte visible de nuestra galaxia es de unos 30.000
parsecs (100.000 años luz). El astrónomo holandés Jan Hendrik Oort descubrió
que el Sol tarda 250.000 millones de años en completar una revolución en torno
al centro de nuestra galaxia y de esta forma pudo calcular que la masa de la Vía
Láctea es de unas 100.000 millones de veces la masa del Sol.
Hasta comienzos del siglo XX, los astrónomos no conocían con seguridad la
naturaleza de lo que describían como nebulosas espirales y elípticas; no podían
determinar si estaban dentro o fuera de nuestra galaxia. En 1924 el astrónomo
estadounidense Edwin Hubble logró descubrir estrellas individuales en alguno de
estos objetos, entre ellos, la famosa Andrómeda. Varias de estas estrellas eran
estrellas pulsantes, llamadas variables cefeidas. Midiendo su periodo de
pulsación, los astrónomos pueden determinar el brillo intrínseco de estas
estrellas. Comparando el brillo aparente de estas cefeidas con el brillo conocido
de las cefeidas cercanas, Hubble comprobó que los objetos que estudiaba
estaban fuera de la galaxia. Esto significaba que las miles de ‘nebulosas’
espirales y elípticas eran galaxias por derecho propio, externas a la Vía Láctea, y
que cada una de ellas contenía cientos de miles de millones de estrellas. Hubble
calculó que la distancia a la galaxia Andrómeda era de 900.000 años luz, cifra
después corregida a los 2,2 millones de años luz, cuando los astrónomos
descubrieron que las cefeidas estaban más lejos de lo que pensaron en un
principio.
Ley de Hubble
El astrónomo estadounidense Vesto M. Slipher, que estudió los espectros de las
galaxias, ya había observado en 1912 que, excepto en unos pocos sistemas
cercanos como la galaxia Andrómeda, las líneas espectrales se habían
desplazado hacia longitudes de onda mayores. Este desplazamiento en longitud
de onda, debido al efecto Doppler, mostraba que la mayoría de las galaxias se
alejaban de la Vía Láctea.
En 1929 Hubble comparó las distancias que había calculado para diferentes
galaxias con los desplazamientos hacia el rojo fijados por Slipher para las
mismas galaxias. Descubrió que cuanto más lejos estaba la galaxia, más alta era
su velocidad de recesión. A esta relación se la conoce como la ley de los
desplazamientos hacia el rojo o ley de Hubble; determina que la velocidad de
una galaxia es proporcional a su distancia. La relación entre la velocidad de
recesión de una galaxia y su distancia (la constante de Hubble) se calcula que
está entre los 50 y los 100 km/s por megaparsec (1 megaparsec equivale a
1 millón de parsecs).
Como parece que las galaxias retroceden en todas direcciones desde la Vía
Láctea, se podría pensar que nuestra galaxia es el centro del Universo. Sin
embargo, esto no es así. Imaginemos un globo con puntos uniformemente
separados. Al inflar el globo, un observador en un punto de su superficie vería
cómo todos los demás puntos se alejan de él, igual que los observadores ven a
todas las galaxias retroceder desde la Vía Láctea. La analogía también nos
proporciona una explicación sencilla de la ley de Hubble: el Universo se expande
como un globo.
Modelos estáticos y de expansión del Universo
En 1917 Albert Einstein propuso un modelo del Universo basado en su nueva
teoría de la relatividad general. Consideraba el tiempo como una cuarta
dimensión y demostró que la gravitación era equivalente a una curvatura
espacio-tiempo cuatridimensional resultante. Su teoría indicaba que el Universo
no era estático, sino que debía expandirse o contraerse. La expansión del
Universo todavía no había sido descubierta, por lo que Einstein planteó la
existencia de una fuerza de repulsión entre las galaxias que compensaba la
fuerza gravitatoria de atracción. Esto le llevó a introducir una ‘constante
cosmológica’ en sus ecuaciones; el resultado era un universo estático. Sin
embargo, desaprovechó la oportunidad de predecir la expansión del Universo, lo
que Einstein calificaría como “el mayor error de mi vida”.
El astrónomo holandés Willem de Sitter desarrolló en 1917 modelos no estáticos
del Universo. En 1922 lo hizo el matemático ruso Alexander Friedmann y en
1927 el sacerdote belga Georges Lemaître. El universo de De Sitter resolvió las
ecuaciones relativistas de Einstein para un universo vacío, de modo que las
fuerzas gravitatorias no eran importantes. La solución de Friedmann depende de
la densidad de la materia en el Universo y es el modelo de universo
generalmente aceptado. Lemaître también dio una solución a la ecuación de
Einstein, pero es más conocido por haber introducido la idea del ‘núcleo
primordial’. Afirmaba que las galaxias son fragmentos despedidos por la
explosión de este núcleo, dando como resultado la expansión del Universo. Éste
fue el comienzo de la teoría de la Gran Explosión sobre el origen del Universo
El destino del universo de Friedmann está determinado por la densidad media de
la materia en el Universo. Si hay relativamente poca materia, la atracción
gravitatoria mutua entre las galaxias disminuirá las velocidades de recesión sólo
un poco y el Universo se expandirá indefinidamente. Esto dará como resultado
un llamado ‘universo abierto’, infinito en extensión. Sin embargo, si la densidad
de la materia está por encima de un valor crítico estimado actualmente en
5 × 10-30 g/cm3, la expansión descenderá hasta detenerse y llegar a la
contracción, finalizando en el colapso gravitatorio total del Universo entero. Éste
sería un ‘universo cerrado’, finito en extensión. El destino de este universo
colapsado es incierto, pero hay una teoría según la cual explotaría de nuevo,
originando un nuevo universo en expansión, que se volvería a colapsar, y así
hasta el infinito. A este modelo se le llama universo oscilante o pulsante.
La edad del Universo
Si se conoce la tasa de expansión del Universo, se puede calcular su edad
determinando el tiempo que se requiere para alcanzar su tamaño actual. Éste
será de hecho un límite superior, cuando la expansión actual haya disminuido a
causa de la atracción gravitatoria mutua entre las galaxias. Los primeros cálculos
de la edad del Universo le concedieron un valor de sólo 2.000 millones de años.
Esta edad es bastante menor que la de 5.000 millones de años de la Tierra que
se ha deducido de la abundancia de ciertos isótopos radiactivos. Correcciones
posteriores en la escala de distancias han suprimido esta discrepancia. Se
descubrió, por ejemplo, que hay dos tipos de variables cefeidas, con brillo
intrínseco diferente. Esta confusión había ocasionado que Hubble subestimara la
distancia a la galaxia Andrómeda. Actualmente, se considera que la edad del
Universo está entre los 7.000 y los 20.000 millones de años y de este modo, no
se establece conflicto con la edad de la Tierra. Sin embargo, algunas
estimaciones chocan con la edad calculada de objetos astronómicos como los
cúmulos de estrellas, de forma que el problema de la edad del Universo sigue
siendo una cuestión importante para la cosmología actual.
La teoría del universo estacionario
En 1948, los astrónomos británicos Hermann Bondi, Thomas Gold y Fred Hoyle
presentaron un modelo completamente distinto de universo, conocido como la
teoría del universo estacionario. Consideraban insatisfactoria, desde el punto de
vista filosófico, la idea de un repentino comienzo del Universo. Su modelo se
derivaba de una extensión del ‘principio cosmológico’, que sostiene teorías
anteriores como el modelo de Friedmann. En su forma previa, más restringida, el
principio afirmaba que el Universo parece el mismo en su conjunto, en un
momento determinado desde cualquier posición. El ‘principio cosmológico
perfecto’ de Bondi, Gold y Hoyle añade el postulado de que el Universo parece
el mismo siempre. Plantean que la disminución de la densidad del Universo
provocada por su expansión se compensa con la creación continua de materia,
que se condensa en galaxias que ocupan el lugar de las galaxias que se han
separado de la Vía Láctea y así se mantiene la apariencia actual del Universo
(es la teoría de creación continua). La teoría del universo estacionario, al menos
en esta forma, no la aceptan la mayoría de los cosmólogos, en especial después
del descubrimiento aparentemente incompatible de la radiación de fondo de
microondas en 1965.
El descubrimiento de quásares también aportó pruebas que contradicen la teoría
del universo estacionario. Los quásares son sistemas extragalácticos muy
pequeños pero muy luminosos que solamente se encuentran a grandes
distancias. Su luz ha tardado en llegar a la Tierra varios cientos de miles de
años. Por lo tanto, los quásares son objetos del pasado remoto, lo que indica
que hace unos pocos de cientos de miles de años la constitución del Universo
fue muy distinta de lo que es hoy en día.
La teoría del Big Bang o de la Gran Explosión
En 1948 el físico ruso nacionalizado estadounidense George Gamow modificó la
teoría de Lemaître del núcleo primordial. Gamow planteó que el Universo se creó
en una explosión gigantesca y que los diversos elementos que hoy se observan
se produjeron durante los primeros minutos después de la Gran Explosión (Big
Bang), cuando la temperatura extremadamente alta y la densidad del Universo
fusionaron partículas subatómicas en los elementos químicos. Cálculos más
recientes indican que el hidrógeno y el helio habrían sido los productos primarios
de la Gran Explosión, y los elementos más pesados se produjeron más tarde,
dentro de las estrellas. Sin embargo, la teoría de Gamow proporciona una base
para la comprensión de los primeros estadios del Universo y su posterior
evolución. A causa de su elevadísima densidad, la materia existente en los
primeros momentos del Universo se expandió con rapidez. Al expandirse, el
helio y el hidrógeno se enfriaron y se condensaron en estrellas y en galaxias.
Esto explica la expansión del Universo y la base física de la ley de Hubble.
Según se expandía el Universo, la radiación residual de la Gran Explosión
continuó enfriándose, hasta llegar a una temperatura de unos 3 K (-270 °C).
Estos vestigios de radiación de fondo de microondas fueron detectados por los
radioastrónomos en 1965, proporcionando así lo que la mayoría de los
astrónomos consideran la confirmación de la teoría de la Gran Explosión.
Evolución del Universo
Uno de los problemas sin resolver en el modelo del Universo en expansión es si
el Universo es abierto o cerrado (esto es, si se expandirá indefinidamente o se
volverá a contraer).
Un intento de resolver este problema es determinar si la densidad media de la
materia en el Universo es mayor que el valor crítico en el modelo de Friedmann.
La masa de una galaxia se puede medir observando el movimiento de sus
estrellas; multiplicando la masa de cada galaxia por el número de galaxias se ve
que la densidad es sólo del 5 al 10% del valor crítico. La masa de un cúmulo de
galaxias se puede determinar de forma análoga, midiendo el movimiento de las
galaxias que contiene. Al multiplicar esta masa por el número de cúmulos de
galaxias se obtiene una densidad mucho mayor, que se aproxima al límite crítico
que indicaría que el Universo está cerrado. La diferencia entre estos dos
métodos sugiere la presencia de materia invisible, la llamada materia oscura,
dentro de cada cúmulo pero fuera de las galaxias visibles. Hasta que se
comprenda el fenómeno de la masa oculta, este método de determinar el destino
del Universo será poco convincente.
Como la luz de las galaxias más alejadas ha estado viajando cientos de miles de
años, el Universo se observa como aparecía en el pasado lejano. Al utilizar
nuevos detectores infrarrojos conocidos como series de gran formato, los
astrónomos del Observatorio Mauna Kea, en Hawaii, han registrado cientos de
galaxias, las más mortecinas jamás observadas, la mayoría de ellas agrupadas a
una distancia de 600.000 años luz. Una anomalía en esta visión del Universo de
hace 600.000 años es que, más que una mezcla de tipos galácticos, predomina
un tipo: una clase de galaxias pequeñas y compactas que contienen muchas
menos estrellas que la Vía Láctea u otras de su clase. Las jóvenes galaxias
espirales y elípticas que se observan en la actualidad se pueden haber formado
por la fusión de fragmentos galácticos de masa baja, relativamente tarde en la
historia del Universo, mucho después de la Gran Explosión, y pueden
representar cada uno de los estadios en la evolución del Universo.
Muchos de los trabajos habituales en cosmología teórica se centran en
desarrollar una mejor comprensión de los procesos que deben haber dado lugar
a la Gran Explosión. La teoría inflacionaria, formulada en la década de 1980,
resuelve dificultades importantes en el planteamiento original de Gamow al
incorporar avances recientes en la física de las partículas elementales. Estas
teorías también han conducido a especulaciones tan osadas como la posibilidad
de una infinitud de universos producidos de acuerdo con el modelo inflacionario.
Sin embargo, la mayoría de los cosmólogos se preocupa más de localizar el
paradero de la materia oscura, mientras que una minoría, encabezada por el
sueco Hannes Alfvén, premio Nobel de Física, mantienen la idea de que no es la
gravedad sino los fenómenos del plasma, la clave para comprender la estructura
y la evolución del Universo.
6. BIBLIOGRAFIA
1917. A. Einstein introduce el concepto de emisión estimulada.
1954. N. G. Basov, A. M. Prokhorov e —independientemente— C.H. Townes,
construyen un amplificador de microondas (MÁSER) utilizando el proceso de
emisión estimulada.
1958. A. M. Prokhorov e —independientemente— A. L. Schawlow y C. H.
Townes justifican teóricamente la posibilidad de construir un oscilador óptico
de luz visible (láser).
1960. T. H. Maiman construye el primer láser (de rubí).
1961. A. Javan construye un láser utilizando una mezcla gaseosa de helioneón.
1961. Hellwarth realiza investigación fundamental sobre el Q-Switching.
1961. Snitzer realiza investigación sobre el láser de Nd:vidrio.
1961-1962. N. Bloenbergen y R.V. Khokhov realizan investigaciones teóricas
fundamentales en el campo de la óptica no lineal y los láseres.
1962-1963. Los primeros láseres de semiconductores funcionan en varios
laboratorios del mundo.
1964. Geusic, Marios y Van Uitert realizan investigación sobre el láser de
Nd:YAG.
1964. Patel construye el primer láser de CO2.
1964. Kasper y Pimentel desarrollan el láser químico de yodo.
1964. Dominico y Hargrove desarrollan el Mode-Locking.
1969. Beaulieu desarrolla los láseres TEA.
1970. Basov desarrolla los láseres de excímeros.
1976. Ewing y Brau desarrollan el láser de KrF2.
Descargar