DEL UNIVERSO AL ÁTOMO

Anuncio
DEL UNIVERSO AL ÁTOMO
REVISTA CIENTÍFICA
[Escriba el título del documento] | [Seleccionar fecha]
ESTUDIANTES FISICA III INGENIERÍA
08
jjjjjjjjjjjjjjjjjjjjj
Página |2
EDITORIAL
El estudio de la física es una herramienta básica para generar nuevas tecnologías en pro del
desarrollo industrial e intelectual de las sociedades a nivel mundial, combinado con otras
ciencias permiten encontrar un amplio margen de posibilidades que permitan solucionar de
maneras cada vez más eficaces los problemas a los cuales la humanidad se ve enfrentada
día tras día.
En el caso particular del estudio de la física moderna, debemos considerar que en principio
nos conduce a una teoría del todo, que permita relacionar todos los saberes de tipo clásico
con aquellos que perteneces a los fenómenos electromagnéticos y tratar a partir de esta
idea de explicar otro tipo de fenómenos que nunca antes habían sido tratados, un caso que
puede ejemplificar esto es el estudio relativamente reciente de los átomos como partículas
divisibles dejando atrás conceptos que no proporcionaban información acerca de su
estructura.
Los beneficios que este tipo de estudios pueden traer en cuestiones de innovación son
innumerables, puesto que el desarrollo de nuevas tecnologías está estrechamente ligado al
conocimiento de unidades cada vez más pequeñas que permitan realizar ciertos procesos a
más bajos costos, puesto que por ejemplo a nivel atómico hay una gran cantidad de energía
acumulada, tal y como pudo observarse en la catástrofe de Hiroshima, y si esa energía
pudiese emplearse por ejemplo para llevar a cabo procesos que requieran un suministro
importante de este reservorio y que permita obtener productos útiles a costos muchos
menores.
Cabe mencionar de igual forma otro tipo de aplicaciones importantes como el creciente
interés de desarrollar computadores cuánticos, que permitan manejar mucha más
información en unidades cada vez más pequeñas, es el caso de la nanotecnología, que lleva
ya algún tiempo como la tecnología de punta a nivel de información. En general el
conocimiento de el mundo que comprende la mecánica moderna permite dar nuevas ideas a
progresos que cada vez faciliten mas el trabajo de la humanidad.
EDITOR: Jaime Villalobos
DIRECTORA: Natalia Collazos
REVISION: David Alejandro Peña
Página |3
INDICE
1. Aplicaciones de la mecánica cuántica. N. Collazos. Págs
2. Agujeros Negros
3. Gran colisionador de Hadrones podrá activar la física moderna.
4. Del arjé al modelo Standard
5. Teoría de la absorción
6. Hipótesis ondular de De Broglie, mecánica cuántica para ver el
mundo de lo pequeño.
7. Desarrollo del laser y la fibra óptica
Página |4
Aplicaciones de la mecánica cuántica
N, Collazos1
1Departamento de ingeniería Química, Universidad Nacional de Colombia,
Bogotá, Colombia
RESUMEN
La Computación Cuántica, aplicación destacada de la mecánica cuántica, ha permitido desarrollar de
forma práctica algunas teorías que describen el extraño, complejo e interesante comportamiento de
las partículas microscópicas, para ser desarrolladas a nivel tecnológico. Esta importante aplicación ha
llevado al desarrollo en las telecomunicaciones e informática, abriendo paso a nuevos dispositivos
electrónicos, que facilitan el manejo de la información, así como aquellos que aseguran la
confidencialidad del material que se desea transferir. Por otra parte, permite ejecutar innovadores
algoritmos diseñados para facilitar trabajos experimentales, científicos, industriales, entre otros.
Actualmente, se continúa investigando y trabajando en el avance aplicativo de este campo mecánico
cuántico, con el objetivo de llevar a hechos reales las conclusiones de las teorías cuánticas del nuevo
siglo.
Palabras claves: Computación cuántica, telecomunicaciones, informática, algoritmo.
ABSTRACT
The Quantum Computation, application distinguished from the quantum mechanics, it has allowed to
develop of practical form some theories that they describe the stranger, complex and interesting
behavior of the microscopic particles, to be developed to technological level. This important
application has led to the development in the telecommunications and computer science, opening
passage to new electronic devices, that facilitate the handling of the information, as well as those that
assure the confidentiality the material that is desired to transfer. On the other hand, it allows executing
innovators designed algorithms to facilitate experimental, scientific, industrial works, among others.
Nowadays, it is continued investigating and being employed at the advance applicative of this
mechanical quantum field, with the objective to take to real facts the conclusions of the quantum
theories of the new century.
Keywords: Cuantic computer, telecommunications, computer science, algorithm.
La mecánica cuántica, área de mayor
importancia en la física moderna, ha
permitido estudiar a nivel teórico y, en
algunos casos práctico, el comportamiento
de las partículas subatómicas y su dinámico
en el mundo microscópico. Aunque la
mayoría de los experimentos realizados en
las últimas décadas son netamente
mentales, por ejemplo, el experimento de el
Gato de Schrödinger,
se han logrado
desarrollar
bastantes
aplicaciones
tecnológicas basados en el comportamiento
el espacio cuántico; como la Química
Cuántica, la criptografía de clave cuántica,
el teletansporte cuántico, la óptica de laser
cuántica, y la Computación Cuántica, una
de las más sobresaliente científica y
tecnológicamente. Hacia 1981 surge el
concepto de computación cuántica cuando
Paul Benioff expuso su teoría para
aprovechar las leyes cuánticas en el entorno
de la computación, en lugar de trabajar a
nivel de voltajes eléctricos, se trabaja a nivel
de un cuanto.
En la computación digital, un bit sólo puede
tomar dos valores: 0 ó 1, en cambio, en la
computación cuántica, intervienen las leyes
de la mecánica cuántica, y la partícula
puede estar en superposición: puede ser 0,
1 y puede ser un 0 y un 1 a la vez (dos
Página |5
estados ortogonales de una partícula
subatómica), lo cual permite que se puedan
realizar varias operaciones a la vez, según
el número de qubits. Posteriormente en
1982, el Dr. Richard Feynman, físico del
California Institute of Technology en
California (EE.UU.) realizó una ponencia
durante el "First Conference on the Physics
of Computation" realizado en el Instituto
Tecnológico de Massachusets (EE.UU.),
donde expuso una conferencia
bajo el título de "Simulating Physics With
Computers", en la cual proponía el uso de
fenómenos cuánticos para realizar cálculos
computacionales y exponía que dada su
naturaleza algunos cálculos de gran
complejidad se realizarían más rápidamente
en un ordenador cuántico. Tres años mas
tarde, David Deutsch, este físico israelí de la
Universidad de Oxford, Inglaterra, describió
el primer computador cuántico universal, es
decir,
capaz de simular cualquier otro computador
cuántico, conocido como principio de
Church-Turing ampliado. Así, surgió la idea
de que un computador cuántico podría
ejecutar diferentes algoritmos cuánticos.
I LUSTRACIÓN 1. P RIMER COMPUTADOR CUÁNTICO EN LA
HISTORIA
Durante la década de los 90, luego de
muchos trabajos investigativos respecto al
tema, aparecen los primeros algoritmos
cuánticos,
aplicaciones
cuánticas
y
artilugios capaces de realizar cálculos
cuánticos; entonces en 1994 Peter Shor,
científico americano de AT&T Bell
Laboratories definió el algoritmo que permite
calcular los factores primos de números a
una velocidad mucho mayor que en
cualquier
computador
tradicional,
su
algoritmo también permitía romper muchos
de los sistemas de criptografía utilizados en
la época. Con esto se demostró que la
computación cuántica se trataba de un
campo de investigación con un gran
potencial.
En 1997, comenzaron los primeros
experimentos prácticos implementando la
teoría desarrollada en el pasado, uno de
éstos, fue un experimento de comunicación
utilizando criptografía cuántica
a una
distancia de 23 kilómetros, por otra parte
también fue posible realizar la primera
teletransportación cuántica de un fotón.
Posteriormente, investigadores del Instituto
Tecnológico de Massachussets propagaron
el primer Qbit por medio de una solución de
aminoácidos, siendo este el primer paso
para analizar la información que transporta
un Qbit. También, nació la primera máquina
de 2-Qbit, presentada en la Universidad de
Berkeley, California (EE.UU.). En 1999, en
los laboratorios de IBM-Almaden, se creó la
primera máquina de 3-Qbit y además fue
capaz de ejecutar por primera vez el
algoritmo de búsqueda de Grover1.
A partir del presente siglo, se fueron
consiguiendo sucesivos avances en este
campo de aplicación empezando por Isaac
Chiang, dirigente de IBM2, quien en el año
2000 creó un computador cuántico de 5-Qbit
capaz de ejecutar un algoritmo de búsqueda
1
Lov Grover inventó el algoritmo de búsqueda de
datos, se trata de un algoritmo probabilístico con un
alto índice de acierto.
2 International Business Machines
Página |6
de orden, que forma parte del Algoritmo de
Shor, ya mencionado; en este mismo año
científicos de Los Álamos National
Laboratory
(EE.UU.)
anunciaron
el
desarrollo de un computador cuántico de 7Qbit, utilizando un resonador magnético
nuclear
para
aplicar
pulsos
electromagnéticos y permitiendo emular la
codificación en bits de los computadores
tradicionales. En los años siguientes hasta
el 2006, se fueron presentando por diversos
institutos científicos y tecnológicos mejoras
en el funcionamiento de las computadoras
cuánticas, llegando desarrollar un sistema
de 12-Qbits.
En el 2007 la compañía canadiense D-Wave
presenta su primer computador cuántico de
16 Qbit:
I LUSTRACIÓN 2. P RIMER COMPUTADOR CUÁNTICO DE
16Q BIT
incluyendo aplicaciones como un sistema
gestor de bases de datos y un algoritmo que
soluciona Sudokus. Todo ello a través de
una interfase gráfica similar a la utilizada en
los computadores actuales, tratándose del
primer acercamiento de la computación
cuántica al mundo comercial y no tan
científico. En septiembre del mismo año,
dos
equipos
de
investigación
estadounidenses, el National Institute of
Standards (NIST) de Boulder y la
Universidad de Yale en New Haven
consiguieron unir componentes cuánticos a
través de superconductores, apareciendo el
primer bus cuántico dispositivo utilizado
como memoria cuántica reteniendo la
información cuántica durante un corto
espacio de tiempo antes de ser transferido
al siguiente punto de conexión.
Luego de la breve reseña presentada
acerca de cómo evoluciono el concepto
iniciado por Paul Benioff, se dará una
descripción general de lo que significa
técnicamente un computador cuántico y la
base de su funcionamiento.
En la computación cuántica, a diferencia de
la computación actual donde cada bit puede
estar en un estado discreto y alternativo a la
vez,
la
unidad
fundamental
de
almacenamiento es el qubit (bit cuántico),
donde cada qubit puede tener múltiples
estados simultáneamente en un instante
determinado, disminuyendo el tiempo de
ejecución de algunos algoritmos. La
computación cuántica está basada en las
interacciones del mundo atómico, y tiene
elementos como el bit cuántico, las
compuertas
cuánticas,
los
estados
confusos, la teleportación cuántica, el
paralelismo cuántico, y la criptografía
cuántica.
Un computador cuántico, pretende utilizar
un principio básico de la mecánica cuántica
por el cual todas las partículas subatómicas
tienen una propiedad asociada llamada
spin, éste se asocia con el movimiento de
rotación de la partícula alrededor de un eje,
dicha rotación puede ser realizada en un
sentido, o en su opuesto. Por ejemplo si se
toma como bit al spin de un protón, se
puede usar una dirección como 1 y otra
como 0. Estos bits, tomados a partir del spin
de las partículas son los que han recibido el
nombre de qubits (bits cuánticos). No
obstante, en mecánica cuántica el estado de
una partícula se determina a través de la
asignación de una probabilidad, no
Página |7
podemos hablar de un estado 0 ó 1
claramente determinado. Esta es la ventaja
que tiene la computación cuántica respecto
a la clásica, la lógica de un bit es 0 ó 1,
mientras que un qubit entraña el concepto
de ambos a la vez. La computación
cuántica, aprovecha la superposición
cuántica, para lograr el paralelismo cuántico
y el paralelismo cuántico masivo.
Los elementos básicos de funcionamiento
en computación cuántica son:
1. El bit cuántico "qubit": Un qubit (del inglés
qubit, de quantum bit) es un estado cuántico
en
un
espacio
vectorial
complejo
bidimensional, es la unidad mínima de
información cuántica. Sus dos estados
básicos se llaman, convencionalmente, |0>
y |1> (se pronuncian: ket cero y ket uno). Un
estado qubital puro es una superposición
cuántica de esos dos estados. Esto es
significativamente distinto al estado de un
bit clásico, que puede asumir solamente un
valor 0 ó 1.
2. Compuertas cuánticas: Las compuertas
lógicas son operaciones unarias sobre
qubits. La compuerta puede ser escrita
como :
Donde θ=ωt. Aquí
cuánticas elementales:
dos
compuertas
Donde I es la identidad, X es el análogo al
clásico NOT. Estas compuertas forman
parte de uno de los más pequeños grupos
de la computación cuántica.
3.
Entrelazamiento
cuántico
ó
"Entanglement" :la capacidad computacional
de
procesamiento
paralelo
de
la
computación cuántica, es enormemente
incrementada
por
el
procesamiento
masivamente en paralelo, debido a una
interacción que ocurre durante algunas
millonésimas de segundo, este fenómeno
de la mecánica cuántica es llamado
"entanglement". Debido a este suceso, dos
partículas
subatómicas,
permanecen
indefectiblemente relacionadas entre si, si
han sido generadas en un mismo proceso,
las cuales subsistemas que no pueden
describirse separadamente. Cuando una de
las dos partículas sufre un cambio de
estado, la otra lo sufre automáticamente, y
eso ocurre de forma instantánea y con
independencia de la distancia que las
separe en ese momento. Esta característica
se desencadena cuando se realiza una
medición sobre una de las partículas.
4. Teleportación cuántica: La teleportación
cuántica ha sido descrita como la posibilidad
de "transmitir qubits sin enviar qubits". En la
computación cuántica no es posible clonar,
copiar, o enviar qubits de un lugar a otro
como se hacen con los bits. Si se envía un
qubit ket cero donde 0 es un estado
desconocido, el receptor no podrá leer su
estado con certidumbre, cualquier intento de
medida podría modificar el estado del qubit,
por lo tanto se perdería su estado,
imposibilitando
su
recuperación.
La
teleportación cuántica, resuelve este
problema, basándose en el "entanglement"
para poder transmitir un qubit sin necesidad
de enviarlo. El emisor y el receptor poseen
un par de qubits "enredados" (entangled),
Página |8
entonces el qubit es transmitido desde el
emisor, desaparece del emisor y en el
receptor reaparece el qubit .
5. Paralelismo cuántico: La superposición
cuántica permite un paralelismo exponencial
o paralelismo cuántico en el cálculo,
mediante el uso de las compuertas lógicas
de qubits. Esto hace que los ordenadores
cuánticos sí sean eficaces en el cálculo de
periodos, hasta el punto de que se reduce a
un tiempo polinómico lo que requeriría un
número exponencial de pasos en una
máquina clásica.
6. Criptografía cuántica: La criptografía
cuántica es una de las primeras
aplicaciones de la computación cuántica
cercana a una fase de producción masiva,
garantizando absoluta confidencialidad de la
información transmitida por fibras ópticas,
almacenando información en el elemento
constituyente de la luz, el fotón.
Estos son los principales elementos
utilizados en la computación cuántica, y
sobre los cuales se continúa trabajando e
investigando para lograr mayores avances
respecto al tema, con el fin de mejorar las
diversos aspectos tecnológicos en el campo
de las telecomunicaciones y la informática.
REFERENCIAS
1.
Computación
Gutiérrez Vicario
Cuántica.
Alejandro
http://www.lcc.uma.es/~pastrana/EP/traba
jos/50.pdf
2.
Computación Cuántica. Jose Polli
http://www.monografias.com/trabajos60/c
omputacion-cuantica/computacion-
Página |9
Agujeros Negros
F, Muñoz2
2Departamento de ingeniería Química, Universidad Nacional de Colombia,
Bogotá, Colombia
RESUMEN:
Los agujeros son cuerpos con una masa inmensa, casi infinita, dentro de un volumen casi
nulo, y por ello poseen fuerzas gravitacionales tan grandes que ni siquiera la luz, ni ningún
tipo de radiación, nada, puede escapar de ellos. Debido a que no permiten la emisión de luz,
la única forma de detectarlos, es a través de métodos indirectos, observando los cambios
que causan en su entorno.
ABSTRACT:
The holes are bodies with an immense, almost infinite mass, inside an almost void volume,
and for it there possess gravitational forces so big that not even the light, or any type of
radiation, nothing, can escape of them. Due to the fact that they do not allow the emission of
light, the unique way of detecting them, it is across indirect methods, observing the changes
that they cause in its environment.
Desde siempre el hombre se a preguntado
que hay más allá del mundo que vemos,
cual es la verdadera realidad de lo que nos
rodea, como explicar aquello con lo que
vivimos, como explicarnos a nosotros
mismos.
Ciertamente, el tratar de contestar todas
estas interrogantes es tarea muy dura, y
como siempre, cada vez que se logra
explicar algo, se producen muchas más
interrogantes. Este el caso del universo.
Desde que logramos poder interpretar de
forma correcta a las estrellas, y todos los
cuerpos celestes, el hombre ha quedado
intrigado con todo lo que descubre, y más
aun, cuando se da cuenta que todo lo que
sabía en la tierra, en la inmensidad del
espacio ya no se cumple.
Uno de los puntos más interesantes es la
temática de los agujeros negros, que se
definen como cuerpos con una masa casi
infinita, que ocupan en un volumen mínimo,
casi nulo, y que por ello poseen una fuerza
gravitacional enorme.
Pero para poder entender bien a que son
agujeros negros, es preciso saber cómo es
el origen de los mismos.
Se conoce que un agujero negro, es aquello
que queda después de la muerte de una
estrella, más específicamente de gigantes
rojas, en este sentido no todas las estrellas
cuando mueren pasan a ser agujeros. Para
que pueda lograr eso debe cumplir una
serie de requisitos.
Principalmente las estrellas se forman por
acumulación de cantidades enormes de
gas, en especial hidrogeno, y por efectos
gravitatorios estas partículas colapsan y
liberan enormes cantidades de energía, esta
energía liberada es la que le da el brillo
característico a cada una. Como ejemplo
nuestra estrella más cercana, nuestro sol,
está en estado de equilibrio, es decir, la
acumulación y contracción de los gases ha
cesado y tiende a mantenerse estable.
Luego de este punto, hay una fase de
expansión, por la continua acumulación de
gases. En este instante entra un personaje
llamado Subrahmanyan Chandrasekhar,
quien estudio acerca la formación de
estrellas, y descubrió el alcance másico
P á g i n a | 10
máximo que una estrella puede alcanzar
antes de agotar su combustible interno, en
otras palabras, la masa limite que puede
soportar una estrella sin colapsar ante su
misma fuerza de gravedad. Esta masa
según él, es equivalente a 1,5 veces la
masa del sol.
Este límite es importante pues define el tipo
de estrellas. Debajo de este se encuentran
las enanas blancas y las estrellas de
neutrones. El caso especial era lo que
sucedía con las estrellas que estaban por
encima de este límite.
En particular, cuando una estrella supera
ue es un cuerpo que no emite ningún tipo
radiación, de ahí su nombre.
Este problema de emisión hace casi
imposible saber la existencia de un agujero
negro, y es por eso que se sabe de ellos
gracias a mediciones indirectas, sus efectos
sobre el entorno.
Una de las formas indirectas de detección y
estudio de agujeros negros es el análisis de
sistemas binarios, refiriéndose a estos como
los sistemas de agujero negro y estrella
siendo absorbida. Los agujeros negros
como tal no emiten ningún tipo de radiación,
pero sin embargo son los causantes de la
emisión de rayos x, producto de la estrella
que es fagocitada por este. Cuando se
conoce el lugar de la emisión, es posible
calcular la masa del agujero negro causante
de esta. Esto es posible debido a que se
trata de un objeto en rotación, lo que
permite calcular el radio y la velocidad de su
constitución y, de ello, calcular el peso de su
parte central.
De acuerdo a la masa, se conocen agujeros
negros del tipo supermasivo, con una masa
equivalente millones de veces a la del sol,
los cuales son los que se encuentras en el
centro de las galaxias, y son debido a las
cuales están giran. Y otros de tipo masa
estelar, que son del orden de 3 veces la
masa del sol, producto la implosión de las
estrellas.
Dentro del estudio de los sistemas binarios,
recientemente se descubrió un nuevo tipo
ese límite másico, los rayos de luz
emanados por esta empiezan a ser atraídos
hacia ella misma, como en forma de
boomerang. Este fenómeno observado
desde lejos es como ver a la estrella perder
su brillo, y tornarse de forma roja. Cuando
se encuentre en un radio crítico, la masa
aumenta de forma exponencial, y ni la luz
podrá escapar a debido a esta gravedad.
Una vez alcanzado este extremo, estaremos
hablando de agujeros negros.
La característica más importante de un
agujero negro, es que debido a su enorme
masa, nada puede escapar de él, y es por
eso
que
se
dice
q
de formación de agujeros negros. Cygnus
X-1 es el nombre que se le dio a una fuente
de rayos X en la constelación Cygnus,
descubierta en 1962 por Félix Mirabel, quien
publicó sus resultados en Science de abril
del 2003, y los cuales describe lo que
encontró de particular en este sistema
binario.
De acuerdo a Mirabel, Cygnus X-1
permanece en posición constante, desde
que nació, aproximadamente hace cinco
millones de años. Esto lo explica,
argumentando que el nacimiento de este
agujero negro no fue producto de la
explosión de una supernova, la cual, hace
que tanto el agujero negro formado y sus
estrellas cercanas salgan expulsadas a gran
velocidad por el espacio, si no que por el
contrario, ese agujero negro en especial, fue
producto entre el choque dos estrellas
supermasivas, las cuales debido a su
inmensa fuerza de gravedad, no permitieron
la expulsión de materia ni de luz si no que
causaron
una
implosión
totalmente
silenciosa. A este tipo de creación de
agujero negro se denomino: formación de
agujeros negros en la oscuridad.
Estos han sido los últimos y más
importantes avances sobre los agujeros
negros. Solo hasta estas últimas décadas
es que se ha venido entendió mejor a estos
cuerpos del espacio profundo. Todavía es
muy poco lo que se conoce acerca de ellos
y del Universo en sí. Apenas se está
comprendiendo su formación, todavía hay
un gran camino antes de poder saber qué
P á g i n a | 11
es lo que en verdad son y como que
funcionan. Ellos son uno de los más
ellos esta la puerta a otras dimensiones,
todo lo que se dice son simples
especulaciones, responder estas preguntas,
y todas las que de ellas se puedan derivar
F IGURA 1. S ISTEMA BINARIO C YGNUS X-1.
Referencias:






http://www.cosmopediaonline.com/a
n_deteccion.html
http://html.rincondelvago.com/agujer
os-negros_5.html
http://www.prodiversitas.bioetica.org/
prensa59.htm
http://www.geocities.com/angelto.ge
o/bhole/comose.html
http://axxon.com.ar/not/126/c126InfoAgujeroNegro1.htm
http://es.wikipedia.org/wiki/Agujero_n
egro
grandes acertijos, saber qué pasa con la
materia que absorbe, si es verdad que en
hace parte de los desafíos de este nuevo
siglo.
P á g i n a | 12
Gran Colisionador de Hadrones pondrá
a activar la Física Moderna
A, Moreno3
3Departamento de ingeniería Química, Universidad Nacional de Colombia,
Bogotá, Colombia
RESUMEN:
El Gran Colisionador de Hadrones o LHC (como generalmente es conocido), permitirá llevar a cabo
un importante experimento, cuyo desarrollo inició en 1999 en el Laboratorio Europeo de Física de
Partículas, con sede en Ginebra (Suiza), perteneciente a la Organización Europea para la
Investigación Nuclear – CERN. Dicho experimento consiste en recrear las condiciones presentes
menos de una billonésima de un segundo después del Big Bang, con el fin de ver cómo se crearon
las unidades indivisibles que conforman nuestro Universo, para examinar la validez y límites del
Modelo Estándar, y de esta forma quizás encontrar la explicación de la naturaleza del cosmos, o en
otras palabras llegar a la comprensión total de todo.
Palabras clave: LHC, Big Bang, Modelo Estándar, naturaleza del cosmos.
ABSTRACT:
Large Hadron Colliders or LHC (as is generally known), will conduct an important experiment, whose
development began in 1999 at the European Laboratory of Physics of Particles, in Geneva
(Switzerland), belonging to the European Organization for Nuclear Research - CERN. This experiment
is to recreate the conditions present less than a billionth of a second after the Big Bang, in order to see
how they are created units that indivisible make up our universe, to examine the validity and limits of
the Standard Model, and in this way perhaps find the explanation of the nature of the cosmos, or in
other words reach the full understanding of everything.
Keywords: LHC, Big Bang, Standard Model, the nature of cosmos.
Desde tiempos remotos la humanidad se ha
hecho las mismas preguntas acerca de su
existencia y del universo en general,
preguntas que numerosos científicos y
físicos, entre otros, han intentado responder
mediante
investigaciones
y
teorías
propuestas.
agrupó polvo y gas para formar las estrellas,
las cuales se agruparon para formar
galaxias, en una de las que se formó el
planeta Tierra, 9 mil millones de años
después del Big Bang, hecho que es sabido
gracias a un descubrimiento realizado hace
unos 300 años, el de la velocidad de la luz.
Es así como en la actualidad se ha
planteado un experimento en especial,
experimento que promete aclarar muchas
de las dudas existentes, y llevar a la
humanidad a una nueva época de
entendimiento acerca de todo lo que le
rodea.
La luz, la que permite adentrarse
visualmente al pasado en cualquier
momento en que se observe el universo.
Por lo tanto, se plantea que cuanto más
lejos se vea, más y más cerca se estará del
principio de todo lo conocido, es decir, del
Big Bang.
El inicio
El Universo surgió de la nada, no estaba en
ningún lugar porque antes de él el tiempo ni
el espacio existían, pero de algún modo, de
aquella nada surgió el todo. Primero se
Antecedentes
A partir de lo postulado por Albert Einstein,
cerca de 1905, por medio de lo cual muestra
que una partícula con masa posee un tipo
de energía diferente a las energías cinética
P á g i n a | 13
Inicialmente se creía
que los neutrones y
los protones eran las
únicas
partículas
presentes
en
el
núcleo atómico, sin
embargo, por medio
de experimentos e
investigaciones, los
físicos llegaron a comprender que estas, así
como otras partículas subatómicas se
I LUSTRACIÓN 1: P ARTÍCULAS encuentran
S UBATÓMICAS .
compuestas
por
elementos más simples llamados quarks y
leptones, los cuales interaccionan entre
ellos por el intercambio de bosones [1].
En cuanto a las investigaciones científicas
se puede enfatizar la de Lederman junto a
Schwartz y Steinberger, la cual se centró en
un método de detección de neutrinos que
permitió demostrar la doble estructura de los
leptones, descubrimiento que permitió, entre
1970 y 1973, elaborar el esquema conocido
como Modelo Estándar, para la clasificación
de las partículas elementales.
El experimento
El LHC lo que hará es intentar recrear el
momento justo después del Big Bang en un
entorno controlado, dentro de unos
gigantescos detectores, para investigarlo
detenidamente.
Este acelerador de partículas, se encuentra
en el Laboratorio Europeo de Física de
Partículas (CERN), con sede en Ginebra
(Suiza), centro fundado en 1954, y que es
considerado el mayor del mundo dedicado a
la investigación en el campo de la física de
partículas.
El Colisionador, ubicado a 100 m de
profundidad, consiste en un túnel circular de
27 kilómetros, el cual está lleno con 2000
electroimanes superconductores y un
acelerador de partículas; los imanes, de
niobio y titanio, serán los encargados de
acelerar y controlar los haces de partículas.
Alrededor del túnel se crearon enormes
recintos, en cuyo interior se montaron las
cámaras más complejas hasta la fecha para
detectar a las partículas.
En el centro de la máquina, unas partículas
subatómicas
llamadas
protones,
se
acelerarán hasta llegar casi a la velocidad
de la luz (99% c). Hay un rayo de protones
que llega en una dirección y un rayo de
protones que gira en sentido opuesto, por lo
tanto, los dos haces chocan o colisionan de
frente, ocurriendo de esta manera unas 800
millones de colisiones por segundo, y
liberando energías muy altas (a escala
subatómica). Dichas colisiones se basan en
la ecuación de la energía dada por Einstein.
De aquel proceso, en el que se fragmentan
los protones, un campo magnético generado
por el detector, separa los distintos tipos de
materia, entre estos pedazos se pueden
encontrar las unidades indivisibles que
componen nuestro universo (algunas sólo
existen durante muy corto tiempo), y en las
imágenes que se adquieren se podrá
vislumbrar
los
primeros
momentos
posteriores al Big Bang [7].
Todos los datos adquiridos serán analizados
y recopilados por una red de computación
del LHC, de gran capacidad, debido al gran
flujo de información será enorme. Todos
esos datos se pretende serán enviados a
instituciones académicas de Asia, Europa y
Norteamérica.
Con
el
experimento
se
pretende
principalmente, examinar la validez y límites
del Modelo Estándar.
Lo que se espera es que una vez esté en
funcionamiento, se detecte la partícula
conocida como el bosón de Higgs, la cual es
netamente teórica. La observación de ésta
llevaría a la confirmación de las
predicciones y a la muestra de los enlaces
faltantes
en
el
Modelo
Estándar,
permitiendo explicar cómo las demás
partículas elementales ya conocidas o por
conocer, adquieren propiedades como su
masa.
|
y potencial, “energía en reposo”, dada por
la conocida ecuación E=mc2, se empezó a
indagar aún más acerca de las partículas
fundamentales del átomo.
P á g i n a | 14
Además, la verificación de la existencia de
dicho bosón sería un gran paso en la
búsqueda que se lleva a cabo hace varios
años, una Teoría de la gran unificación, la
cual pretende unir cuatro de las fuerzas
fundamentales hasta ahora conocidas,
descartando la gravedad, siendo ésta la
más débil de todas.
Todo lo anterior, es por lo cual la Física
Moderna ha estado esperando por más de
40 años, ya que todos aquellos cálculos de
la física, hasta ahora realizados, necesitan
pruebas evidentes, pruebas que confirmen
las teorías ya previstas.
En
general,
todos
estos
nuevos
descubrimientos que se lleven a cabo,
pueden abrir nuevos campos en la
investigación científica, y llevar de esta
forma, a una mejor comprensión del
Universo y de todas las fuerzas que en él
intervienen.
Lo que ha ocurrido
El día 10 de Septiembre de 2008 se realizó
la primera inyección y circulación de un haz
de millones de protones en el LHC, pero se
planeaba realizar el choque de partículas
hasta octubre. Sin embargo, un daño en el
I LUSTRACIÓN 2: P ARTÍCULAS
F UNDAMENTALES DEL M ODELO E STÁNDAR .
equipo, unos pocos días después de la
inyección, obligó a parar el experimento
I LUSTRACIÓN 3: V ISTA DE UNA SECCIÓN
DEL
LHC.
hasta el verano del 2009.
Lo que ocurrió fue debido a una conexión
eléctrica defectuosa entre dos de los imanes
del acelerador, este hecho llevó a que se
diera una fuga de helio en un sector por el
cual deben circular partículas. Dicha fuga
quebrantó la situación de vacío necesaria
para que circulen los haces de protones, los
cuales requieren un vacío absoluto [5].
A pesar de todo ello, el Gran Colisionador
de Hadrones fue inaugurado el 21 de
octubre de 2008, donde los responsables
del CERN aseguraron que lo sucedido no
cambia en ninguna manera las perspectivas
que se abren con el proyecto, el cual ha
llevado más de 20 años de planeación.
Es así como, según Ferrer (catedrático de
física de la Universidad de Valencia y
coordinador del proyecto Atlas), se está muy
cerca de entrar a “una etapa decisiva y
fantástica”, por medio de “la mayor aventura
tecnológica emprendida por el ser humano”.
En conclusión, es posible decir que el LHC
es el proyecto más ambicioso hasta el
momento, debido a su magnitud y a lo que
se pretende con él.
El Colisionador intentará recrear el
momento más cercano al Big Bang y así
permitirá descubrir nuevas cosas acerca del
Universo, su inicio y desarrollo; permitiendo
analizar la validez de muchas de las teorías
hasta ahora propuestas en el campo de la
física.
Referencias
[1]
http://es.wikipedia.org/wiki/Part%C3%ADcul
a_elemental
|
Por otro lado, los más de 2000 físicos que
llevan varios años trabajando en este
proyecto, confían en que el LHC de
respuesta a muchas de las preguntas que
se han generado desde siempre, como qué
es la masa, cuántas son las partículas del
átomo, qué es exactamente la materia
oscura, hay tantas dimensiones como
propone la teoría de cuerdas.
P á g i n a | 15
[2]
http://es.wikipedia.org/wiki/Modelo_est%C3
%A1ndar_de_f%C3%ADsica_de_part%C3
%ADculas
[5]
http://www.elperiodico.com/default.asp?idpu
blicacio_PK=46&idioma=CAS&idnoticia_PK
=562976&idseccio_PK=1021
[3]
http://www.soitu.es/soitu/2008/09/10/actualid
ad/1221033864_312935.html
[4]
http://www.nature.com/nature/journal/v448/n
7151/full/nature06079.html
[6]
http://specialeyes.blogspot.com/2008/09/lhcworld-may-end-tomorrow.html
|
[7] “El experimento de los 6000 millones” –
Documental
P á g i n a | 16
Del Arjé al Modelo Standard
F, Anaya4
RESUMEN
ABSTRACT
La estructura de la materia desde tiempo atrás
ha sido un enigma por resolver, los griegos y tal
vez otras civilizaciones antiguas buscaron
manera de dar respuesta a este interrogante.
Las ideas de los griegos se mantuvieron por
muchos siglos, durante los cuales en algunos
momentos fueron olvidados y en otros
resurgieron con fuerza, hasta comienzos del
siglo XIX cuando John Dalton enunció su ley
retomando la postura atomista de Demócrito.
Desde ese entonces, se empezó a desentrañar
la estructura interna del átomo que alguna vez
se creyó indestructible. Se llegó al conocimiento
de los electrones, protones y neutrones, pero se
ha llegado más lejos que esto entrando en un
universo diminuto en la búsqueda de las
partículas que realmente constituyen todo el
universo,
teorías
casi
completamente
demostradas como el Modelo Standard de la
física de partículas y el trabajo arduo de como
Organizaciones investigativas como el CERN,
buscan la verdad absoluta en las entrañas de la
materia.
The structure of the matter from time behind has
been an enigma to solve, the Greek ones and
perhaps other old civilizations looked for way to
give answer to this query. The ideas of the
Greek stayed for many centuries, during which
were forgotten in some moments and in others
they resurged with force, until beginnings of the
XIX century when John Dalton enunciated his
law recapturing the posture atomist of
Demócrito. From this then, one started
uncovering the internal structure of the atom that
at some time one believed indestructibly. It came
near to the knowledge of the electrons, protons
and neutrons, but it has arrived farther than this
almost completely entering in a tiny universe in
the search of the particles that they really
constitute the whole universe, theories
demonstrated as the Standard Model of the
particles physics and the arduous work of as
investigative Organizations as CERN, they look
for the absolute truth in the bowels of the matter.
Naturalmente, la explicación de los
fenómenos de la naturaleza ha sido una
constante búsqueda a lo largo de la historia
de la humanidad. En primera instancia
fueron las creencias mitológicas las que
daban una razón de ser a la existencia
misma del hombre y un por qué al mundo
que nos rodea. El pensamiento evolucionó y
el ser humanó ha encontrado formas más
sistemáticas y racionales de entender la
realidad en las cuales aparecen causas
naturales y leyes necesarias. Un problema
común en este proceso ha sido describir un
componente primordial del cual están
constituido todo lo existente, problema al
cual surgieron alguna vez respuestas un
tanto filosóficas y desde entonces se ha
avanzado mucho.
Se ha llegado a conocer que a materia está
constituida por átomos, pero más allá de
eso se ha profundizado en el conocimiento
de partículas aun más pequeñas que
constituyen este último entrando en el
estudio de las denominadas partículas
elementales. En la actualidad se sigue
trabajando
de
manera
ardua,
organizaciones de investigación como el
CERN que investigan en lo que hoy se
denomina Física de Partículas buscan
|
4 Departamento de ingeniería Química, Universidad Nacional de Colombia,
Bogotá, Colombia
P á g i n a | 17
muchas respuestas,
o verificaciones a
respuestas planteadas como propuestas.
La pregunta planteada surge al
ser
formalmente respondida. El conocimiento de
la naturaleza encontró un nivel mas
organizado
con
los
griegos.
Los
presocráticos fueron los primeros en
preocuparse por la Physis (naturaleza),
Tales de Mileto decía que todos los seres y
la naturaleza estaban conformados por
agua o transformaciones de ella, de manera
similar, discípulos de su escuela tenían
ideas similares, para Anaxímenes era el aire
la materia prima de todo lo existente. De
manera más abstracta Anaximandro decía
que la materia fundamental de todo era el
Apeirón.
Otros sabios griegos tenían ideas similares,
para Aristóteles todo lo existente era
conformado por
los cuatro elementos
fundamentales aire, fuego, tierra y agua (y
uno más, el éter), además consideraba que
la materia era continua, es decir que era
infinitamente
divisible.
Demócrito,
contemporáneo de Aristóteles, contrario a
este último, pensaba que la materia era
finitamente divisible, aunque no tenia forma
de demostrarlo pensaba que si se dividía
muchas veces una porción de materia,
llegaría un punto en el que no se podría
continuar. A esta porción le llamo a-tomo
que en griego significa indivisible. El Arjé es
ese principio independiente, fundamento de
la
existencia
que
buscaban
los
presocráticos, el ente fundamental de la
materia y de la vida.
La postura atomista de Demócrito tuvo
largos periodos de olvido y resurgió en
otros con fuerza. Fue a comienzos del siglo
XIX, que John Dalton retomo de manera
clara esta idea, tras los avances realizados
en el conocimiento de los elementos y
compuestos químicos. Dalton dijo que la
materia estaba formada por átomos, unidad
fundamental, indivisible e indestructible cuya
naturaleza y propiedades son iguales para
átomos del mismo elemento y diferentes
para átomos de distintos elementos, y estos
a su vez se combinan para formar las
moléculas en proporciones sencillas y
definidas. Por lo anterior en el año de 1803
se consideraba el átomo como la partícula
elemental de la cual está constituido todo.
Durante el siglo XIX se lograron grandes
avances para la física en la explicación de
los fenómenos de la electricidad y el
magnetismo. Se presumía entonces que
debían existir átomos con carga para que se
produjeran dichos fenómenos. Fue en el
año de 1898 que Thomson tras ciertos
experimentos encontró que la masa de la
partícula que contenía la carga era mucho
más pequeña que la masa de un átomo, por
tanto no podría ser este el portador de la
carga. En su modelo atómico Thomson
propone una masa con carga positiva en la
que se encuentran sumergidas partículas
negativas distribuidas de tal forma que el
átomo en su conjunto es eléctricamente
neutro, las partículas negativas fueron
llamadas: Electrones. Fue de esta manera
que se encontró que el átomo que se creía
indivisible, en realidad no lo era, se halló
entonces una partícula más pequeña que
éste.
A Ernest Rutherford se le atribuye el
descubrimiento del protón. Cuando se
buscaba comprobar experimentalmente el
modelo propuesto por Thomson él propuso
su famoso experimento, consistía en un haz
de rayos α que se disparaba sobre una
delgada lámina de vidrio, y detrás de ella
había un detector de sulfuro de zinc. Al
realizar este experimento se encontró que
algunos rayos α se desviaban con ángulos
muy grandes que no podía explicar el
modelo de Thomson. Cuando propuso su
modelo atómico, simplemente habló de los
electrones que había introducido Thomson,
pero él decía que estos giraban alrededor
de un núcleo en el que se concentraba toda
P á g i n a | 18
la carga positiva. Años más tarde realizó un
experimento
similar
bombardeando
nitrógeno con partículas α, encontrando que
contenía núcleos de hidrógeno, fue
entonces cuando propuso que el núcleo de
hidrógeno, que hoy sabemos es un único
protón, debía ser una partícula elemental
A este punto encontramos que a comienzos
del glorioso sigo XX en el que la física fue
revolucionada por grandes genios como
Max Planck y Albert Einstein, ya no se
consideraba él átomo como la unidad
indivisible e indestructible como lo dijo
Dalton en su ley, un nuevo mundo
empezaba a abrirse a los ojos de los físicos,
un mundo subatómico, pues a ese instante
se sabía ya que un átomo contiene en su
estructura protones en el núcleo y
electrones ubicados alrededor de él.
Aunque el modelo atómico de Rutherford
presentaba deficiencias el electrón que
apareció en su modelo sí era realmente una
partícula subatómica. Fue Niels Bohr quien
corrigió estas deficiencias para el átomo de
hidrógeno introduciendo en su modelo la
cuantización de la energía propuesta por
Max Planck en el año1900.
Desde entonces la mirada empezó a
centrarse en el átomo, en el año de 1932
James Chadwick, alumno de Ernest
Rutherford,
publicó
sus
resultados,
interpretándolos como una nueva partícula
que por su carácter neutro la denominó
neutrón. El descubrimiento del neutrón fue
impulsado por un problema encontrado con
las mediciones de la masa del átomo. Para
el átomo de hidrógeno era fácil que la suma
de la masa del electrón mas la del protón
era la masa del átomo, sin embargo, para
elementos con un número mayor de
protones la suma de la masa de electrones
y protones quedaba por debajo de la masa
real del átomo.
En esta época sorprendentemente surgió
una
avalancha
de
partículas
más
elementales que el mismo átomo. Unos
años antes del descubrimiento del neutrón,
Paul Dirac realizó una teoría del electrón en
la que en cierto punto necesito de un
electrón de carga positiva al que denominó
positrón, y que en 1932 fue confirmado
experimentalmente por Anderson. De igual
manera Pauli propuso la existencia de una
partícula denominada Neutrino que en 1934
fue confirmada por Fermi. Además de éstas
se encontraron otras partículas muy
inestables con tiempos de vida fugaces.
Las partículas elementales las podemos
definir entonces como aquellas a las cuales
no podemos describir su estructura interna
(según los conocimientos de la época) en
términos de unidades más pequeñas que la
conforman. Hemos visto hasta ahora que
este concepto ha sido el mismo a través de
la historia solo que los conocimientos han
evolucionado y consecuentemente las
partículas
alguna
vez
consideradas
elementales van quedando atrás tras el
hallazgo de unidades más pequeñas que la
constituyen.
En el año de 1932 se puede decir que
culminó una etapa en el conocimiento de las
partículas elementales, para la fecha se
conocían ya el fotón, el neutrón, el electrón,
el protón, el positrón y teóricamente el
neutrino.
Durante los años venideros se descubren
aun mas partículas, los mesones los
muones, y algunas otras un poco extrañas
y con vidas muy cortas, se descubrieron
cosas como el neutrino electrónico y el
neutrino muónico. Una cosa quedó clara en
el transcurrir de los años, mientras se
descubrían más y más partículas que
dejaban cada vez más lejos al átomo de su
tiempo glorioso como partícula elemental,
las partículas descubiertas al momento no
eran suficientes para explicar la razón de las
fuerza nucleares, tales como el motivo por
el cual los protones si están cargados
P á g i n a | 19
positivamente y confinados en un núcleo por
qué no se repelen cómo explicar esa fuerza
que los mantiene juntos. Para explicar este
fenómeno se introdujo una nueva fuerza
denominada fuerza nuclear fuerte, y para
explicar fenómenos asociados con la
desintegración de partículas se introdujo el
concepto de fuerza nuclear débil.
Las dos fuerzas mencionadas hacen parte
de las fuerzas fundamentales, como bien se
sabe, la primera fuerza que fue descrita de
manera satisfactoria fue la gravedad por
Newton en 1686, así mismo, tras muchos
avances en el campo de la electricidad y el
magnetismo, fue James Clerk Maxwell,
quien unificó estas dos fuerzas en la teoría
electromagnética. Así estas dos fuerzas
sumadas a la fuerza nuclear fuerte y la
fuerza nuclear débil fueron consideradas las
fuerzas fundamentales, sin embargo en el
año de 1968 se consiguió la unificación de
la electromagnética y la débil dando origen
a la fuerza electrodébil por lo que ahora se
consideran tres fuerzas fundamentales.
Retomando el tema de las partículas
elementales, se habían descubierto ya
muchas, tantas que se empezó a dudar de
su “elementalidad”. Al respecto, surgieron
teorías que indicaban la existencia de
partículas aun menores que constituían las
hasta entonces consideradas partículas
elementales. En 1963 el físico
GellMann
e
independientemente
Zwieg
propusieron una teoría en la que todas las
partículas están formadas por tres partículas
elementales
llamadas
Quarks.
Esta
partículas poseen números cuánticos
fraccionarios y carga eléctrica de +2/3,-1/3 y
1/3 respectivamente, a cada uno de estos
quark se les asigno el nombre Up, Down y
Strange, y generalmente se les denota por
la letra inicial de su nombre.
Actualmente existe una teoría que intenta
explicar toda la materia y las fuerzas
existentes en el universo, esta teoría se
denomina Modelo Standard, su importancia
surge en la capacidad que tiene de explicar
cientos de partículas e interacciones entre
ellas,
incluyendo
las
que
fueron
mencionadas antes de los quarks a partir de
solo unas pocas partículas e interacciones
fundamentales. Este modelo considera dos
grandes tipos de partículas, las partículas
materiales que son los leptones y los
quarks, y las partículas portadoras de fuerza
que son aquellas responsables del
“transporte” de las fuerzas fundamentales.
Los quarks son 6, al igual que los leptones,
se definen tres generaciones de materia
dada su estabilidad, y en cada generación
hay un par de quarks y otro de leptones
como lo muestra la gráfica.
Estos constituyen las partículas de materia.
La primera generación (U, D/Ve, e) es la que
constituye la materia del universo, la
segunda y tercera generación son muy
inestables y sus partículas decaen en las
partículas de la primera generación.
Las partículas portadoras de fuerza surgen
para explicar los fenómenos de las 4
fuerzas fundamentales en un intercambio de
partículas entre las mismas partículas, así
tenemos las partículas portadoras de fuerza
asociadas a cada fuerza fundamental como
se muestra en la imagen.
P á g i n a | 20
De las partículas que muestra la imagen, la
única que no se ha descubierto es el
gravitón, esto es debido a que la gravedad
es difícil de explicar desde el punto de vista
subatómico, pero propone que al igual que
para las otras fuerzas, ésta es debida a un
intercambio de partículas portadoras de
fuerza, y es lo que teóricamente predicen y
denominan gravitón.
El campo del estudio de las partículas
elementales se denomina actualmente física
de partículas, y tiene una amplia gama de
posibilidades. Organizaciones como el
CERN que es la Organización Europea para
los
Estudios
Nucleares,
estudia
a
profundidad este tema con la construcción
de aceleradores de partículas para provocar
grandes colisiones que permitan observar
las partículas elementales, ya que así se
obtiene la energía necesaria para producir
muchas de las partículas inestables y
detectarlas a pesar de su vida efímera.
Podemos observar entonces a grandes
rasgos la evolución del conocimiento de la
estructura de la materia a lo largo de la
historia de la humanidad, desde la idea
filosófica del Arjé planteada por los
presocráticos pasando por las ideas de
Aristóteles
y la acertada posición de
Demócrito, barriendo momentos en los que
la partícula fundamental de la materia fue
considerada de acuerdo a los conocimientos
de la época. En la actualidad es bastante lo
que se conoce acerca de dicha estructura
pero quedan muchas cosas por conocer y
por estudiar y, quién sabe, tal vez se
encuentren partículas aun más elementales
que
las
actualmente
consideradas
elementales.
Referencias
[1]http://www.geocities.com/maperez324/pre
socraticos/sld030.htm
[2]http://www.portalplanetasedna.com.ar/ma
teria.htm
[3]http://www.fisicahoy.com/fisicaHoy/pElem
entales/pElementales.html
[4]www.solociencia.com/fisica/particulaselementales-particulas-elementales.htm
P á g i n a | 21
Teoría de la Absorción
A, Rondón5
5 Departamento de ingeniería Química, Universidad Nacional de Colombia,
Bogotá, Colombia
RESUMEN
La luz es uno de los fenómenos más complejos que se ha intentado explicar. La absorción de la luz y
los cambios en las longitudes de onda tejen una inmensa red que nos sumerge en el mundo de los
colores para poder entender por que los percibimos y además el por que de su variedad. Esta red
explica desde cambios energéticos en los átomos hasta funciones en moléculas que se encargan de
que el color sea percibido. Estas funciones son simplemente propiedades que están inmersas en
cada compuesto y que son una consecuencia de su estructura y formación así como de las
características del medio en el que se encuentren y sean trabajadas. Los cambios energéticos a los
cuales nos referimos tienen que ver con la formación de enlaces y con las transiciones que
experimentan los electrones en las moléculas en el momento de formar enlaces y por lo tanto en el
momento de reaccionar.
Palabras claves: Teoría del color, Absorción, espectro visible, percepción.
ABSTRACT
This article is intended to give an explanation to know color theory or the theory of better absorption
because this is the phenomenon that allows the color is perceived. To no one else is the fact that all
objects before our eyes show different colors but ¿Why is this done? One explanation for this
phenomenon is given by the change of wavelengths in the visible spectrum.
This concept is one that will be explained later and goes to show why the different colors, plus we will
give an account of how some compounds involved in the setting of color and others even without color
are able to intensify role of the former. These compounds are common in everyday life and although
we are not aware of his presence played a major role that is only visible to us by the perception of
colors.
Key Words: Color Theory, absorption, visible spectrum, perceptions.
La luz es uno de los fenómenos más complejos que se ha intentado explicar. La absorción
de la luz y los cambios en las longitudes de onda tejen una inmensa red que nos sumerge
en el mundo de los colores para poder entender por qué los percibimos y además el por que
de su variedad, esta red explica desde cambios energéticos en los átomos hasta funciones
en moléculas que se encargan de que el color sea percibido.
todos los rayos luminosos, entonces el
El color
cuerpo parece negro.
El color es una sensación que percibimos
La luz blanca puede decirse que es una
con los órganos visuales; esta sensación es
mezcla de radiaciones de longitudes de
producto de los rayos luminosos y depende
onda diferente, que al descomponerse
de la longitud de onda y de las
produce lo que se llama el espectro
características del órgano receptor. Para
continuo.
que se produzca color es indispensable una
absorción en el espectro visible teniendo en
cuenta dos casos especiales: Si se reflectan
todos los rayos luminosos incidentes, el
cuerpo parece blanco y si son absorbidos
P á g i n a | 22
La parte del espectro ultravioleta va aproximadamente de los 10nm hasta los 360nm,
la absorción de esta radiación ultravioleta es la que da lugar a las transiciones entre
los electrones de valencia que son los responsables de la formación de los enlaces
químicos
I LUSTRACIÓN 2. ALGUNAS LONGITUDES DE ONDA PARA DIFERENTES COLORES
Colorantes:
Sus características esenciales son:
*Dan color a otros objetos
*Solubles en medio acido
En los colorantes encontramos grupos
orgánicos que son los responsables de
la absorción de la luz estos grupos
tienen dos grandes divisiones que son:
los cromoforos y los auxocromos.
*Poseen una estructura molecular no
saturada
*Son electrónicamente inestables
Cromoforos:
El hecho de que un auxocromo
intensifique el color se da por el
aumento de la longitud de onda del
cromoforo.
Son los portadores del color, esto
quiere decir que son los que absorben
la luz debido a que poseen electrones
resonando a diferentes frecuencias.
Los cromoforos son grupos de átomos
enlazados
responsables
de
la
absorción electrónica o de la absorción
en el ultravioleta o visible.
Auxocromos: no poseen color propio
pero si intensifican el color, esto quiere
decir que refuerzan la labor de los
cromoforos y además fijan la molécula
del colorante.
Se dice que se produce un efecto
batocrómico cuando la longitud de
onda de absorción de una sustancia se
desplaza hacia longitudes de onda más
grandes o de menor energía por efecto
del solvente o por sustituyentes;
P á g i n a | 23
también se conoce como corrimiento
hacia el rojo; y se dice que se produce
un Efecto hipsocrómico o corrimiento
hacia el azul, cuando la longitud de
onda de absorción de una sustancia se
desplaza hacia longitudes de onda
menores o de mayor energía por efecto
del solvente o por sustituyentes.
Algunos cromoforos importante son:
alquenos, alquinos, carbonilos, grupo
azo, carboxilos, amidas grupo nitro,
nitroso
y
nitrato
que
como
característica común son insaturados
esto quiere decir que presentan dobles
y
triples
enlaces.
Y
algunos
auxocromos importantes son: hidroxilo,
amida y halogenuros, que poseen
pares de electrones libres
Transiciones electrónicas
especies moleculares.
en
las
Según las teorías del enlace químico,
cuando los electrones en los orbitales
atómicos, puros o híbridos, forman
enlaces, se origina un orbital molecular
enlazante, de baja energía que da
estabilidad, y un orbital antienlazante,
de mayor energía.
Si se forma un enlace sigma ð, se
tendrá un orbital enlazante sigma, y
también el correspondiente orbital
molecular antienlazante sigma, ð*. Para
un enlace π,
se tendrá el orbital
enlazante π, y orbital antienlazante π *.
El orbital en el que se encuentra un par
de electrones no compartido recibe el
nombre de orbital molecular no
enlazante.
Algunas de las transiciones más
importantes en moléculas orgánicas
son:
transició
n
Región del
espectro
σσ*
U.V. de
vacío
Ejemplo
CH4
(Vapor)(125
nm)
n σ*
U.V. lejano
π π*
U.V.
cercano
Benceno
(203 y 250
nm)
σ  π*
Visible
Nitrobencen
o(665 nm)
Acetona(190
nm)
La transición ð a ð * requiere mayor
energía, este tipo de transiciones
ocurre en el UV al vacío en longitudes
de onda < 150 nm. Por esto
compuestos orgánicos como los
hidrocarburos saturados presentan
absorción en el ultravioleta lejano y por
tanto son transparentes en el UV
cercano.
La transición n a ð * requiere menos
energía que la transición ð a ð * se
presentan entre 150 y 220 nm. Se
observan en moléculas como N, O, S,
Cl, Br, I, como haluros de alquilo,
aminas, éteres, tioles.
Las transiciones π a π* implican que el
cromoforo debe poseer al menos una
insaturación para proveer el orbital
molecular π *, moléculas con dobles o
triples
enlaces
frecuentemente
presentan absorción entre 160 y 220
nm para cromoforos separados por
más de un enlace sencillo. Cuando las
moléculas
son
conjugadas
se
P á g i n a | 24
encuentran 200 y 360 nm, en el UV
cercano
Las transiciones π a π* presentan
coeficientes de absortividad de mas o
menos 1000 y 15000 M-1cm-1.
Las transiciones n a π* implican que el
cromoforo
debe
poseer
una
insaturación con un heteroátomo que
contenga un par de electrones no
compartido, presentan coeficientes de
absortividad bajos, que oscilan entre
10 y 102 M-1cm-1
Entonces la absorción de la luz es
producto de las diferentes transiciones
electrónicas entre los electrones de
valencia, en este fenómeno se hay
cambio en las longitudes de onda y
esto da como producto la percepción
de los diferentes colores, además como
requisito para que los compuestos
presenten diferentes colores se exige la
presencia de dobles y triples enlaces y
para que se fije e intensifique el color
es requisito indispensable que los
compuestos presenten pares de
electrones libres.
BIBLIOGRAFIA
1. www.virtual.unal.edu.co/cursos/
ciencias
2. www.montes.upm.es/Dptos/Dpt
oIngForestal/OperacionesBasic
as
3. Identificación de Compuestos
Orgánicos por Espectrometría,
R. Silverstein, G. Bassler, T.
Morrill, J. Wiley, 5 edición, 1991.
4. Métodos de Espectrometría en
Química Orgánica, M. Hesse, H.
Meier, B. Zeeh, 1997
P á g i n a | 25
Teoría de Cuerdas
J, Romero6
6 Departamento de ingeniería Química, Universidad Nacional de Colombia,
Bogotá, Colombia
RESUMEN
En el presente artículo se exponen diversos aportes realizados por la ciencia, a la construcción
de la Teoría de cuerdas, para lo cual se hizo una revisión de artículos científicos destacados en
las bases de datos puestas a disposición de la comunidad por la Universidad Nacional de
Colombia. El presente documento busca compactar aportes, creando un escrito de carácter
informativo.
La selección de los artículos constituyó un proceso enriquecedor, debido a la gran opinión,
crítica y revisión que ha suscitado este tema en el mundo de la ciencia, y a la esperanza de
encontrar la tan anhelada teoría unificadora. Claro está que en el presente artículo, no presento
posiciones a enfrentar, no hago discusiones objetivas, me dirigiré más hacia la realización de la
presentación de algunos de los tantos aportes que se genera a diario con el fin de modelar la
teoría de cuerdas.
Como fin último de este escrito busco un lenguaje claro y amable hacia aquellos que no tienen
un conocimiento significativo de la física moderna, logrando así una mayor divulgación del
conocimiento científico a la sociedad, en este caso de la teoría más básica y compleja a la vez
del universo.
Palabras clave: Teoría de cuerdas, Universo, Física moderna, Ciencia, Unificación.
ABSTRACT
In the present articulate, I present diverse contributions they are exposed carried out for
scientific, to the construction of the String Theory, for that which a revision of scientific articles
was made highlighted in the on databases to disposition of the community for the Universidad
Nacional of Colombia. The selection of the articles constituted an enriching process, due to the
great opinion, it criticizes and revision that has raised this topic in the world of the science, and
to the hope of finding the so yearned theory of unification. Clear this that presently articulate, I
don't present positions to face, I don't make objective discussions, I will go but toward the
realization of a presentation of some of the so many contributions that it is generated to
newspaper with the purpose of modeling the String Theory. As end I finish of this writing I look
for a clear and kind language toward those that don't have a significant knowledge of the
modern physics, achieving this way a bigger popularization from the scientific knowledge to the
society, in this case of the theory but basic and complex at the same time of the universe.
Key words: String Theory, Universe, Modern Physics, Science, Unification
La teoría de cuerdas nace de la
necesidad
de
explicar
aspectos
cosmológicos, físicos y químicos del
universo en su totalidad; cuando me
refiero a la totalidad de esta teoría lo
que pretendo decir es la unificación
bajo una sola ley de las normas del
mundo macroscópico y las del mundo
microscópico, en resumen del universo
cuántico y del universo relativista.
Actualmente las mejores explicaciones
del universo se dan por separado:
hablamos de
P á g i n a | 26
Fuerzas
de
gravedad,
electromagnéticas y atómicas fuertes y
débiles.
harían al universo moverse, y generar
diversos comportamiento según la
naturaleza de estas.
Lo anterior constituye uno
de los
aspectos que hacen del estudio del
universo, uno de los temas más
dispendiosos de la física.
Teoría por supuesto polémica y
desafiante
para
un
mundo
acostumbrado a la complejidad.
Los científicos creen fervientemente en
la existencia en la ley del todo, la cual
explicaría cualquier comportamiento de
la materia y de la energía en el
universo. Sin embargo, llegar a ella
constituye uno de los grandes desafíos
de la humanidad, dejando hasta
intelectos como el de Einstein cortos
frente a tal inquietud.
El ultimo caso de unificación exitosa en
el mundo de las leyes físicas, ocurrió
cuando Maxwell formuló sus 4 leyes
que relacionaban el mundo eléctrico y
el mundo magnético, hecho que
simplificaría
para
siempre
la
comprensión de aspectos importantes
del mundo que nos rodea, pero esto
solo constituye un paso hacia la
reunión de todos los aspectos, solo un
paso.
Cuando se acercaba el fin del siglo XX,
el mundo seguía buscando teoría del
todo, ya para ese entonces la mecánica
cuántica ofrecía una explicación
bastante coherente con el mundo
microscópico, y muchos postulados de
la teoría de la relatividad ya habían sido
comprobados. Es así como entre la
década de los 70 y los 80, ciertos
científicos empiezan a postular una
teoría que se caracteriza por una bella
simpleza y por la descripción y
predicción de ciertos problemas
vigentes [1].
Esta teoría afirma la existencia de las
“partículas” más simples del universo:
cuerdas cuya vibración característica,
David Gross de la Universidad de
California, es uno de los grandes
investigadores en la relación de la
cosmología con la teoría de cuerdas,
él en medio de una importante reunión
en 1985, en la cual buscaba diferentes
puntos de vista, formulo una serie de
preguntas, que de ser resueltas darían
un paso en la unificación que para el
constituye:”el empuje forzado de la
física hacia el futuro” [2].
El gran problema de estas preguntas
radica en su sencillez, preguntas como:
¿hay una única Teoría de Cuerdas?,
¿Es esta una teoría unificadora?,
¿Cómo son los fenómenos en un
universo regido por las cuerdas? y
¿Qué es una teoría de cuerdas?,
cuestiones que o no han podido se
resueltas en su totalidad o no tienen
una respuesta aceptable.
Hay discusiones tan diversas que
hacen pensar en la teoría eje de este
articulo como un estudio de poco
tiempo de vida, una novedad, la verdad
es que el análisis de las cuerdas suma
ya bastante tiempo,
debido a la
complejidad y a las inconsistencias
presentadas.
Entre las grandes inconvenientes está
la afirmación de la existencia de 11
dimensiones, una mas que las ya
conocidas y descritas, lo que implica
una nueva conceptualización. De este
problema algunos especuladores han
logrado ver una oportunidad: afirman
que esta dimensión extra es la que
P á g i n a | 27
involucra la fuerza de la gravedad [3],
esta fuerza vendría en forma de ciertas
partículas
fundamentales
llamada
gravitones, las cuales a su vez serían
una unión de pequeñas cuerdas cuya
oscilación particular generaría la
gravedad.
En este aparte ya se ha dado un paso
hacia la unificación, sin embargo, esta
afirmación implicaría la existencia de
partículas denominadas taquiones las
cuales experimentarían velocidades
superiores a la de la luz [4].
Lo anterior es prueba de la gran
disyuntiva de la teoría del Todo: la
gravedad es la fuerza que no se
acomoda a un moldeamiento cuántico.
Las demás fuerzas bajo un contexto
microscópico, pueden unificarse, sin
presentar disfuncionalidades.
La gravedad es el gran dilema, los
taquiones más que partículas son
expresiones, su rompimiento con la
relatividad y las normas de las
dimensiones, obliga a pensar en la
equivocación de la teoría de cuerdas.
Sin embargo, muchos afirman que una
teoría tan espectacular como esta, no
podría
ser
perfectamente
comprensible.
Pero la teoría de cuerdas también ha
dado explicación a ciertos objetos de
existencia inexplicable, un ejemplo
claro son los agujeros negros de 5
dimensiones, cuya modelación incluía
ciertos rompimientos a las leyes
tradicionales, (deformación en el
espacio tiempo de las leyes del
universo)[5],
y
bastantes
irregularidades en cuanto a la
conjunción de sus dimensiones.
La teoría de Cuerdas propuesta, afirma
la
existencia
combinada
de
dimensiones
que
incluirán
la
relacionada con la gravedad, allí las
cuerdas estarían cerradas formando
oscilaciones cuya naturaleza cambiaría
rápidamente [6].
Otro de las cualidades de la presente
teoría es la predicción y descripción
bastante fidedigna del comportamiento
de los bosones y de los gluones,
partículas íntimamente relacionadas
con las fuerzas débiles y fuertes del
átomo. Según la teoría estas partículas
deben existir bajo un régimen de 9
dimensiones [7], la característica
principal de las cuerdas es su
cerramiento, base de la cohesión de la
masa, por lo tanto las fuerzas débiles,
fuertes se acomodan también a esta
teoría.
Bajos estos parámetros la teoría de
cuerdas constituye uno de los grandes
desafíos de la física hacia el futuro, la
resolución de la unificación ofrecería
una visión totalizante del universo, sin
embargo, la teoría de cuerdas involucra
tal complejidad, que es bastante
complicado resolver cuestiones propias
de su naturaleza, porque a pesar de
intentar ser una ley del todo, la teoría
en si misma contradice
leyes
relativistas,
lo
que
implicará
seguramente
un
estudio
muy
prolongado de tal teoría. Claro esta que
la teoría de cuerdas, pese a su notoria
popularidad, es solo un escalón hacia
la realidad, falta aun mucho por
estudiar, analizar y criticar, porque en si
misma
la
ley
aunque
explica
fenómenos de difícil conceptualización,
desafía las leyes que pretende unificar.
Pese a todo hay quienes la defienden
con gran intensidad, apoyándose en la
idea de una supuesta simplicidad y de
su particular explicación de los hechos
físicos, pero mas allá de apoyarla se
debe aceptar que pese a los años de
estudio la teoría es muy prematura
P á g i n a | 28
para ser aceptada. En resumidas
cuentas el avance de la ciencia
ofrecerá la certeza acerca de la teoría
del todo , la ciencia responderá sobre
la veracidad de estas afirmaciones,
pero
solo
preguntándonos
y
proponiendo podremos llegar a la
verdad.
REFERENCIAS
[1]La
teoría
unificadora:
cuerdas”(2008), en línea, disponible en
http://taxyon.blogspot.com/2007/01/lateora-unificada-cuerdas.html,
Recuperado: 21 de noviembre 2008.
[2]
GROSS,David.(2004,Febrero).
”Where Do We Stand in Fundamental
(String) Theory”. Physica Scripta. Vol.
T117, 102–105, 2005. Kavli Institute for
Theoretical Physics, University of
California, Santa Barbara, California,
Pag 3. Recuperado: 29 de Noviembre
de 2008.
[3]
SEIBERG,Nathan.(2005,Marzo).
”Observations on the moduli space of
two dimensional string theory”, Institute
of physics, Pag 9. Recuperado: 09 de
Noviembre de 2008.
[4]“La teoría de Cuerdas”(2008),en
línea,
disponible
en:
http://www.cienciapopular.com/n/Cienci
a/La_Teoria_de_Cuerdas/La_Teoria_d
e_Cuerdas.php, Recuperado: 21 de
noviembre 2008.
[5] MEI,Janwey.(2008,Agosto). Nuclear
Physics B 806 (2009) 436–455.“New
black holes in five dimensions”, Texas
A&M University, Pag 9.Recuperado: 22
de Noviembre de 2008.
[6]
BOELS,Rudgers.(
2008,Noviembre):” MHV, CSW and
BCFW: Field theory structures in string
theory amplitudes. Pag 7.Niels Bohr
International Academy. Recuperado: 29
de noviembre de 2008.
[7]
LUST,Dieter.(2008,Septiembre).
”The LHC string Hunter’s companion”.
Nuclear Physics B 808 (2009) 1–52.
Department of Physics, Northeastern
University. Pag 6.recuperado:29 de
Noviembre de 2008
P á g i n a | 29
Hipótesis ondular de De Broglie,
mecánica cuántica para ver y entender
el mundo de lo pequeño
D, Peña7
7 Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia
RESUMEN
Se hace una revisión de la teoría ondulatoria de la materia de De Broglie y su relación con el
desarrollo de la microscopía electrónica e investigación de la estructura cristalina superficial, entre
otras aplicaciones.
ABSTRACT
Waves of matter theory of De Broglie is reviewed with its relation with the development or
Transmision Electron Microscopy, crystal surface structure research and other stuff.
Hacia principios del siglo XX, cuando la
mecánica cuántica era apenas una serie
de hipótesis y teorías incipientes, el
estudio completo del comportamiento
físico de la materia y la radiación
electromagnética en diversos fenómenos
era el centro de atención de los físicos
más brillantes del mundo. Uno de ellos, el
efecto fotoeléctrico, descubierto y descrito
por Heinrich Herzt en 1887 y abordado
inteligentemente por el alemán Albert
Einstein, se destacaría entre todos los
demás, porque su explicación retomaría
algunos conceptos viejos, provenientes
del propio Newton y otros recién en tela
de discusión para dar paso a una
concepción totalmente nueva del sistema
físico
que
transporta
la
energía
electromagnética.
De esta manera es como, hacia el año
1905, Einstein, quien se interesó en el
estudio de esta emisión instantánea de
electrones de un metal al recibir radiación
electromagnética de frecuencia adecuada,
reflexionó
sobre
tres
aspectos
concernientes:
los
resultados
experimentales
obtenidos,
la
recientemente postulada hipótesis de Max
Planck y la descartada idea de Newton de
que la luz podrían ser partículas. Al unir
sus reflexiones de relatividad especial y
lograría
una
explicación
sorprendentemente
sencilla,
pero
merecedora de un Nobel: la luz tiene un
comportamiento ondular pero también se
comporta como partícula en ciertos
fenómenos, la emisión de fotoelectrones
no es más entonces, que una colisión
entre una “partícula de luz” que denominó
fotón y un electrón del material , en la que
el fotón cede toda su energía al mismo y
si ésta es igual a una cantidad mínima
necesaria, entonces el electrón es emitido
(ver figura 2).
P á g i n a | 30
Figura 1. Efecto fotoeléctrico: fotones en
amarillo,
electrones
en
azul
y
fotoelectrones en rojo.
Así pues, un sistema que tradicionalmente
se podía describir como onda, presentaba
características de partícula y debía ser
descrito entonces como una suma de
ambos comportamientos simultáneos y
que adopta uno de dos para ciertos
experimentos. Lo anterior, en una especie
de búsqueda de simetría en la naturaleza,
llevó a pensar entre otros científicos al
francés Louis de Broglie que quizás lo que
tradicionalmente se había descrito como
partícula por la física clásica de la época
podría tener también dicha dualidad y
comportarse como onda simultáneamente.
Hipótesis De Louis De Broglie
Planteada como tesis doctoral en 1924, la
hipótesis de De Broglie plantea que la
materia
también
presenta
simultáneamente, al igual que la radiación
electromagnética, un comportamiento
dual: vibratorio, propio de una onda, y uno
estático, propio de las partículas, a pesar
de ser una sóla identidad física (ver figura
2).
demás dos: en el modelo atómico de
Böhr, advirtió que las orbitas estables
para el electrón estaban caracterizadas
por números enteros, una característica
típica para describir una onda; y una
analogía antes observada por Jacobi y
Hamilton entre la descripción de las
diversas trayectorias de las partículas y
los rayos de propagación de ondas. Los
anteriores hechos junto al de la
cuantización de la energía propuesta por
Planck y generalizada a la radiación
electromagnética por Einstein, y algunos
conceptos
de
relatividad
especial,
permitieron el desarrollo de su tesis que
haciendo algunas simplificaciones, se
puede condensar de la siguiente manera:
Bases del modelo atómico de Böhr
Si se supone que el electrón gira
alrededor del núcleo en una circunferencia
perfecta, se tiene que su energía potencial
es por la segunda ley de Newton:
𝐹 = 𝑚𝑎 =
𝑚𝑣 2
𝑟
(1)
Si 𝑚 es masa, 𝑣 velocidad tangencial del
electrón y 𝑟 la distancia al núcleo atómico
Como esta debe ser igual a la fuerza de
atracción del núcleo al electrón se tiene
(2) por la ley de Coulomb:
𝑒2
𝐹𝑒 = − 4𝜋 𝜖
2
(2)
2
(3)
0𝑟
Igualadas:
𝑚𝑣 2
𝑟
𝑒2
= 4𝜋 𝜖
0𝑟
Figura 2. Dibujo representativo de la
dualidad onda partícula de la luz y la
materia, y su comportamiento definido
ante una observación u otra.
Por lo que se puede calcular la energía
cinética del electrón:
De los hechos téoricos en los que el
francés De Broglie se pudo haber
inspirado para el desarrollo de su
hipótesis, se pueden destacar sobre los
Teniendo en cuenta que la energía
potencial V del electrón respecto al núcleo
es , puede escribir que la energía total E
es:
𝑇=
𝑚𝑣 2
2
1
𝑒2
= 2 ∙ 4𝜋 𝜖
0𝑟
(4)
P á g i n a | 31
𝑉=−
𝑒2
4𝜋 𝜖0 𝑟 2
𝐸 =𝑇+𝑉 =
(5)
−1
𝑒2
∙
2 4𝜋 𝜖0 𝑟
(6)
𝐸 = ℎ𝑓 (7)
1
1
𝐸 = 𝑅 (𝑛2 − 𝑚2 )(8)
Que sustituyendo en la ecuación (7) da
origen a (8) donde R es la constante de
Rydberg, ℎ la constante de Planck, 𝑓 la
frecuencia de onda de radiación
electromagnética y 𝑛 y 𝑚 números enteros
que representan los niveles en los que el
electrón puede estar en éste modelo. De
(7) y (8) se puede concluir entonces que:
𝐸 ∝
1
𝑛2
(9) y 𝑟 ∝ 𝑛2(10)
Que implican que la energía y la posición
permitida del electrón están cuantizados
(factores de números enteros). De (3), (8)
y (10) es posible ver que la cantidad de
movimiento angular cumple que:
𝐿 = 𝑚𝑣𝑟 ∝ √𝑟 ∝ 𝑛 (11)
Experimentalmente
entonces que:
se
determinó
ℎ
𝑚𝑣𝑟 = 𝑛 2𝜋 = 𝑛ℎ̅ (12)
Con lo que se evidenció que la cantidad
de movimiento, una cantidad tan propia de
partículas, estaba cuantizada.
Bases de la cuantización de la radiación
electromagnética de Planck-Einstein
Del estudio de Planck y Einstein se
encontró para un fotón (7), que también
permite expresar:
𝑝 = 𝑚𝑐 =
ℎ
λ
= ℎ̅𝑘 , 𝑘 = 2𝜋/λ (13a)
𝐸 = ℎ𝑓 = ℎ̅𝜔 (13b)
De Broglie observó entonces que al lado
izquierdo de las ecuaciones 13a y 13b
había propiedades típicas de partículas y
al lado derecho propiedades típicas de
ondas en el caso de la luz, e inició
entonces su desarrollo para demostrar lo
mismo en partículas de materia:
Empezó por generalizar la ecuación 13b a
un electrón de masa mo, en reposo y
empleando la relación encontrada por
Einstein (14), obtuvo:
𝐸 = 𝑚𝑐 2 (14)
𝐸 = 𝑚𝑜 𝑐 2 = ℎ𝑓𝑜 (15)
Donde 𝑓𝑜 es una frecuencia que se debía
asociar entonces a algo “periódico” en el
comportamiento de un electrón, y en la
cual se observa como la materia y la
energía son dos formas de un mismo
ente.
Aplicando la teoría de relatividad especial,
se obtiene que en movimiento se deba
cumplir:
ℎ𝑓 = 𝑚𝑐 2 (16)
Donde 𝑚 =
𝑚𝑜
2
√1−𝑣2
y 𝑓 la frecuencia de una
𝑐
onda que De Broglie imaginó acompañaba
el movimiento del electrón propagándose
con velocidad 𝑣𝑝 =
𝑐2
𝑣
. De lo anterior se
observa que la velocidad de propagación
de dicha onda, muy superior al límite
teórico de c impuesto por Einstein en su
relatividad especial, debía corresponder a
una onda no de energía sino de materia.
Del estudio de mecánica de propagación
de ondas, De Broglie encontró dos
principios cuya conexión permite obtener
el Lagrangiano L de un electrón relativista,
moviéndose en un campo eléctrico, el cual
es una función matemática empleada en
física para describir de la manera más
elemental el comportamiento en el tiempo,
las leyes de conservación, entre otras
propiedades, de un sistema físico. Los
principios antes mencionados así como el
Lagrangiano ya descrito son:
P á g i n a | 32
Principio de Fermat para una onda 𝜑 =
ℎ̅(𝜔𝑡 − 𝑘𝑟)
𝐵
𝛿 ∫𝐴 𝑑𝜑 = 0(17)
Principio de Hamilton para el movimiento
de una partícula:
que es posible medir con un amperímetro
la intensidad de corriente generada solo
por aquellos electrones que han perdido
poca o ninguna energía en la interacción
con el metal.
𝐵
𝛿𝑆 ∫𝐴 𝐿𝑑𝑡 = 0(18)
Lagrangiano de un electrón relativista,
moviéndose bajo efectos de un campo
electromagnético de vector potencial A y
escalar V.
𝑣2
𝐿 = 𝑚𝑜 𝑐 2 √1 − 𝑐 2 + 𝑒𝑣𝐴 − 𝑒𝑉(19)
Un desarrollo, de ambos principios y
aplicando conceptos fuera del alcance de
este artículo, se llega a:
Figura 3. Montaje al vacío
Experimento Davisson-Germer.
𝐸 = ℎ̅𝜔 𝑦 𝑝 = ℎ̅𝑘 (20)
Aplicando la definición de 𝑘 :
ℎ
𝑝
= λ (21)
De donde se tienen finalmente las
ecuaciones análogas a las desarrolladas
por Einstein para el fotón, en el caso de
una partícula de materia, siendo la más
conocida de todas (21).
Comprobación Experimental
hallazgos de De Broglie
de
los
De entre los diferentes experimentos que
comprobaron la validez del desarrollo
teórico de De Broglie, el más contundente
es el experimento de Davisson-Germer,
realizado en 1925, en el que en un vacío,
un haz de electrones de baja energía,
incide sobre un monocristal de níquel
donde es dispersado (ver figura 3). Los
electrones provienen un filamento de
tunsgteno calentado para se acelerados
por un potencial V. Luego de ser
dispersados por el cristal, los electrones
que deben superar un potencial retardador
Vr , menor a V , y cuya magnitud es tal
del
Al graficar los resultados obtenidos, se
encontró que cuando el potencial era de
54 V (o múltiplo entero)se encontraba un
pico en la corriente medida en el
amperímetro, y a voltajes mayores a éste
volvía y caía, por lo que la única
explicación a tan extraño comportamiento,
era que al aplicar exactamente esa
diferencia de potencial, los electrones
ganan una cantidad de movimiento tal que
las ondas de electrón entran en una
interferencia constructiva máxima y sus
amplitudes se suman, comprobándose de
este modo el comportamiento ondular de
la materia
Aplicación del comportamiento ondular
de la materia establecido por De
Broglie
Una de las aplicaciones más importantes
de la teoría de De Broglie, fue el
desarrollo del Microscopio de Transmisión
Electrónica, inventado hacia 1931 por los
rusos Ernst Ruska y Max Knoll (ver figura
4).
P á g i n a | 33
Figura 4. Esquema simplificado de un
electroscopio de transmisión electrónica
La idea es que al reconocerse el
comportamiento ondular de las partículas,
tales como el electrón, es posible usar
haces de electrones en lugar de luz, en el
diseño de microscopios, debido a que en
general, para los voltajes empleados en la
práctica, se puede calcular que la longitud
de onda del electrón, resulta ser siempre
mucho menor a la longitud de onda típica
de la radiación en el espectro visible, por
lo que se alcanza una mayor resolución
en las imágenes obtenidas de las
muestras.
Por ejemplo el Microscopio electrónico de
Transmisión, consiste en una fuente de
alto voltaje para crear y acelerar un haz de
electrones, en lo que se conoce como
cañón de electrones, generalmente
diseñado a partir de un alambre de
tunsgteno como cátodo y un ánodo con un
potencial respecto al cátodo de 100 KeV.
Dicho haz de electrones se focaliza
mediante lentes, que en realidad
consisten
en
campos
magnéticos
adecuadamente dispuestos con el fin de
llevarlo a la muestra, donde los electrones
interactúan con los átomos de la misma y
algunos son dispersados tal y como en el
experimento de Davisson-Germer, otros
pasan a través sin cambio alguno y otros
pierden cierta energía en colisiones. De
esta manera, el haz de electrones, una
vez ha pasado el sito de la muestra, es
amplificado empleando nuevamente un
campo magnético que hace las veces de
lente objetivo en el microscopio óptico, y
ya que dicho haz contiene información
sobre la superficie de la muestra, se
dispone una pantalla recubierta de una
sustancia resplandeciente al contacto con
los electrones, tal como el sulfuro de zinc,
constituyéndose así la imagen debido a la
diferente intensidad con la que colisionan
los electrones (consecuencia de la
interacción con la muestra). Por otro lado,
el haz de electrones puede ser conducido
mediante fibra óptica para hacerlo incidir
en una superficie fosforada de alta
definición, en un sistema de cámara de
carga acoplada, el cual interpreta esta
información
para,
electrónicamente
convertirla en información que se puede
desplegada en un monitor, la imagen por
supuesto, es siempre en una escala de
grisese, aunque es posible agregar
coloración ficticia, mediante el uso de
software.
Aunque esta técnica, presenta muchos
inconvenientes tales como la necesidad
de muestras muy finas para que el haz de
electrones la atraviese correctamente y
aberraciones
ópticas
como
las
aberraciones esférica y cromáticas,
recientemente se ha diseñado software y
procedimientos para optimizar la calidad
del trabajo, por lo que se han conseguido
imágenes de átomos de carbono en un
diamante, separados por tan sólo 0,89
angstroms o átomos de silicio en un
aumento de cincuenta millones de veces
su tamaño normal.
P á g i n a | 34
Para concluir, la teoría ondular de De
Broglie, se debe resaltar como un
desarrollo producto de la simetría en el
comportamiento de la naturaleza de la
materia y la energía, que ha permitido la
investigación en la estructura superficial
de la materia a través de diversas
aplicaciones, así como la observación
mediante microscopía electrónica
REFERENCIAS
Figura 5. Micrografía de resolución
atómica de nanocristales multi-acoplados
en una película de silicio.
Otra
de
las
implicaciones
del
comportamiento ondular, es la difracción
de electrones para la investigacion de la
estructura
superficial
cristalina.
La
difracción es la propiedad mediante la cual
una onda diverge de la trayectoria que
debería llevar por geometría óptica. Así
entonces, la cristalografía con electrones,
debido a la limitada penetración de los
electrones
(
pues
interactúan
rápidamente) permite un estudiode la
estructrura superficial cristalina más
adecuado el típico estudio con rayos x,
con lo que por ejemplo, se ha podido
observar que a pesar de que en la
superficie de muchos metales limpios se
exhiben las terminaciones ordenadas
cuadriculadas ideales, se presentan
también pequeñas desviaciones de dicho
comportamiento en las primeras capas
atómicas. [2]
De igual manera la Difracción electrónica
de alta energía, es ampliamente usada en
el
estudio
de
capas
finas
de
monocristales, policristales y materiales
amorfos; así como también en el estudio
de la estructura molecular de fases
gaseosas.
[[1]
N.Hamdam,
M.Falhe,
H.Aktaa.
Deduction of the De Broglie’s relation 𝜆 =
ℎ/𝑝 from classical electrodynamics. LatinAmerican Journal of physics. Volume 2,
Number 3. September 2008
[2] L.Marton, M.Van Hove. Electron
Diffraction. Encyclopedia of Physics. Eds.
R.G. Lerner and G.L. Trigg, Wiley-VCH
(Weinheim) 2005, p. 616-621.
[3]
M.Garcia,
J.Ewert
De-Geus.
Introducción a la física moderna 3º Ed.
Universidad Nacional de Colombia.
Unibiblos. 2008. Pags 127-132.
[4]
http://www.astrocosmo.cl/anexos/hl_%20broglie.htm [Consultada: 03-12-08]
[5]
http://hyperphysics.phyastr.gsu.edu/Hbase/quantum/davger2.html
[Consultada: 04-12-08]
[6]http://en.wikipedia.org/wiki/Transmission
_electron_microscope[Consultada: 04-1208]
Figura
4:
Tomada
de
http://en.wikipedia.org/wiki/Image:Electron
_Microscope.png. [ Fecha :04-12-08]
Figura 5: Tomada de: National Center of
Electron
microscopy.
http://ncem.lbl.gov/images/gallery/polysi.jp
g [ Fecha :04-12-08]
AUTOR: David Alejandro Peña Navarro,
Estudiante Ingeniería Química. Código:
244173
P á g i n a | 35
Desarrollo del Láser y la fibra óptica
L, Fonseca8
8 Departamento de ingeniería Química, Universidad Nacional de Colombia, Bogotá, Colombia
RESUMEN
El presente artículo intenta resumir el mecanismo de funcionamiento del láser, su estructura
y su posterior uso mediante la fibra óptica, proporcionando además una breve reseña
histórica en donde se señalan que eventos fueron indispensables para el desarrollo de esta
tecnología, como la teoría de Einstein y el modelo atómico de Bohr, y la importancia que ha
llegado a tener estos adelantos para la vida de hoy.
ABSTRACT:
Después de la segunda guerra mundial se
realizaron
varios
esfuerzos
para
desarrollar
el
campo
de
las
comunicaciones, pero solo hasta finales
de la década de los 80 surgió la idea de
aprovechar la luz como medio de
comunicación, basado en la idea de una
señal portadora (onda electromagnética
con una frecuencia especifica) la cual
entre mayor frecuencia tenga, mayor será
la cantidad de información que se pueda
transportar. Dando como resultado la
invención del láser en 1960 por la
aplicación de la teoría de Albert Einstein
acerca del efecto fotoeléctrico, y el
posterior desarrollo de la fibra óptica como
medio para la transmisión de estas
señales a grandes distancias.
Todo comenzó a partir de 1900 cuando
Max Plank planteo su hipótesis de que los
átomos excitados emiten energía en
paquetes discretos llamados cuantos,
luego en 1905 Albert Einsten planteo que
la luz estaba compuesta por pequeños
paquetes de energía llamados fotones, y
que entre mayor sea la frecuencia de la
esto dio pie al desarrollo de su teoría del
efecto fotoeléctrico, la cual se resume en
la idea de que los electrones pueden
absorber la energía de los fotones que
son irradiados sobre estos y liberarse de
la materia que los contiene.
En 1913 surgió un modelo de átomo
propuesto por Niels Bohr, según el cual
los electrones se ordenan en órbitas
alrededor del núcleo de acuerdo a su nivel
de energía, para poder pasar a un nivel de
energía más excitado el electrón debía
absorber energía, y para poder pasar a
una órbita mas baja el electrón debía
emitir energía. Se estableció el concepto
de que cuando un electrón se encuentra
excitado tiende a volver de forma
LÁSERES
luz, mayor es el nivel energético del fotón,
F IG . 1: E JEMPLO LUCES DE
The present article tries to summarize how laser works, it structure and it application by
optical fiber, besides it contains a small historical review where it's indicate what events were
indispensable for this technology development, as the Einstein's theory of the photoelectric
effect and the Bohr's atomic model, and the importance of these advances for the today's
life.
P á g i n a | 36
Esta teoría fue aplicada en 1951 por el
director del Laboratorio de Radiación de la
Universidad de Columbia, el señor
Charles Townes (Fig.1) en compañía de
Herbert Zeiger, ellos enviaban un haz de
amoniaco a través de un campo eléctrico
que desviaba las moléculas de menor
energía y enviaba las moléculas de mayor
energía a otro campo eléctrico; la
exposición al segundo campo provocaba
que todas las moléculas de amoniaco de
mayor energía pasaran a su estado
fundamental, emitiendo fotones de
microondas con la misma dirección y
frecuencia.
A este dispositivo lo llamó MASER
(microwave aplification by stimulated
emisión of radiation) pero durante el
adelanto de sus estudios se dio cuenta de
3http://www7.nationalacademies.org/spa
nishbeyonddiscovery/tec_00752003.html#TopOfPage- -03/12/084
http://es.wikipedia.org/wiki/L%C3%A1se
03/12/08
-
El primer láser fue creado por Theodore
Maiman en 1960 y fue hecho de rubí
sintético, impulsando el estudio de esta
tecnología; los primeros láseres solían ser
muy grandes, frágiles, y propensos a
recalentarse. Los trabajos que se
realizaron posteriormente acerca de
transistores
y
semiconductores
permitieron obtener mejores diseños.
Funcionamiento
del
Charles Hard Townes (izquierda) y
Arthur Schawlow4
láser:
F IG . 2: L OS PADRES DEL LÁSER
Tomando como base el modelo de Bohr y
la teoría de Einstein se comprobó que
cuando los electrones se irradian con una
cantidad de energía igual a la diferencia
entre los estados de menor a mayor
energía, aumenta la intensidad de la luz
que esta pasando, pues se obliga a los
electrones a soltar los fotones que tienen
y además estos se emiten en la misma
dirección en que están pasando los
fotones de la luz. Este proceso se conoce
como emisión estimulada 3 y es el
fundamento teórico del láser, pero tiene la
condición de que todos los átomos del
material entren en estado excitado lo cual
normalmente se logra a partir de su
exposición a la luz.
que también podía funcionar para
longitudes de onda mas cortas como
infrarrojos o luz visible, por lo cual cambio
el nombre de su dispositivo a LASER,
adoptando la “l” como la sigla de luz.
Junto con su cuñado Arthur Schalow
publicaron en 1958 un artículo llamado
“Maseres infrarrojos y Ópticos” y en 1960
patentaron su invento.
F IG . 3: C OMPONENTES PRINCIPALES DEL LASER
espontánea a su estado de mínima
energía (estado fundamental), emitiendo
fotones correspondientes a la energía en
exceso.
P á g i n a | 37
Para producir el rayo de
luz láser, se necesita
una fuente de energía,
como la electricidad,
para que excite los
átomos
de
las
sustancias que se están
usando como medio, un
rayo de luz, ajustado a
la frecuencia de transmisión entre los dos
niveles, se envía a través del conjunto de
átomos, lo que provoca que aquellos que
se encuentran en un nivel de energía más
alto cedan su energía al rayo de luz.
DE FIBRA ÓPTICA
F IG . 4: I NTERIOR DE CABLE
1. Medio activo para formación del
láser
2. Energía bombeada para el láser
3. Espejo reflectante al 100%
4. Espejo reflectante al 99%
5. Emisión del rayo láser5
Se usan espejos dentro de un tubo para
aumentar la luz producida por los átomos.
Estos envían la luz hacia adelante y hacia
atrás a través del medio. Una vez la luz es
lo suficientemente brillante, se pasa a
través de un espejo y se produce el rayo
láser (Fig.3).
La luz procedente de un láser se
diferencia de la luz normal en cuatro
aspectos diferentes:




5
La luz láser es intensa, son
capaces de producir una elevada
intensidad en un rayo de un
milímetro de diámetro.
Los haces láser son estrechos y no
se dispersan como los demás
haces de luz, tiene direccionalidad.
La luz láser es coherente. Esto
significa que todas las ondas
luminosas procedentes de un láser
se acoplan ordenadamente entre
sí.
Los láseres producen luz de un
solo
color,
su
luz
es
http://es.wikipedia.org/wiki/L%C3%A1se
-03/12/08
monocromática. Algunos producen
luz infrarroja o ultravioleta.
Los láseres atrajeron inmediatamente el
interés por su gran potencial en las
comunicaciones,
medicina
y
otros
campos. Surgió entonces el obstáculo de
cómo poder transmitir estas señales
luminosas a grandes distancias, el cual
fue superado con la aparición y el
desarrollo de las fibras ópticas.
Fibras ópticas:
Es un filamento de vidrio o plástico del
espesor de un pelo (entre 10 y 300
micrones) capaz de llevar mensajes en
forma de haces de luz a lo largo de su
longitud usando la reflexión total interna,
hecho en el cual la luz se refleja en el
interior de la fibra sin pérdidas.6
Estos
filamentos
ya
se
usaban
anteriormente pero al atravesar la luz
distancias cortas perdía casi el 99% de su
intensidad, comprobándose mas tarde que
estas pérdidas se debían a impurezas del
cristal. El desarrollo de vidrios muy puros
con transparencia mayores que el vidrio
ordinario impulso el desarrollo de estas
fibras, llegando en 1970 a construirse el
primer lote de fibras ópticas con la
transparencia suficiente como para lograr
la reflexión de la luz sin pérdidas,
realizado por los científicos Donald Keck,
Robert Maurer y Peter Schultz.7
El 22 de abril de 1977, General Telephone
and Electronics envió la primera
transmisión telefónica a través de fibra
óptica, en el estado de California. Y el
primer enlace transoceánico con fibra
6http://www.monografias.com/trabajos13
/fibropt/fibropt.shtml#CONCEPT 03/12/08
7http://www7.nationalacademies.org/spa
nishbeyonddiscovery/tec_00752005.html#TopOfPage – 02/12/08-
búsqueda de mayores aplicaciones de
esta tecnología.
Los dos constituyentes esenciales de las
fibras ópticas son el núcleo y el
revestimiento, el núcleo es la parte más
interna de la fibra y es en el cual se
propagan las ondas ópticas generalmente
esta hecho de sílice, cuarzo fundido o
plástico; el revestimiento es la parte que
rodea y protege al núcleo, hecha
generalmente de los mismos materiales
que el núcleo pero con aditivos que
confinan las ondas ópticas en el núcleo. El
conjunto de núcleo y revestimiento está a
su vez rodeado por un forro o funda de
plástico u otros materiales que lo
resguardan contra la humedad, el
aplastamiento, los roedores, y otros
factores del entorno. (Fig.4)
Aplicaciones y avances más recientes:
En un sistema de transmisión por fibra
óptica existe un transmisor que se
encarga de transformar las ondas
electromagnéticas en energía óptica o en
luminosa. Una vez que es transmitida la
señal luminosa por las minúsculas fibras,
en otro extremo del circuito se encuentra
un tercer componente al que se le
denomina detector óptico o receptor, cuya
misión consiste en transformar la señal
luminosa en energía electromagnética,
similar a la señal original.
La Fibra Óptica tiene como ventajas, la
alta velocidad al navegar por Internet, así
como su inmunidad al ruido e interferencia
y sus reducidas dimensiones. Sin
embargo tiene desventajas como su
elevado costo, la fragilidad de sus fibras y
la dificultad para reparar cables de fibras
rotos.
Actualmente se han modernizado mucho
las características de la Fibra Óptica, en
cuanto a coberturas más resistentes,
mayor protección contra la humedad y un
empaquetado de alta densidad, lo cual es
muy importante pues impulsa a la
La fibra óptica ha ofrecido muchas
ventajas para los adelantos tecnológicos
actuales como la mejora del servicio de
Internet, el cual antes era demasiado lento
pues utilizaban las líneas telefónicas como
medio para transferir información, su
aplicación
en
las
redes
de
comunicaciones,
proporcionando
conexiones
transcontinentales
y
transoceánicas,
aprovechando
una
ventaja de estas consistente en la gran
distancia que puede recorrer una señal
(100 Km. aprox.) antes de necesitar un
repetidor para aumentar su intensidad, el
desarrollo de fibras para poder transmitir
rayos láser de alta
potencia
utilizados
para
cortar
materiales,
la
transmisión de luz a
lugares de difícil
acceso, ampliación
de la telefonía para
la implantación de
servicios de banda ancha tales como
videoconferencias o videotelefonía, etc.
Pero las mas importantes tendencias en
este momento van enfocadas hacia la
transferencia de información cuántica,
llamada “Criptografía Cuántica”, de la cual
se han realizado ya algunos adelantos,
uno de los mas recientes, fue realizado en
el 2005 por dos grupos de investigación,
en la Universidad de Harvard y en el
instituto de tecnología de Georgia, en
Estados Unidos; estos equipos utilizaron
pulsos laser para extraer información
cuántica de una nube de átomos en la
forma de un solo fotón, que fue
transmitido a través de una fibra óptica
normal de 100 metros de largo (Fig. 6)
antes de que su estado cuántico fuera
DEFIBRA OPTICA
óptica fue el TAT-8 que comenzó a operar
en 1988.
F IG . 5: E JEMPLO DE CABLE
P á g i n a | 38
P á g i n a | 39
muy pequeño (alrededor de 10 nm), esto
mimetiza las propiedades básicas de un
átomo, permitiendo la aplicación de la
física atómica en el
semiconductor. Este
tipo de láser se podría
utilizar para operar
en longitudes de
onda imposibles de
obtener por medio
de la tecnología
láser
actual,
en
8
http://www.novaciencia.com/2005/12/1
3/logran-comunicacion-en-red-cuantica/
- 02/12/089http://www.fisicahoy.com/fisicaHoy/mC
uantico/mCuantico.html -03/12/08-
diferentes aplicaciones como la medicina,
proyección, TV laser, espectroscopia y
telecomunicaciones.
INFORMACION CUANTICA
Un avance aun mas reciente y mas
impresionante es la posibilidad de realizar
cables de fibra óptica utilizando hilos de
ADN11, el cual abriría un gran campo de
aplicaciones, como ser parte de circuitos
de fotones en computadores moleculares
o
iluminar
cosechas
fotosintéticas
artificiales, gracias a que tendría una
estructura muy rígida y unas dimensiones
en escala nanométrica. Los
“cables”
encargados de transportar los fotones a
donde son necesitados han sido
desarrollados por científicos de la
Universidad de tecnología en Suecia,
utilizando una mezcla de ADN y moléculas
llamadas cromóforos que tienen la
propiedad de absorber o dejar pasar la luz
y también de auto repararse, posibilitando
la transferencia de información a través de
estos hilos sin problema.
F IG . 6: T RANSFERENCIA DE
transferido a una segunda nube atómica8,
esta clase de investigación promete
grandes avances en el campo de la
comunicación pues es una red totalmente
impenetrable, en la cual cualquier intento
de espionaje alterara la naturaleza
cuántica la información, 9 esta técnica
también podría ser empleada para la
construcción
de
las
llamadas
computadoras cuánticas las cuales se
basan en la idea de que las partículas
cuánticas puedes existir en mas de un
estado al mismo tiempo significando
también que las computadoras serian
capaces de hacer muchas operaciones al
mismo
tiempo
a
velocidades
impresionantes,
otra
clase
de
investigación se adelanta en un tipo de
láser semiconductor el cual en su región
de emisión de luz utiliza puntos
cuánticos10, (QD, quantum dots) que son
semiconductores que tienen estados de
energía
completamente
cuantizados,
logrados gracias al confinamiento de un
portador de carga en un volumen
En conclusión podemos ver como a partir
de la aplicación de dos teorías
extraordinarias que dieron mucho de que
hablar en su época, se llego al desarrollo
tecnológico de un instrumento, el laser, al
cual en principio no se le encontró un uso
especifico llegando hoy en día ser
indispensable en nuestra vida cotidiana
aunque no seamos consientes de ello,
vemos que la tecnología no se queda ahí
y que se hacen esfuerzos por investigar y
mejorar este instrumento por medio de
una de sus mas grandes aplicaciones
como lo es su uso por medio de fibra
óptica, para que en el futuro podamos
sacar provecho para solucionar muchos
de los problemas y dificultades con la
tecnología de hoy. Se espera que en muy
poco tiempo se pueda sacar un gran
10
11
http://blogs.creamoselfuturo.com/nanotecnologia/2008/05/07/lasers-depuntos-cuanticos/ -01/12/08-
http://www.newscientist.com/article/dn1
6029-dna-strands-become-fibre-opticcables.html .- 01/12/08-
P á g i n a | 40
partido de esto y que revolucione el
campo de la comunicación global,
llegando a ser una tecnología al alcance
de todos y así contribuir al desarrollo de la
sociedad.
Referencias:
1. www.monografias.com/trabajos13/f
ibropt/fibropt.shtml
2. http://www7.nationalacademies.org
/spanishbeyonddiscovery/tec_0075
20.html#TopOfPage
3. http://www.fisicahoy.com/fisicaHoy/
mCuantico/mCuantico.html
4. http://es.wikipedia.org/wiki/L%C3%
A1ser
5. http://www.novaciencia.com/2005/1
2/13/logran-comunicacion-en-redcuantica/
6. http://blogs.creamoselfuturo.com/n
ano-tecnologia/2008/05/07/lasersde-puntos-cuanticos/
7. http://www.newscientist.com/article
/dn16029-dna-strands-becomefibre-optic-cables.html
Descargar