Computación cuántica - Ciberseguridad GITS Informática

Anuncio
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
Computación cuántica
Recientes descubrimientos en torno a la manipulación de átomos han propiciado nuevos
avances hacia el logro de la computación cuántica a gran escala y la simulación de sistemas de
materia condensada. Las investigaciones las ha llevado a cabo un equipo alemán financiado
con fondos europeos, a partir del Séptimo Programa Marco (7PM), y perteneciente al Instituto
Max Planck de Óptica Cuántica.
En concreto, los científicos modificaron átomos únicos en una matriz de luz y cambiaron su
espín, nombre por el que se conoce a un movimiento en dos sentidos, cada uno de los cuales
representa el estado 0 y el estado 1, de tal modo que los datos se codifican del mismo modo
que hacen los ordenadores convencionales con bits. Además, el equipo controló
completamente átomos individuales y "escribió" patrones bidimensionales arbitrarios.
El proceso comenzó mediante la carga de átomos de rubidio enfriados mediante láser en
cristales artificiales de luz creados mediante la superimposición de varios haces de láser. A
continuación, los átomos se mantuvieron en la matriz de luz, una tarea descrita por el equipo
como equiparable a mantener canicas en los huecos de un cartón de huevos. La matriz de luz
deforma ligeramente la cubierta de electrones de un átomo y como resultado se obtienen
cambios en la diferencia de energía entre sus dos estados de espín.
Al aprovechar la versatilidad de los átomos ultrafríos en matrices ópticas, los investigadores
lograron aumentar el grado de control sobre el experimento. Consecuentemente, los científicos
demostraron la posibilidad de ejercer un control de este tipo al nivel más fundamental de un
espín único en una ubicación concreta de una matriz óptica.
A partir de una composición de dieciséis átomos alineados en ubicaciones de matriz contiguas
como si de un collar de cuentas se tratara, los científicos estudiaron qué sucede cuando la
altura de la matriz se reduce hasta que las partículas son capaces de generar un efecto túnel
como el explicado por la mecánica cuántica. Los resultados muestran que se mueven de una
ubicación en la matriz a otra incluso aunque su energía no alcance para cruzar la barrera entre
los pozos de las matrices.
Al alinear los átomos fueron capaces de observar de forma directa sus dinámicas de tunelación
en lo que podría describirse como una "carrera" entre los átomos. En otras palabras, se ha
logrado modificar cada átomo de la matriz al cambiar su estado energético y ahora el siguiente
paso es efectuar operaciones lógicas elementales entre dos átomos concretos de la matriz, las
denominadas "puertas cuánticas".
La computación cuántica es un paradigma de computación distinto al de la computación
clásica. Se basa en el uso de qubits en lugar de bits,
y da lugar a nuevas puertas lógicas que hacen
posibles nuevos algoritmos. Una misma tarea puede
tener diferente complejidad en computación clásica y
en computación cuántica, lo que ha dado lugar a una
gran expectación, ya que algunos problemas
intratables pasan a ser tratables. Mientras un
computador clásico equivale a una máquina de
Turing,1 un computador cuántico equivale a una
máquina de Turing cuántica.
Origen de la computación cuántica
A medida que evoluciona la tecnología, aumenta la
escala de integración y caben más transistores en el
mismo espacio; así se fabrican microchips cada vez
más pequeños, y es que, cuanto más pequeño es,
mayor velocidad de proceso alcanza el chip. Sin
embargo, no podemos hacer los chips infinitamente
pequeños. Hay un límite en el cual dejan de
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
funcionar correctamente. Cuando se llega a la escala de nanómetros, los electrones se
escapan de los canales por donde deben circular. A esto se le llama efecto túnel. Una partícula
clásica, si se encuentra con un obstáculo, no puede atravesarlo y rebota. Pero con los
electrones, que son partículas cuánticas y se comportan como ondas, existe la posibilidad de
que una parte de ellos pueda atravesar las paredes si son demasiado finas; de esta manera la
señal puede pasar por canales donde no debería circular. Por ello, el chip deja de funcionar
correctamente. En consecuencia, la computación digital tradicional no tardaría en llegar a su
límite, puesto que ya se ha llegado a escalas de sólo algunas decenas de nanómetros. Surge
entonces la necesidad de descubrir nuevas tecnologías y es ahí donde entra la computación
cuántica en escena.
La idea de computación cuántica surge en 1981, cuando Paul Benioff expuso su teoría para
aprovechar las leyes cuánticas en el entorno de la computación. En vez de trabajar a nivel de
voltajes eléctricos, se trabaja a nivel de cuanto. En la computación digital, un bit sólo puede
tomar dos valores: 0 ó 1. En cambio, en la computación cuántica, intervienen las leyes de la
mecánica cuántica, y la partícula puede estar en superposición coherente: puede ser 0, 1 y
puede ser 0 y 1 a la vez (dos estados ortogonales de una partícula subatómica). Eso permite
que se puedan realizar varias operaciones a la vez, según el número de qubits.
El número de qubits indica la cantidad de bits que pueden estar en superposición. Con los bits
convencionales, si teníamos un registro de tres bits, había ocho valores posibles y el registro
sólo podía tomar uno de esos valores. En cambio, si tenemos un vector de tres qubits, la
partícula puede tomar ocho valores distintos a la vez gracias a la superposición cuántica. Así,
un vector de tres qubits permitiría un total de ocho operaciones paralelas. Como cabe esperar,
el número de operaciones es exponencial con respecto al número de qubits. Para hacerse una
idea del gran avance, un computador cuántico de 30 qubits equivaldría a un procesador
convencional de 10 teraflops (millones de millones de operaciones en coma flotante por
segundo), cuando actualmente las computadoras trabajan en el orden de gigaflops (miles de
millones de operaciones).
Problemas de la computación cuántica
Uno de los obstáculos principales para la computación cuántica es el problema de la
decoherencia cuántica, que causa la pérdida del carácter unitario (y, más específicamente, la
reversibilidad) de los pasos del algoritmo cuántico. Los tiempos de decoherencia para los
sistemas candidatos, en particular el tiempo de relajación transversal (en la terminología usada
en la tecnología de resonancia magnética nuclear e imaginería por resonancia magnética) está
típicamente entre nanosegundos y segundos, a temperaturas bajas. Las tasas de error son
típicamente proporcionales a la razón entre tiempo de operación frente a tiempo de
decoherencia, de forma que cualquier operación debe ser completada en un tiempo mucho
más corto que el tiempo de decoherencia. Si la tasa de error es lo bastante baja, es posible
usar eficazmente la corrección de errores cuánticos, con lo cual sí serían posibles tiempos de
cálculo más largos que el tiempo de decoherencia y, en principio, arbitrariamente largos. Se
cita con frecuencia una tasa de error límite de 10-4, por debajo de la cual se supone que sería
posible la aplicación eficaz de la corrección de errores cuánticos.
Otro de los problemas principales es la escalabilidad, especialmente teniendo en cuenta el
considerable incremento en qubits necesarios para cualquier cálculo que implica la corrección
de errores. Para ninguno de los sistemas actualmente propuestos es trivial un diseño capaz de
manejar un número lo bastante alto de qubits para resolver problemas computacionalmente
interesantes hoy en día.
Hardware para computación cuántica
Aún no se ha resuelto el problema de qué hardware sería el ideal para la computación
cuántica. Se ha definido una serie de condiciones que debe cumplir, conocida como la lista de
Di Vinzenzo, y hay varios candidatos actualmente.
Condiciones a cumplir

El sistema ha de poder inicializarse, esto es, llevarse a un estado de partida conocido y
controlado.

Ha de ser posible hacer manipulaciones a los qubits de forma controlada, con un
conjunto de operaciones que forme un conjunto universal de puertas lógicas (para poder
reproducir cualquier otra puerta lógica posible).

El sistema ha de mantener su coherencia cuántica a lo largo del experimento.
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica


Ha de poder leerse el estado final del sistema, tras el cálculo.
El sistema ha de ser escalable: tiene que haber una forma definida de aumentar el
número de qubits, para tratar con problemas de mayor coste computacional.
Candidatos

Espines nucleares de moléculas en disolución, en un aparato de RMN.

Flujo eléctrico en SQUIDs.

Iones suspendidos en vacío .

Puntos cuánticos en superficies sólidas.

Imanes moleculares en micro-SQUIDs.

Computadora cuántica de Kane.

Computación adiabática, basada en el teorema adiabático.
Procesadores
En 2004, científicos del Instituto de Física aplicada de la Universidad de Bonn publicaron
resultados sobre un registro cuántico experimental. Para ello utilizaron átomos neutros que
almacenan información cuántica, por lo que son llamados qubits por analogía con los bits. Su
objetivo actual es construir una puerta cuántica, con lo cual se tendrían los elementos básicos
que constituyen los procesadores, que son el corazón de los computadores actuales. Cabe
destacar que un chip de tecnología VLSI contiene actualmente más de 100.000 puertas, de
manera que su uso práctico todavía se presenta en un horizonte lejano.
Transmisión de datos
Científicos de los laboratorios Max Planck y Niels Bohr publicaron, en noviembre de 2005, en la
revista Nature, resultados sobre la transmisión de información cuántica, usando la luz como
vehículo, a distancias de 100 km. Los resultados dan niveles de éxito en las transmisiones de
70%, lo que representa un nivel de calidad que permite utilizar protocolos de transmisión con
autocorrección.
Actualmente se trabaja en el diseño de repetidores, que permitirían transmitir información a
distancias mayores a las ya alcanzadas.
Software para computación
Algoritmos cuánticos
Los algoritmos cuánticos se basan en un margen de error conocido en las operaciones de base
y trabajan reduciendo el margen de error a niveles exponencialmente pequeños, comparables
al nivel de error de las máquinas actuales.

Algoritmo de Shor

Algoritmo de Grover

Algoritmo de Deutsch-Jozsa
Modelos

Computadora cuántica de Benioff

Computadora cuántica de Feynman

Computadora cuántica de Deutsch
Complejidad
La clase de complejidad BQP estudia el costo de los algoritmos cuánticos con bajo margen de
error.
Problemas propuestos
Se ha sugerido el uso de la computación cuántica como alternativa superior a la computación
clásica para varios problemas, entre ellos:

Factorización de números enteros

Logaritmo discreto

Simulación de sistemas cuánticos: Richard Feynman conjeturó en 1982 que los
ordenadores cuánticos serían eficaces como simuladores universales de sistemas
cuánticos, y en 1996 se demostró que la conjetura era correcta.
Cronología
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
Años 80
A comienzos de la década de los 80, empezaron a surgir las primeras teorías que apuntaban a
la posibilidad de realizar cálculos de naturaleza cuántica.
1981 - Paul Benioff
Las ideas esenciales de la computación cuántica surgieron de la mente de Paul Benioff que
trabajaba en el Argone National Laboratory en Illinois (EE.UU.). Teorizó un ordenador
tradicional (máquina de Turing) operando con algunos principios de la mecánica cuántica.
1981-1982 Richard Feynman
El Dr. Richard Feynman, físico del California Institute of Technology en California (EE.UU.) y
ganador del premio Nobel en 1965 realizó una ponencia durante el “First Conference on the
Physics of Computation” realizado en el Instituto Tecnológico de Massachusetts (EE.UU.) Su
charla, bajo el título de “Simulating Physics With Computers" proponía el uso de fenómenos
cuánticos para realizar cálculos computacionales y exponía que dada su naturaleza algunos
cálculos de gran complejidad se realizarían más rápidamente en un ordenador cuántico.
1985 - David Deutsch
Este físico israelí de la Universidad de Oxford, Inglaterra, describió el primer computador
cuántico universal, es decir, capaz de simular cualquier otro computador cuántico (principio de
Church-Turing ampliado). De este modo surgió la idea de que un computador cuántico podría
ejecutar diferentes algoritmos cuánticos.
Años 90
En esta época la teoría empezó a plasmarse en la práctica: aparecieron los primeros
algoritmos cuánticos, las primeras aplicaciones cuánticas y las primeras máquinas capaces de
realizar cálculos cuánticos.
1993 - Dan Simon
Desde el departamento de investigación de Microsoft (Microsoft Research), surgió un problema
teórico que demostraba la ventaja práctica que tendría un computador cuántico frente a uno
tradicional. Comparó el modelo de probabilidad clásica con el modelo cuántico y sus ideas
sirvieron como base para el desarrollo de algunos algoritmos futuros (como el de Shor).
1993 - Charles Benett
Este trabajador del centro de investigación de IBM en Nueva York descubrió el teletransporte
cuántico y que abrió una nueva vía de investigación hacia el desarrollo de comunicaciones
cuánticas.
1994-1995 Peter Shor
Este científico estadounidense de AT&T Bell Laboratories definió el algoritmo que lleva su
nombre y que permite calcular los factores primos de números a una velocidad mucho mayor
que en cualquier computador tradicional. Además su algoritmo permitiría romper muchos de los
sistemas de criptografía utilizados actualmente. Su algoritmo sirvió para demostrar a una gran
parte de la comunidad científica que observaba incrédula las posibilidades de la computación
cuántica, que se trataba de un campo de investigación con un gran potencial. Además, un año
más tarde, propuso un sistema de corrección de errores en el cálculo cuántico.
1996 - Lov Grover
Inventó el algoritmo de búsqueda de datos que lleva su nombre. Aunque la aceleración
conseguida no es tan drástica como en los cálculos factoriales o en simulaciones físicas, su
rango de aplicaciones es mucho mayor. Al igual que el resto de algoritmos cuánticos, se trata
de un algoritmo probabilístico con un alto índice de acierto.
1997 - Primeros experimentos
En 1997 se iniciaron los primeros experimentos prácticos y se abrieron las puertas para
empezar a implementar todos aquellos cálculos y experimentos que habían sido descritos
teóricamente hasta entonces. El primer experimento de comunicación segura usando
criptografía cuántica se realiza con éxito a una distancia de 23 Km. Además se realiza el primer
teletransporte cuántico de un fotón.
1998 - 1999 Primeros Qbit
Investigadores de Los Álamos y el Instituto Tecnológico de Massachusets consiguen propagar
el primer Qbit a través de una solución de aminoácidos. Supuso el primer paso para analizar la
información que transporta un Qbit. Durante ese mismo año, nació la primera máquina de 2Qbit, que fue presentada en la Universidad de Berkeley, California (EE.UU.) Un año más tarde,
en 1999, en los laboratorios de IBM-Almaden, se creó la primera máquina de 3-Qbit y además
fue capaz de ejecutar por primera vez el algoritmo de búsqueda de Grover.
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
Año 2000 hasta ahora
2000 - Continúan los progresos
De nuevo IBM, dirigido por Isaac Chuang (Figura 4.1), creó un computador cuántico de 5-Qbit
capaz de ejecutar un algoritmo de búsqueda de orden, que forma parte del Algoritmo de Shor.
Este algoritmo se ejecutaba en un simple paso cuando en un computador tradicional requeriría
de numerosas iteraciones. Ese mismo año, científicos de Los Álamos National Laboratory
(EE.UU) anunciaron el desarrollo de un computador cuántico de 7-Qbit. Utilizando un
resonador magnético nuclear se consiguen aplicar pulsos electromagnéticos y permite emular
la codificación en bits de los computadores tradicionales.
2001 - El algoritmo de Shor ejecutado
IBM y la Universidad de Stanford, consiguen ejecutar por primera vez el algoritmo de Shor en el
primer computador cuántico de 7-Qbit desarrollado en Los Álamos. En el experimento se
calcularon los factores primos de 15, dando el resultado correcto de 3 y 5 utilizando para ello
1018 moléculas, cada una de ellas con 7 átomos.
2005 - El primer Qbyte
El Instituto de “Quantum Optics and Quantum Information” en la universidad de Innsbruck
(Austria) anunció que sus científicos habían creado el primer Qbyte, una serie de 8 Qbits
utilizando trampas de iones.
2006 - Mejoras en el control del cuanto
Científicos en Waterloo y Massachusetts diseñan métodos para mejorar el control del cuanto y
consiguen desarrollar un sistema de 12-Qbits. El control del cuanto se hace cada vez más
complejo a medida que aumenta el número de Qbits empleados por los computadores.
2007 - D-Wave
La empresa canadiense D-Wave Systems había supuestamente presentado el 13 de febrero
de 2007 en Silicon Valley, una primera computadora cuántica comercial de 16-qubits de
propósito general; luego la misma compañía admitió que tal máquina, llamada Orion, no es
realmente una computadora cuántica, sino una clase de máquina de propósito general que usa
algo de mecánica cuántica para resolver problemas.
2007 - Bus cuántico
En septiembre de 2007, dos equipos de investigación estadounidenses, el National Institute of
Standards (NIST) de Boulder y la Universidad de Yale en New Haven consiguieron unir
componentes cuánticos a través de superconductores. De este modo aparece el primer bus
cuántico, y este dispositivo además puede ser utilizado como memoria cuántica, reteniendo la
información cuántica durante un corto espacio de tiempo antes de ser transferido al siguiente
dispositivo.
2008 - Almacenamiento
Según la Fundación Nacional de Ciencias (NSF) de los EEUU, un equipo de científicos
consiguió almacenar por primera vez un Qubit (el equivalente a un "bit" del "mundo clásico",
pero en el "mundo cuántico") en el interior del núcleo de un átomo de fósforo, y pudieron hacer
que la información permaneciera intacta durante 1.75 segundos. Este periodo puede ser
expansible mediante métodos de corrección de errores, por lo que es un gran avance en el
almacenamiento de información.
2009 - Procesador cuántico de estado sólido
El equipo de investigadores estadounidense dirigido por el profesor Robert Schoelkopf, de la
universidad de Yale, que ya en 2007 había desarrollado el Bus cuántico, crea ahora el primer
procesador cuántico de estado sólido, mecanismo que se asemeja y funciona de forma similar
a un microprocesador convencional, aunque con la capacidad de realizar sólo unas pocas
tareas muy simples, como operaciones aritméticas o búsquedas de datos. Para la
comunicación en el dispositivo, esta se realiza mediante fotones que se desplazan sobre el bus
cuántico, circuito electrónico que almacena y mide fotones de microondas, aumentando el
tamaño de un átomo artificialmente.
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
08/04/2010 Artículo de Verónica Fernández Mármol y Gonzalo Álvarez Marañón,
miembros del Grupo de Investigación en Criptología y Seguridad de la Información del
CSIC.
Criptografía cuántica, seguridad total para las comunicaciones de las empresas
La mecánica cuántica y sus paradojas abandonan los libros de texto de física para entrar de
lleno en la seguridad de la información. La física cuántica, la óptica cuántica y la criptografía
unen sus fuerzas para crear lo que se ha dado en llamar criptografía cuántica, la primera
forma de transmitir información de manera segura protegida por las leyes de la física.
Gracias a este canal de comunicación cuántica, ningún intruso podrá obtener información sobre
los bits que están siendo transmitidos. Los primeros sistemas comerciales ya están
operativos y a la venta, con la promesa de proteger su información de manera cien por cien
segura.
Si nos preguntasen “¿qué ha hecho la física cuántica por ti?”, tal vez no sabríamos qué
responder. Y sin embargo, nuestra vida cotidiana está plagada de aparatos y dispositivos cuyo
funcionamiento se basa en las leyes de la mecánica cuántica: desde los transistores integrados
a escalas masivas en los procesadores de nuestros ordenadores y teléfonos móviles, hasta los
láseres que nos permiten escuchar CD musicales o ver películas en DVD, pasando por el
receptor GPS para guiarnos por las carreteras o los relojes atómicos para conocer la hora con
gran precisión.
A pesar de lo maravilloso de estos inventos, lo mejor está aún por llegar, de la mano de la
revolución en la información cuántica. Los científicos están comenzando a explotar las
paradójicas propiedades del mundo cuántico para construir nuevos sistemas de procesamiento
y de transmisión de información. Una de tales paradojas es que enviar y almacenar información
secreta será más fácil y difícil a la vez: por un lado, en el mundo cuántico pueden enviarse
mensajes de manera totalmente segura, mientras que por otro lado pueden construirse
ordenadores capaces de atacar los algoritmos de criptografía actuales.
Aunque todavía los ordenadores cuánticos quedan lejos en el horizonte, los primeros
sistemas comerciales de criptografía cuántica ya están a la venta. En este artículo se
arroja una mirada crítica a los logros actuales de la criptografía cuántica.
La criptografía cuántica no existe
La computación cuántica constituye un nuevo paradigma computacional basado en la
mecánica cuántica, que encierra la promesa de resolver eficientemente problemas como la
factorización de enteros, el logaritmo discreto y la simulación cuántica (véase el recuadro
Computación cuántica). Los ordenadores cuánticos no manipularán bits de información, sino
bits cuánticos o qubits, los cuales poseen la sorprendente propiedad de representar el estado
“1” ó “0” simultáneamente.
A pesar de tratarse de uno de los campos de investigación más activos de la actualidad, lo
cierto es que a día de hoy solamente existen algunos pequeños prototipos de procesadores de
laboratorio capaces de manejar unos pocos qubits, pero nada que podamos llamar
propiamente un ordenador cuántico, comparable a nuestros ordenadores.
Por usar un símil con la informática clásica, ni siquiera nos encontramos en la época pionera
del ENIAC o del Colossus, primeros proto ordenadores concebidos durante la década de los 40
precisamente en el seno de la criptografía, equipados con válvulas de vacío, diodos de cristal y
relés. La informática y con ella la revolución de las comunicaciones no despegó hasta la
invención del transistor por los Laboratorios Bell en 1947. El transistor dio lugar a los circuitos
integrados y demás elementos de la alta escala de integración y posibilitó la construcción de
ordenadores cada vez más pequeños, según la famosa Ley de Moore, propuesta en 1965 por
Gordon Moore, cofundador de Intel. Ahora bien, cuando la miniaturización alcanza la escala
atómica, o se busca un nuevo paradigma computacional o no es posible seguir miniaturizando.
Hoy por hoy, no se ha descubierto el elemento cuántico que permita la alta integración y
escalabilidad, posibilitando así el despegue de la computación cuántica.
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
Para crear un ordenador cuántico se necesita un sistema físico que se comporte cuánticamente
durante un período de tiempo suficientemente largo y que pueda ser accedido y manipulado
fácilmente. Se está experimentando intensamente en laboratorios de investigación de todo el
mundo con qubits basados en partículas cuánticas (átomos, fotones, etc.) o qubits basados en
estructuras macroscópicas a las que se obliga a comportarse cuánticamente. Algunos
laboratorios han conseguido crear métodos de control cuánticos que manejan hasta 12 qubits,
mientras que sólo se han conseguido procesadores cuánticos de 2 qubits que realicen un
algoritmo. Además, todos requieren una complicada y costosa tecnología, generan tasas de
errores de hasta el 20 por ciento y sus qubits poseen tiempos de vida de menos de 1
microsegundo. Para poder ser práctica, la computación cuántica necesitaría miles de qubits,
hoy por hoy nada más que un sueño de ciencia ficción.
Por otro lado, aunque se han ideado numerosos algoritmos cuánticos para efectuar tareas
como factorizar enteros o realizar búsquedas en una base de datos, no existe propiamente
ningún algoritmo cuántico de criptografía.
Por lo tanto, si aún no existen los ordenadores cuánticos ni existen algoritmos cuánticos de
criptografía, ¿podemos hablar de criptografía cuántica? Con propiedad, no. Hoy en día, lo que
todo el mundo entiende cuando se menciona el término criptografía cuántica es en realidad la
distribución cuántica de claves.
El problema de la distribución de claves
Durante siglos el hombre se ha esforzado por proteger la información. Así fue como nació y fue
evolucionando la criptografía, con sus distintos algoritmos de cifrado. Sin embargo, un
problema que trajo de cabeza a criptógrafos de todas las épocas fue el de la transmisión de
claves. Por muy perfecto y seguro que sea un algoritmo de cifrado, necesita utilizar una clave
para cifrar y descifrar. ¿Cómo hacer para transmitir la clave de manera segura? De nada sirve
proteger criptográficamente los mensajes si un intruso puede robar con facilidad la clave usada
para cifrarlos. Históricamente se usaron todo tipo de soluciones parciales e insatisfactorias al
problema de distribución de claves: desde palomas a mensajeros custodiados por soldados.
Desgraciadamente, o no alcanzaban una seguridad razonable, o resultaban logísticamente
inviables para escenarios con multitud de usuarios. Después de la Segunda Guerra Mundial, a
medida que la criptografía se popularizó fuera de círculos militares y diplomáticos, la
distribución de claves parecía un problema insoluble: si dos partes deseaban comunicarse
mediante mensajes cifrados, necesitaban confiar en una tercera parte para transmitir las claves
de cifrado, la cual pasaba a convertirse en el eslabón más débil de la cadena de seguridad. La
criptografía parecía haber llegado a un punto muerto, un callejón sin salida que la ponía fuera
del alcance de civiles y pequeñas empresas.
No fue hasta el año 1976, cuando Whitfield Diffie y Martin Hellman inventaron la criptografía de
clave pública, que pudo atisbarse la luz al final del túnel. Tras la propuesta del algoritmo RSA
por Rivest, Shamir y Adleman pudieron por primera vez en la Historia transmitirse de manera
razonablemente segura claves de cifrado entre varias partes sin necesidad de que éstas se
conocieran previamente ni de utilizar mensajeros de confianza. Se había resuelto el problema
de la distribución de claves. La criptografía se democratizó, quedando por fin al alcance de
todas las personas.
A pesar de las innegables virtudes de los algoritmos de clave pública como RSA, lo cierto es
que se basan en la premisa nunca demostrada de que no es posible resolver en tiempo
polinómico ciertos problemas difíciles de matemáticas, como por ejemplo, la factorización de
números enteros compuestos por el producto de dos primos. En otras palabras, nadie sabe si
RSA y otros algoritmos parecidos son de verdad seguros.
Y lo que es peor, los ordenadores cuánticos podrían implementar algoritmos capaces de
factorizar números enteros grandes, como los utilizados en las claves RSA, lo que significaría
el fin de la criptografía de clave pública tal y como la conocemos. En este panorama tan poco
halagüeño, la distribución cuántica de claves ofrece la promesa de distribuirlas de manera cien
por cien segura. ¿Cómo es esto posible?.
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
Qué es y para qué sirve la distribución cuántica de claves.
La piedra angular de la criptografía cuántica es el principio de incertidumbre de Heisenberg
que, como aprendimos en la Universidad, nos enseña que no pueden conocerse
simultáneamente con exactitud dos variables complementarias, como la posición y la velocidad,
de una partícula. Supongamos entonces que tenemos un fotón que puede estar polarizado en
una de cuatro direcciones distintas: vertical (|), horizontal (–), diagonal a la izquierda (\) o
diagonal a la derecha (/). Estas cuatro polarizaciones forman dos bases ortogonales: por un
lado, | y –, a la que llamaremos base (+), y por otro lado, / y \, a la que llamaremos (×).
Pues bien, el principio de incertidumbre de Heisenberg, por irracional que nos parezca, impide
que podamos saber en cuál de las cuatro posibles polarizaciones se encuentra el fotón. Para
conocerla, deberíamos utilizar un filtro, que podríamos imaginarnos como una ranura en una
lámina, que tuviera la orientación, por ejemplo, vertical (|). Es evidente que los fotones con la
misma polarización pasarán, mientras que los polarizados horizontalmente, y por lo tanto,
perpendiculares al filtro, no pasarán. Sorprendentemente, ¡la mitad de los polarizados
diagonalmente pasarán y serán reorientados verticalmente! Por lo tanto, si se envía un fotón y
pasa a través del filtro, no puede saberse a ciencia cierta si poseía polarización vertical o
diagonal, tanto \ como /. Igualmente, si no pasa, no puede afirmarse que estuviera polarizado
horizontal o diagonalmente. En ambos casos, un fotón con polarización diagonal podría pasar o
no con igual probabilidad.
Para utilizar estos increíbles resultados en distribución de claves, se acuerda representar un 1
o un 0 de información según la polarización de los fotones que se envían. Así, en la base
rectangular (+), un 1 vendría representado por una polarización |, mientras que un 0, por –;
mientras que en la base diagonal (×), el 1 sería la polarización / y el 0, \. En estas condiciones,
para enviar un mensaje binario, Alicia va enviando fotones a Bernardo con la polarización
adecuada, cambiando aleatoriamente de una base a otra.
Si un intruso, Ignacio, intercepta los fotones y mide su polarización utilizando un filtro, digamos
(|), debido al principio de incertidumbre nunca podrá saber si los fotones pertenecían a la base
+ o ×. Por lo tanto, nunca sabrá qué mensaje se envió, da igual qué tipo de filtro utilice. Ahora
bien, algún lector ya se estará dando cuenta de que si Ignacio se encuentra con este dilema, lo
mismo le ocurrirá a Bernardo.
Efectivamente, emisor y receptor no pueden acordar de antemano qué bases se utilizarán para
enviar cada fotón, porque entonces nos encontraríamos con el problema de cómo hacerse
llegar mutuamente de forma segura esa lista de bases y volveríamos al principio. En 1984
Charles Bennet y Gilles Brassard idearon el siguiente método para hacer llegar el mensaje al
destinatario sin necesidad de recurrir a otros canales de distribución. En primer lugar, debe
allanarse el camino mediante los siguientes tres pasos:
Paso 1: Alicia le envía a Bernardo una secuencia aleatoria de 1’s y 0’s, utilizando una elección
aleatoria entre las bases + y ×.
Paso 2: Bernardo tiene que medir la polarización de estos fotones. Para ello, utiliza
aleatoriamente las bases + y ×. Claro está, como no tiene ni idea de qué bases utilizó Alicia, la
mitad de las veces estará eligiendo mal la base.
Paso 3: para resolver esta situación, Alicia llama a Bernardo por teléfono, o se conectan a un
chat, o utilizan cualquier otro canal de comunicaciones inseguro, sin preocuparles si son
espiados por Ignacio, y le cuenta qué base de polarización utilizó para cada fotón que envió, +
o ×, aunque no le dice qué polarización concreta. En respuesta, Bernardo le cuenta a Alicia en
qué casos ha acertado con la polarización correcta y por lo tanto recibió el 1 ó 0 sin error.
Ahora ya, ambos eliminan los bits que Bernardo recibió con las bases erróneas, quedando una
secuencia un 50 por ciento menor que la original, que constituye la clave de una cinta aleatoria
cien por cien segura, puesto que se generó de forma completamente aleatoria por ser derivada
de una secuencia original de 1’s y 0’s aleatoria.
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
¿Y qué ocurre con el malvado Ignacio? Para su desgracia, aunque intercepte los mensajes de
Alicia y Bernardo, sólo obtendría un 25 por ciento de la secuencia inicial y el 50 por ciento de la
secuencia una vez corregidas las bases. Más aún, la mera presencia de Ignacio en la línea
será detectada, ya que si mide la polarización de un fotón con el detector equivocado, la
alterará. Lamentablemente, como el lector avispado se dará cuenta, esta alteración impediría
que Alicia y Bernardo pudieran ponerse de acuerdo acerca de la secuencia aleatoria a usar
como cinta, debido a que, si Ignacio cambió la polarización de un fotón por el camino, podrían
obtener distintos bits incluso aunque utilicen las mismas bases.
Por consiguiente, hace falta un método para detectar que Ignacio no esté haciendo de las
suyas. En realidad, resulta tan sencillo como sigue: Bernardo le cuenta a Alicia, utilizando el
mismo u otro canal inseguro, cuáles son los primeros, digamos que, 50 bits de su clave
aleatoria. Si coinciden con los de Alicia, entonces saben que Ignacio no les espió ni el canal
tiene ruido y utilizan con seguridad el resto de los bits generados. Si no coinciden, ya saben
que Ignacio metió la manaza por medio o utilizaron un canal muy ruidoso y por lo tanto deben
desechar la clave entera.
En 15 años, puede decirse que no se han producido muchos más avances teóricos en el
campo de la (mal llamada) criptografía cuántica, aunque se han dado pasos de gigante en
cuanto a la implementación tecnológica de lo que, de otra forma, habrían terminado como
elucubraciones mentales para juegos de salón. Manipular fotones individuales constituye todo
un desafío de ingeniería, que fue aceptado con entusiasmo por Bennet y un estudiante. Y así,
en 1989, consiguieron la primera transmisión de señales cuánticas de la historia a una
distancia de 32 cm. ¡El sueño de la distribución cuántica de claves (QKD) por fin se hacía
realidad!
Avances en la distribución cuántica de claves
Desde la primera vez que fue demostrada experimentalmente, los avances en los sistemas de
distribución cuántica de claves han sido continuos. El canal de transmisión de los estados
cuánticos que cifran la clave en estos sistemas suele ser la clásica fibra óptica o el
espacio libre, ya que la atmósfera es un buen transmisor de las longitudes de onda típicas de
estos sistemas. Los sistemas que utilizan fibra han avanzado considerablemente,
especialmente en minimizar los efectos de degradación que sufren los delicados estados
cuánticos al ser transmitidos por un medio que, al fin y al cabo, no es ideal. Por ello se han
diseñado sistemas inteligentemente autocompensados que transmiten eficientemente los
estados cuánticos eliminando los efectos negativos que introduce la fibra óptica.
Los sistemas en espacio libre también han avanzado considerablemente desde aquella primera
transmisión a sólo 32 cm de distancia a finales de los 80. Los sistemas actuales son capaces
de transmitir a más de 100 Km claves cuánticas y cuentan con complejos sistemas de
seguimiento y alineación
El primer sistema que utilizó fibra estándar de telecomunicaciones para transmitir claves
cuánticas nació en 1993 de una colaboración entre British Telecom y una compañía británica
de defensa QinetiQ. Lograron una transmisión en laboratorio utilizando un rollo de fibra
estándar de 10 Km de longitud. Dos años después consiguieron aumentar la distancia a 30 Km
al mismo tiempo que investigadores de la Universidad de Ginebra consiguieron alcanzar los 23
Km, pero utilizando fibra óptica instalada por una compañía de telecomunicaciones y con un
sistema mucho más estable. En 2002 la distancia se aumentó hasta los 67 Km por este mismo
grupo y nació el primer producto comercial de transmisión cuántica de claves. Actualmente, el
récord de distancia de transmisión lo ostenta el laboratorio de Los Álamos y el NIST con 150
Km de transmisión cuántica obtenida.
Por su parte, en enlaces aéreos la distancia más larga ha sido de 1.6144 Km, en una
colaboración de lo más selecto de la investigación europea en este campo en el que se
lograron mandar claves cuánticas desde la isla de la Palma a Tenerife y cuyos resultados
fueron publicados en la revista Nature. Los enlaces aéreos despiertan un interés especial ya
que en un principio podrían suponer la comunicación segura a nivel global.
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
La transmisión en fibra óptica presenta un serio inconveniente, ya que la distancia máxima está
limitada por las pérdidas en la fibra. A diferencia de un sistema convencional, los sistemas
cuánticos no permiten la utilización de amplificadores ópticos, los cuales recuperan la señal
cuando ésta pierde intensidad, ya que estos perturbarían los estados cuánticos de la clave. Sin
embargo, un enlace aéreo entre dos puntos que incluyera un satélite en baja órbita terrestre
como intermediario resolvería este problema, ya que el emisor podría mandar la clave al
satélite, que a su vez la transportaría al lugar deseado para posteriormente reenviársela al
receptor. Sin embargo una transmisión real por satélite está todavía lejos de realizarse, si bien
los retos tecnológicos que se presentan no son insalvables.
¿A quién beneficia la distribución cuántica de claves?
Hoy por hoy, la distribución cuántica de claves es una tecnología inmadura con una serie de
importantes limitaciones:
Sólo sirve para crear enlaces punto a punto utilizando redes pasivas, bien por fibra óptica, bien
por enlace aéreo, como por ejemplo dos sucursales bancarias en la misma ciudad. No es
posible que dos usuarios puedan enviarse claves si no han creado previamente este enlace. El
equipamiento para crear estos enlaces es muy caro.
La velocidad de transmisión de claves es todavía muy lenta. Las soluciones comerciales
ofrecen velocidades del orden de 1 Kbps. Para hacernos una idea de la magnitud de esta
velocidad, para transmitir un DVD se tardaría más de un año. Resultaría más rápido enviar la
clave con un mensajero.
Las distancias de conexión son todavía muy cortas, de hasta 150 Km.
El problema de la autenticación está aún sin resolver de manera satisfactoria. ¿Cómo sabe
Alicia quién está al otro lado de la comunicación? Las soluciones propuestas hasta la fecha se
basan en compartir previamente una clave antes de empezar la distribución de claves, pero
nos retrotrae al problema original: ¿cómo comparto esa clave inicial de manera segura?
Por consiguiente, podemos afirmar que a día de hoy la distribución cuántica de claves
constituye un caro capricho tecnológico para organizaciones con elevados recursos y grandes
requisitos de seguridad, como por ejemplo los bancos o los militares, que necesitan transmitir
claves de forma segura entre unos pocos puntos clave. El resto nos seguiremos conformando
de momento y por mucho tiempo con la criptografía de clave pública y los certificados digitales.
______________________________________
Encontrará más documentos en la Sección de Descargas de Seguridad GITS Informática.
Gits mira por tus derechos. Gits es Pro-Vida.
Por razones ecológicas y económicas, imprima este documento solo si es necesario y, a ser posible, en papel reciclado.
Gracias por su colaboración con el medio ambiente.
Copyright (c) 2003. Gits Informática. All rights reserved.
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
SUPERPOSICIÓN DE ESTADOS, SINCRONÍA Y FUERZA DE ESTADOS
Como se describió anteriormente, la paradoja del Gato de Schrödinger nos ilustra acerca de
una propiedad cuántica inherente a la materia: su capacidad de alterar entre sus estados
posibles, o, lo que es lo mismo, su cualidad de estar en estados superpuestos... Esta propiedad
permite a los sistemas el tener resultados diversos después de cada medición... Cosas muy
simples pueden crear todo un resultado distinto en un sistema, y esto se debe a su capacidad
de estar superpuesto... Esto es más visible en los sistemas cuánticos, ya que es materia en su
mínima expresión, y por ende, su afectación es más notoria como unidad que como un todo
monumental... Igual describimos que esta cualidad genera los universos paralelos gracias a su
potencial de diferir en su resultado...
Ahora, es otro hecho conocido en la física cuántica el poder del observador sobre el sistema...
Su presencia se considera, de hecho, una variable adicional introducida al sistema, de tal forma
que el que esté o no presente afecta el resultado de una u otra forma... Es por eso por lo que
en la física cuántica "el observador es una variable que no puede ser ignorada".... ¿De qué
forma el observador afecta el resultado del sistema...?, seguro se preguntarán... El observador
en sí es un sistema cuántico definido por una compleja ecuación de onda, que lo determina
como objeto cuántico...
Igualmente, podemos hablar del entrelazamiento cuántico, descrito en la paradoja EPR
(Einstein-Podosky-Rosen), la cuál habla de que dos sistemas cuánticos pueden "entrelazar"
sus estados cuánticos, logrando que estos solo puedan ser medidos como un todo, en vez de
unidades, incluso aunque estén separados por espacio o tiempo (es sabido que las ondas
tienen la capacidad de viajar hacia delante o hacia atrás en el tiempo, siguiente tema en la
agenda...) Esto puede ocurrir con todos los sistemas cuánticos, y el observador y el sistema
que observa no están descartados de la aplicación de esta cualidad... Este estado cuántico
viene relacionado tanto con la paradoja EPR como con el teorema de Bell, que es subsecuente
a este planteamiento... Ahora, les explicaré, con algunas citas de otras fuentes, qué describe la
paradoja EPR y la desigualdad de Bell..:
Cita de: http://es.wikipedia.org/wiki/Paradoja_EPR
La paradoja de Einstein-Podolsky-Rosen, denominada «Paradoja EPR», consiste en un
experimento mental propuesto por Albert Einstein, Boris Podolsky y Nathan Rosen en 1935.
A Einstein (y a muchos otros científicos), la idea del entrelazamiento cuántico le resultaba
extremadamente perturbadora. Esta particular característica de la mecánica cuántica permite
preparar estados de dos o más partículas en los cuales es imposible obtener información útil
sobre el estado total del sistema haciendo sólo mediciones sobre una de las partículas. Por
otro lado, en un estado entrelazado, manipulando una de las partículas, se puede modificar el
estado total. Es decir, operando sobre una de las partículas se puede modificar el estado de la
otra a distancia de manera instantánea. Esto habla de una correlación entre las dos partículas
que no tiene contrapartida en el mundo de nuestras experiencias cotidianas.
El experimento planteado por EPR consiste en dos partículas que interactuaron en el pasado y
que quedan en un estado entrelazado. Dos observadores reciben cada una de las partículas. Si
un observador mide el momento de una de ellas, sabe cuál es el momento de la otra. Si mide la
posición, gracias al entrelazamiento cuántico y al principio de incertidumbre, puede saber la
posición de la otra partícula de forma instantánea, lo que contradice el sentido común.
La paradoja EPR está en contradicción con la teoría de la relatividad, ya que se transmite
información de forma instantánea entre las dos partículas. De acuerdo a EPR, esta teoría
predice un fenómeno (el de la acción a distancia instantánea) pero no permite hacer
predicciones deterministas sobre él; por lo tanto, la mecánica cuántica es una teoría
incompleta.
Esta paradoja (aunque, en realidad, es más una crítica que una paradoja), critica dos
conceptos cruciales: la no localidad de la mecánica cuántica (es decir, la posibilidad de acción
a distancia) y el problema de la medición. En la Física clásica, medir un sistema, es poner de
manifiesto propiedades que se encontraban presentes en el mismo, es decir, que es una
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
operación determinista. En Mecánica cuántica, constituye un error asumir esto último. El
sistema va a cambiar de forma incontrolable durante el proceso de medición, y solamente
podemos calcular las probabilidades de obtener un resultado u otro.
Hasta el año 1964, este debate perteneció al dominio de la filosofía de la ciencia. En ese
momento, John Bell propuso una forma matemática para poder verificar la paradoja EPR. Bell
logró deducir unas desigualdades asumiendo que el proceso de medición en Mecánica
cuántica obedece a leyes deterministas, y asumiendo también localidad, es decir, teniendo en
cuenta las críticas de EPR. Si Einstein tenía razón, las desigualdades de Bell son ciertas y la
teoría cuántica es incompleta. Si la teoría cuántica es completa, estas desigualdades serán
violadas.
Desde 1976 en adelante, se han llevado a cabo numerosos experimentos y absolutamente
todos ellos han arrojado como resultado una violación de las desigualdades de Bell. Esto
implica un triunfo para la teoría cuántica, que hasta ahora ha demostrado un grado altísimo de
precisión en la descripción del mundo microscópico, incluso a pesar de sus consabidas
predicciones reñidas con el sentido común y la experiencia cotidiana.
En la actualidad, se han realizado numerosos experimentos basados en esta paradoja y
popularizados en ocasiones bajo el nombre de teletransporte cuántico. Este nombre llama a
engaño, ya que el efecto producido no es un teletransporte de partículas al estilo de la ciencia
ficción sino la transmisión de información del estado cuántico entre partículas entrelazadas. La
comprensión de esta paradoja ha permitido profundizar en la interpretación de algunos de los
aspectos menos intuitivos de la mecánica cuántica. Esta área continúa en desarrollo con la
planificación y ejecución de nuevos experimentos.
Cita de: http://fisicayciencia.blogspot.com/2006/07/variables-ocultas-y-desigualdad-de.html
Curiosamente no todo el mundo tiene claro qué sucede con la "teoría" de variables ocultas y el
choque que existía con la interpretación de la mecánica cuántica.
Este asunto está resurgiendo gracias al interés que se está despertando por el
"entrelazamiento" en los procesos de computación cuántica.
Intentando hacer un resumen, sin mucho rigor matemático:
En el año 1964 John Bell propuso una forma matemática para poder comprobar la paradoja
EPR, es decir la paradoja planteada por Albert Einstein, Boris Podolsky y Nathan Rosen en
1935.
Bell demostró matemáticamente que ciertas desigualdades son ciertas si las críticas de EPR
son correctas y no se cumplían si eran falsas. Por otro lado se demostró que las propuestas de
la teoría de variables ocultas y las de la cuántica eran mutuamente excluyentes. Es decir, o
bien existen variables ocultas o bien el artículo de EPR es falso, y existe la posibilidad de
colapso de una función de onda entrelazada, independientemente del envío de señales de un
punto a otro de la misma.
Juntando ambos resultados tenemos que si conseguimos montar experimentos que
demuestren que las desigualdades de Bell son ciertas o son falsas, conseguiremos por fin
librarnos o no de la cuántica.
Se han propuesto y montado varios experimentos que probaban el test de BELL, algunos
ejemplos son:
Freedman and Clauser, 1972. Los primeros en probar la desigualdad.
Aspect, 1981-2. Se hicieron tres test de BELL, usando Calcio.
Tittel and the Geneva group, 1998. Aquí se demostró qeu la distancia no afecta al
"entrelazamiento"
Weihs. En 1998, Gregor Weihs y un equipo de Innsbruck, liderado por Anton Zeilinger, se
realizó un ingenioso experimento que cerraba definitivamente el bucle de localidad, mejorando
el de Aspect en 1982. Se seleccionó un detector que usaba un procedimiento cuántico que
garantizaba la aleatoriedad. Se comprobó que se violaba la desigualdad en 30 ordenes de
magnitud, y las curvas de coincidencia coincidían con las predichas por la mecánica cuántica.
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
El artículo original de este último experimento está disponible en Phys. Rev. Lett. 81, 5039–
5043 (1998)
Aún así podreis ver muchos sitios en los que se dice que la cuestión no está aún cerrada, y,
aunque en la ciencia nunca se puede decir que algo es seguro completamente, parece
bastante razonable continuar con la mecánica cuántica tal y como la conocemos.
En el esquema tenemos un experimento modelo para proba la desigualdad de Bell. La fuente S
emite un par de fotones entrelazados, en dos direcciones opuestas. Cada fotón se encuentra a
un polarizador cuya orientación puede ser determinada por el observador. Las señales de
salida son detectadas y las coincidencias se cuentan con el monitor CM.
Bueno, esto define un poco mejor qué proponían estos dos puntos importantes para el
desatollo de la física cuántica... Ahora, seguro estarán pensando: "Si, esto suena interesante
pero, ¿qué tiene que ver esto con lo que decías de forzar estados superpuestos...?"...
Justamente, por la importancia del sistema observador, lo que ocurra como cambio en el
mismo alterará en cierta forma el resultado... Igualmente, tenemos que los simples
pensamientos representan igualmente sistemas cuánticos muy complejos... Y no están exentos
de quedar entrelazados al sistema observado... ¿Qué ocurre en este caso...? Si el
pensamiento, el observador y el sistema a afectar empatan en su ecuación de onda en algún
momento, se producirá un estado sincrónico que inmediatamente forzará el resultado a lo que
se espera...
¿Qué es eso de sincronía...? La Teoría de Sincronía describe la capacidad de dos o más
sistemas de empatar en acción... Se le puede considerar la excepción a la regla de la Teoría
del Caos (antahkarana nos provee de un buen tema al respecto de la Teoría del Caos, por si
gustan informarse más al respecto...) En esta teoría, se hace alusión más que nada al tiempo,
y se dice que los estados sincrónicos se dan en un cierto tiempo durante un cierto tiempo
limitado, un estado sincrónico no puede permanecer eternamente dado el balance... Esta teoría
se puede observar particularmente en la mecánica, cuando un dispositivo mecánico logra
transferir exactamente sus movimientos a otra máquina, y así, hasta que se pierde la
sincronía... Esto es vigente para todos los sistemas, que pueden entrar en un estado sincrónico
cuando los componentes estén preparados para empatar, incluso se dice, y con toda certeza:
“El orden no es sólo posible, es inevitable”... "Y, ¿cuándo ocurre esto...?" Depende en gran
medida del sistema descrito.., pero, si sus componentes logran empatar en algún momento, el
sistema inmediatamente tenderá al resultado que estos factores determinan... Sea que por un
instante un objeto se desplace de su posición o desaparezca de la vista o se movilice entre los
distintos órdenes de la realidad... Cualquier resultado puede ocurrir, siempre que la
sincronización sea la adecuada...
Experimento de la doble rendija
===============================
El experimento de Young, también denominado experimento de la doble rendija, fue realizado
en 1801 por Thomas Young, en un intento de discernir sobre la naturaleza corpuscular u
ondulatoria de la luz. Young comprobó un patrón de interferencias en la luz procedente de una
fuente lejana al difractarse en el paso por dos rejillas, resultado que contribuyó a la teoría de la
naturaleza ondulatoria de la luz.
Posteriormente, la experiencia ha sido considerada fundamental a la hora de demostrar la
dualidad onda corpúsculo, una característica de la mecánica cuántica. El experimento también
puede realizarse con electrones, átomos o neutrones, produciendo patrones de interferencia
similares a los obtenidos cuando se realiza con luz, mostrando, por tanto, el comportamiento
dual onda-corpúsculo de la materia.
El experimento
Formulación clásica
La formulación original de Young es muy diferente de la moderna formulación del experimento
y utiliza una doble rendija. En el experimento original un estrecho haz de luz, procedente de un
pequeño agujero en la entrada de la cámara, es dividido en dos por una tarjeta de una anchura
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
de unos 0.2 mm. La tarjeta se mantiene paralela al haz que penetra horizontalmente es
orientado por un simple espejo. El haz de luz tenía una anchura ligeramente superior al ancho
de la tarjeta divisoria por lo que cuando ésta se posicionaba correctamente el haz era dividido
en dos, cada uno pasando por un lado distinto de la pared divisoria. El resultado puede verse
proyectado sobre una pared en una habitación oscurecida. Young realizó el experimento en la
misma reunión de la Royal Society mostrando el patrón de interferencias producido
demostrando la naturaleza ondulatoria de la luz.
Formulación moderna
La formulación moderna permite mostrar tanto la naturaleza ondulatoria de la luz como la
dualidad onda-corpúsculo de la materia. En una cámara oscura se deja entrar un haz de luz por
una rendija estrecha. La luz llega a una pared intermedia con dos rendijas. Al otro lado de esta
pared hay una pantalla de proyección o una placa fotográfica. Cuando una de las rejillas se
cubre aparece un único pico correspondiente a la luz que proviene de la rendija abierta. Sin
embargo, cuando ambas están abiertas en lugar de formarse una imagen superposición de las
obtenidas con las rendijas abiertas individualmente, tal y como ocurriría si la luz estuviera
hecha de partículas, se obtiene una figura de interferencias con rayas oscuras y otras
brillantes.
Este patrón de interferencias se explica fácilmente a partir de la interferencia de las ondas de
luz al combinarse la luz que procede de dos rendijas, de manera muy similar a como las ondas
en la superficie del agua se combinan para crear picos y regiones más planas. En las líneas
brillantes la interferencia es de tipo "constructiva". El mayor brillo se debe a la superposición de
ondas de luz coincidiendo en fase sobre la superficie de proyección. En las líneas oscuras la
interferencia es "destructiva" con prácticamente ausencia de luz a consecuencia de la llegada
de ondas de luz de fase opuesta (la cresta de una onda se superpone con el valle de otra).
La paradoja del experimento de Young
Esta paradoja trata de un experimento mental, un experimento ficticio no realizable en la
práctica, que fue propuesto por Richard Feynman examinando teóricamente los resultados del
experimento de Young analizando el movimiento de cada fotón.
Para la década de 1920, numerosos experimentos (como el efecto fotoeléctrico) habían
demostrado que la luz interacciona con la materia únicamente en cantidades discretas, en
paquetes "cuantizados" o "cuánticos" denominados fotones. Si la fuente de luz pudiera
reemplazarse por una fuente capaz de producir fotones individualmente y la pantalla fuera
suficientemente sensible para detectar un único fotón, el experimento de Young podría, en
principio, producirse con fotones individuales con idéntico resultado.
Si una de las rendijas se cubre, los fotones individuales irían acumulándose sobre la pantalla
en el tiempo creando un patrón con un único pico. Sin embargo, si ambas rendijas están
abiertas los patrones de fotones incidiendo sobre la pantalla se convierten de nuevo en un
patrón de líneas brillantes y oscuras. Este resultado parece confirmar y contradecir la teoría
ondulatoria de la luz. Por un lado el patrón de interferencias confirma que la luz se comporta
como una onda incluso si se envían partículas de una en una. Por otro lado, cada vez que un
fotón de una cierta energía pasa por una de las rendijas el detector de la pantalla detecta la
llegada de la misma cantidad de energía. Dado que los fotones se emiten uno a uno no pueden
interferir globalmente así que no es fácil entender el origen de la "interferencia".
La teoría cuántica resuelve estos problemas postulando ondas de probabilidad que determinan
la probabilidad de encontrar una partícula en un punto determinado, estas ondas de
probabilidad interfieren entre sí como cualquier otra onda.
Un experimento más refinado consiste en disponer un detector en cada una de las dos rendijas
para determinar por qué rendija pasa cada fotón antes de llegar a la pantalla. Sin embargo,
cuando el experimento se dispone de esta manera las franjas desaparecen debido a la
naturaleza indeterminista de la mecánica cuántica y al colapso de la función de onda.
Condiciones para la interferencia
Las ondas que producen interferencia han de ser "coherentes", es decir los haces provenientes
de cada una de las rendijas han de mantener una fase relativa constante en el tiempo, además
de tener la misma frecuencia, aunque esto último no es estrictamente necesario, puesto que
www.GitsInformatica.com _________________________ Seguridad Informática – Computación y Criptografía Cuántica
puede hacerse el experimento con luz blanca. Además, ambos han de tener polarizaciones no
perpendiculares. En el experimento de Young esto se consigue al hacer pasar el haz por la
primera rendija, produciendo una mutilación del frente de onda en dos frentes coherentes.
También es posible observar franjas de interferencia con luz natural. En este caso se observa
un máximo central blanco junto a otros máximos laterales de diferentes colores. Más allá, se
observa un fondo blanco uniforme. Este fondo no está formado realmente por luz blanca,
puesto que si, fijada una posición sobre la pantalla, se pone paralelo a la franja un
espectrómetro por el cual se hace pasar la luz, se observan alternadamente franjas oscuras y
brillantes. Esto se ha dado en llamar espectro acanalado. Las dos rendijas han de estar cerca
(unas 1000 veces la longitud de onda de la luz utilizada) o en otro caso el patrón de
interferencias sólo se forma muy cerca de las rendijas. La anchura de las rendijas es
normalmente algo más pequeña que la longitud de onda de la luz empleada permitiendo utilizar
las ondas como fuentes puntuales esféricas y reduciendo los efectos de difracción por una
única rendija.
Aquí se explica la importancia del observador... Después de todo este texto y el vídeo, lo que
se puede extraer referente al tema es que todo actúa en estado superpuesto hasta que un
observador lo "ve"... Es en ese momento en que todo ese mar de probabilidades se recude a
un único resultado, que es el estado físico que podemos apreciar... Las cosas se determinan
cuando se les "ve", y permitiéndole a ese observador el decidir qué es lo que va a resultar por
medio de cosas como la sincronía o la reducción de la carga cuántica, se puede alterar
cualquier cosa... Sin embargo, hay que considerar que el observador no se es solo uno, y al
menos en este planeta, hay cerca de 6.8 billones de observadores adicionales en el mundo...
Así que, uno no puede esperar que solo por saber cómo realizar una determinación de estado
puede pretender repetirlo frente a miles de personas que no creen que eso vaya a ocurrir, por
que, indudablemente, tus chances de lograrlo de esa forma son astronómicamente diminutas...
______________________________________
Encontrará más documentos en la Sección de Descargas de Seguridad GITS Informática.
Gits mira por tus derechos. Gits es Pro-Vida.
Por razones ecológicas y económicas, imprima este documento solo si es necesario y, a ser posible, en papel reciclado.
Recomendamos la visualización de este documental: http://www.youtube.com/watch?v=SWRHxh6XepM.
Gracias por su colaboración con el medio ambiente.
Copyright (c) 2003. Gits Informática. All rights reserved.
Descargar