Se denominan rayos cósmicos primarios a las partículas

Anuncio
GUIÓN DEL LABORATORIO
CURSO 2005-2006
DETERMINACIÓN DEL FLUJO DE RAYOS CÓSMICOS
7.1. ¿QUÉ SON LOS RAYOS CÓSMICOS?
Nuestro planeta recibe constantemente una
lluvia de partículas cargadas. Cada segundo, 1000
partículas por metro cuadrado golpean las capas
más exteriores de la atmósfera terrestre. Este flujo
de partículas (llamado rayos cósmicos primarios),
proveniente en su mayoría de nuestra Galaxia,
consisten en un 90% de protones, 9% partículas alfa
(núcleos de helio) y el resto son núcleos más
pesados que el hidrógeno.
Tras interaccionar con un núcleo atmosférico (N,
O) producen una cascada de partículas compuesta
por rayos γ, electrones, positrones, muones,
neutrinos, hadrones, etc, que son los llamados rayos
cósmicos secundarios. Estos chubascos de rayos
cósmicos secundarios pueden alcanzar una
extensión de varios kilómetros cuadrados.
La mayoría de las partículas que alcanzan la superficie terrestre son muones
procedentes de interacciones nucleares y de las desintegraciones subsiguientes. Los
muones de energía superior a 0.2 GeV constituyen la componente dura de la radiación
cósmica secundaria, que es muy penetrante y puede medirse incluso en el interior de las
minas más profundas. El resto de los rayos cósmicos secundarios (fundamentalmente
electrones, positrones y γ) forman la llamada componente blanda.
CRONOLOGÍA DE LOS RAYOS CÓSMICOS
DE ALTA ENERGÍA
La historia de la investigación de los rayos
cósmicos es un relato romántico de aventura
científica. Durante tres cuartos de siglo,
investigadores de rayos cósmicos han escalado
montañas, flotado sobre globos de aire caliente y
viajado a los rincones lejanos de la tierra en su
pesquisa por entender a estas partículas que se
mueven velozmente desde el espacio. Sus
exploraciones han resuelto misterios científicos y
revelado muchos más. El Proyecto Pierre Auger
continúa la tradición al comenzar la búsqueda de la
fuente desconocida de los rayos cósmicos de la
más alta energía hasta ahora observados.
Se han observado rayos cósmicos
con energías entre 109 eV y 1020 eV. En este
rango, el "flujo" de rayos cósmicos parece
seguir una simple ley de potencia E-3. La
variación del flujo con la energía se conoce
como “Espectro de Energía". En la figura
7.1 puede observarse que el flujo de rayos
cósmicos disminuye rápidamente con la
energía y para energías mayores de 1019 eV
el flujo es menor que una partícula por
kilómetro cuadrado por año.
CRONOLOGÍA DE LOS RAYOS CÓSMICOS
DE ALTA ENERGÍA (continuación)
1912. En un globo a una altura de 5.000 metros
Victor Hess, el padre de la investigación de los
rayos cósmicos, descubrió una "radiación
penetrante'' proveniente del espacio. El suyo fue el
primero de muchos viajes audaces realizados por
los físicos para estudiar los rayos cósmicos.
1929. Usando la recién inventada cámara de
niebla, Dimitri Skobelzyn observó las primeras
huellas fantasmales dejadas por los rayos
cósmicos.
1932. Se desató un debate sobre la naturaleza de
los rayos cósmicos. Según una teoría de Robert
Millikan, ellos eran rayos gama del espacio, de allí
el nombre "rayos cósmicos''. Pero fue creciendo la
evidencia que los rayos cósmicos eran, en realidad,
en su mayoría partículas energéticas.
1933. Mientras observaba las trazas de rayos
cósmicos que pasaban a través de su cámara de
niebla, Carl Anderson descubrió la antimateria
bajo forma del anti-electrón, llamado más tarde
positrón. Un positrón es una partícula exactamente
igual al electrón pero con carga opuesta, positiva.
Figura 7.1.: Flujo de rayos cósmicos que llegan a la tierra
en función de su energía
En el rango de energía de 1012-1015 eV, los
rayos cósmicos que llegan al límite de la
atmósfera de la Tierra consisten en:
~50% protones
~25% partículas alpha
~13% núcleos de C/N/O
<1% electrones
<0.1% gammas
Además de los aceleradores de partículas,
los rayos cósmicos son la otra única fuente de
partículas y productos de reacciones nucleares
de alta energía. De hecho fueron la principal
hasta la década de 1950, dando lugar a
importantes descubrimientos y proporcionando
información sobre todo un conjunto de nuevas
partículas subatómicas, entre ellas el positrón
(la primera antipartícula observada) y el muón.
1937. Seth Neddermayer y Carl Anderson
descubrieron la partícula subatómica llamada
muón en los rayos cósmicos. El positrón y el muón
fueron los primeros de una serie de partículas
subatómicas descubiertas usando a los rayos
cósmicos, descubrimientos que dieron lugar a la
ciencia de la física de partículas elementales. Los
físicos de partículas usaron los rayos cósmicos
para su investigación hasta el surgimiento de los
aceleradores de partículas en los años cincuenta.
1938. Pierre Auger, quien había ubicado detectores
de partículas en las alturas de los Alpes, notó que
dos detectores colocados a muchos metros de
separación indicaron ambos la llegada de partículas
exactamente al mismo tiempo. Auger había
descubierto los "chubascos aéreos extendidos'',
lluvias de partículas subatómicas secundarias
causadas por la colisión de partículas primarias de
alta energía con moléculas de aire. Sobre la base de
sus mediciones, Auger concluyó que había
observado chubascos con energías de 1015 eV, diez
millones de veces más altas que cualquier conocida
antes.
1949. Enrico Fermi propuso una explicación para
la aceleración de los rayos cósmicos. En el
acelerador de "choque'' para los rayos cósmicos
imaginado por Fermi, los protones aumentan su
velocidad al rebotar sobre nubes magnéticas que se
mueven en el espacio. Se cree que estrellas que
explotan (supernovas) actúan como tales
aceleradores cósmicos, pero ellas solas no pueden
dar cuenta de los rayos cósmicos de la más alta
energía.
En ocasiones las partículas poseen energías
mucho mayores (1020 eV) que las alcanzables con
aceleradores, y su origen es aún objeto de intensa
investigación.
7.2. MEDIDA DEL FLUJO DE RAYOS
CÓSMICOS
A continuación se expone un montaje sencillo
para la determinación del flujo de rayos cósmicos.
El método consiste en medir el número de
coincidencias entre dos detectores de centelleo
colocados horizontalmente y separados una
Figura 7.2: Fotografía de uno de los vuelos de
pequeña distancia entre sí. El número de
Victor Hess.
coincidencias
medidas
será
directamente
proporcional al flujo total de partículas incidentes y dependerá de la geometría del
montaje experimental. Se utilizarán diversos espesores de plomo para blindar el detector
inferior contra la componente blanda de la radiación.
7.2.1. Descripción de los componentes
El dispositivo experimental consta básicamente de detectores de centelleo y de
elementos electrónicos. Por su parte, el detector de centelleo se compone de dos
elementos: plástico centelleador y fotomultiplicador.
1) Detector de centelleo
Cada uno de los dos detectores de centelleo
está constituido por un trozo de plástico
centelleador y un fotomultiplicador. Cuando una
partícula cargada atraviesa el material plástico en
el que hay diluidas sustancias activas, se produce
una cierta cantidad de luz. Dicha luz es
transmitida primero a través del plástico y luego
por unas guías de luz hasta la ventana del
fotomultiplicador.
En
el
interior
del
fotomultiplicador los fotones incidentes (del
orden de unas decenas a centenas) son
transformados en un pulso eléctrico de duración
típica de unos pocos nanosegundos (rise time)
que se transmite por los cables de salida.
CRONOLOGÍA DE LOS RAYOS CÓSMICOS
DE ALTA ENERGÍA (continuación)
1966. En los comienzos de los sesenta Arno
Penzias y Robert Wilson descubrieron que microondas de baja energía permean el universo.
Kenneth Greisen, Vadem Kuzmin y Georgi
Zatsepin señalaron que los rayos cósmicos de alta
energía interactuarían con el fondo de microondas. La interacción reduciría su energía, de
modo que las partículas que viajaran a través de
grandes distancias intergalácticas no podrían tener
enregías mayores de 5·1019 eV.
1991. El grupo de investigación de rayos cósmicos
Fly's Eye (Ojo de Mosca) en los Estados Unidos
observó un evento de rayo cósmico con una
energía de 3·1020 eV. Algunos eventos con
energías de 1020 eV habían sido encontrados en los
30 años anteriores, pero éste era claramente el más
energético.
2) Electrónica
Para contar las coincidencias entre pulsos
procedentes de los dos detectores de
centelleo usamos varios módulos electrónicos
que siguen el estándar NIM, esto es, unas
normas en cuanto a las características
mecánicas (dimensiones) y eléctricas de los
componentes y las señales. Los módulos que
se usan son los siguientes:
Fuente de alimentación
Discriminador
Unidad de coincidencias
Contadores
Generador de pulsos
Fan out
CRONOLOGÍA DE LOS RAYOS CÓSMICOS
DE ALTA ENERGÍA (continuación)
1994. El grupo AGASA en Japón presentó un
evento con energía de 2 x 1020 eV. Los eventos de
Fly's Eye y AGASA son mayores en energía que
cualquiera visto antes. ¿De dónde vienen estos dos
rayos cósmicos de alta energía? Ninguno parece
apuntar hacia un objeto astrofísico que pudiera
haberles impartido tales enormes energías.
1995. Un grupo internacional de investigadores
empieza a diseñar estudios para un nuevo
observatorio de rayos cósmicos, el Proyecto Pierre
Auger, denominado así en honor al descubridor de
los chubascos aéreos. El nuevo observatorio usará
un arreglo gigante de detectores para detectar y
medir grandes números de chubascos aéreos a
partir de los rayos cósmicos de más alta energía.
Trazando los rayos cósmicos de alta energía hacia
su fuente desconocida aumentará la comprensión
del origen y evolución del universo.
3) Descripción lógica
A continuación se describe brevemente el proceso seguido por los pulsos
procedentes de los detectores hasta el recuento de las coincidencias.
En primer lugar debemos separar las señales accidentales de los fotomultiplicadores
(producidas por ruido térmico en su interior o interacción de partículas de muy baja
energía en los centelleadores) de las producidas por partículas que depositan mayor
cantidad de energía, como es el caso de los muones cósmicos. Para ello se le exige a la
señal proveniente de los fotomultiplicadores que su amplitud sobrepase un cierto umbral
(puede fijarse en 40 mV). El módulo que ejecuta esta tarea es el discriminador, cuya
entrada es una señal analógica de amplitud y duración dependiente del proceso que haya
tenido lugar en el detector. A la salida del discriminador tenemos una señal lógica de
forma cuadrada con altura y duración estándar (20 ns) en el caso en que la señal de
entrada haya sobrepasado este umbral. Cada discriminador dispone de dos salidas. Una
de ellas se empleará para alimentar un contador que nos permite conocer el número de
pulsos procedentes de cada fotomultiplicador y la otra se dirigirá al módulo de
coincidencias.
Las coincidencias entre ambos detectores se evalúan mediante una unidad NIM de
coincidencias. Este módulo consta de varias entradas y una salida. Tendremos una señal
de salida cuando los pulsos de entrada se solapen al menos parcialmente en el tiempo.
Es obvio que la longitud de los cables que conectan los dos discriminadores y la unidad
de coincidencias debe ser la misma. Llevando la salida de este módulo a otro contador
podemos acumular el número de coincidencias en un espacio de tiempo. El número de
coincidencias registradas en un intervalo de tiempo fijo obedece a la estadística de
Poisson, lo que deberá tenerse en cuenta a la hora de realizar los cálculos con las
medidas obtenidas. Concretamente a la hora de calcular la incertidumbre del estimador
del número medio de coincidencias, n (número de coincidencias medido), que viene
dada por n por tratarse de un fenómeno aleatorio que obedece a la estadística de Poisson.
Además de este montaje básico, existe uno adicional que llamaremos
"temporizador" que nos ayudará a controlar el tiempo de medida, compuesto por un
generador de pulsos, un contador con posibilidad de preselección de tiempo y un fanout
(que es un módulo que reproduce señales eléctricas). Cuando el contador alimentado
por el generador de pulsos alcanza la cantidad preseleccionada produce una señal de
desbordamiento (overflow) que una vez triplicada en el módulo fanout alimenta las
entradas de validación de los otros contadores, parándolos.
Figura 7.3: Esquema del montaje
7.2.2. Toma de datos
El objetivo es medir el número de coincidencias de ambos detectores blindando el
detector inferior con diferentes espesores de plomo, como pueden ser: 0, 0.2, 0.4, 0.6,
0.8, 5 y 10 cm. Para ello se colocan las láminas (o ladrillos, dependiendo del espesor) de
plomo sobre el soporte metálico que rodea el detector inferior, nunca sobre el plástico.
Figura 7.4: Esquema de cómo colocar el plomo
En cada caso se tomará como tiempo de medida 15 minutos (9·105 milisegundos en
el módulo contador que usamos como temporizador). En la primera ocasión conviene
medir con un reloj (una precisión de segundos es suficiente) el tiempo que tarda en
pararse la toma de datos, ya que el temporizador puede no estar bien calibrado. El
tiempo de las demás medidas será igual a éste y es el que debe usarse en los cálculos.
Es muy aconsejable obtener más medidas (en caso de que se disponga de tiempo)
para otros espesores intermedios y mayores (7.4 cm y 15 cm, por ejemplo), ya que a
partir de ellas se realizarán ajustes que se detallan en el apartado 4 de esta sección, cuya
fiabilidad y precisión dependen de estas medidas.
7.2.3. Estimación de las coincidencias espurias
Se debe calcular la probabilidad de observar coincidencias espurias, debidas al azar,
dados los ritmos de detección de ambos contadores, y la duración de los pulsos lógicos
que han de solaparse (20 ns). Es suficiente hacer este cálculo para la primera medida,
sin blindaje (se obtendrá un número muy pequeño, y en el caso de medidas con
blindajes sería todavía menor). Un modo de hacer la estimación es con la siguiente
expresión:
n = (n1 – n12)(n2 – n12)(l1 + l2)
Siendo n el número de coincidencias aleatorias por unidad de tiempo, n1 y n2 el
número de pulsos por unidad de tiempo que se da en cada detector, l1 y l2 la duración de
los pulsos respectivos (en nuestro caso 20 ns), y n12 el número de coincidencias
auténticas por unidad de tiempo. La justificación de esta fórmula es la siguiente:
El último factor, que expresa la dependencia de n con la duración de las señales de 1
y 2 debe tener esa forma de suma, ya que dada una señal del detector 1 y una señal del
detector 2, mientras que la suma l1 + l2 sea la misma, la probabilidad de que coincidan
ambos pulsos es la misma, independientemente de lo que valgan por separado l1 y l2
(estamos suponiendo que sólo se pueden dar coincidencias simples, o lo que es lo
mismo, que la probabilidad de que se den dos pulsos en uno de los detectores separados
por menos de 20 ns es despreciable, de modo que no podemos tener un pulso en un
detector que solapa con 2 pulsos del otro):
Figura 7.5: Esquema de las coincidencias espurias - dependencia de n con la duración de las señales
En realidad esto no es estrictamente cierto, pero cuanto menor es el tamaño de los
pulsos en relación con el tiempo de medida se comete menos error.
Por otro lado, en la fórmula deben jugar papeles idénticos las señales procedentes
del detector 1 y las del detector 2, ya que nada los distingue; vemos que eso lo cumple
(es simétrica en 1 y en 2). Además, basándonos en que la fracción del tiempo de medida
ocupada por pulsos es muy pequeña, podemos aproximar y suponer que lo que le ocurra
a un pulso dado es completamente independiente de los demás pulsos, se obtendría el
mismo resultado (la misma probabilidad de coincidencia) si no estuvieran los demás
pulsos. Esto se traduce en que n debe ser directamente proporcional al número de pulsos
por unidad de tiempo en el detector 1 que pueden dar lugar a una coincidencia aleatoria.
De esto da cuenta el primer factor. El segundo factor da cuenta de que de modo
independiente, y por la misma razón, n también es muy aproximadamente proporcional
al número de pulsos por unidad de tiempo en el detector 2 que pueden dar lugar a una
coincidencia aleatoria.
Como n ya no puede depender de más variables lo único que podría faltar sería otro
factor constante, pero es la unidad, puesto que suponiendo que n1 – n12 = n2 – n12 = 1
(sólo hay 1 pulso por unidad de tiempo en cada contador que puede dar lugar a una
coincidencia aleatoria), dicha probabilidad es simplemente n = l1 + l2 ( sería el
cociente n=(l1+l2)/(tiempo total de medida), pero como por definición de n tomamos
este tiempo como la unidad de tiempo, se reduce a n = l1 + l2) .
7.2.4. Determinación de la componente dura de las coincidencias
Si se representa en una gráfica el número de coincidencias frente al espesor x del
blindaje de plomo, se obtendrá un número progresivamente menor, debido al principio
sobre todo a la absorción de la componente blanda por parte del plomo (caída brusca),
siendo luego causada sólo por la absorción de la componente dura (caída suave), una
vez que la blanda ha sido completamente absorbida. Se puede, por tanto, determinar por
extrapolación el número de coincidencias debidas a la componente dura en el caso x = 0.
Para ello hemos de tener en cuenta que dado un flujo de partículas de cierta energía
cinética, el número de partículas que pasa espesores crecientes de plomo seguirá
típicamente una exponencial decreciente. La absorción también dependerá de la
naturaleza de las partículas. En nuestro caso tenemos el flujo dividido en dos partes
distintas, la dura, compuesta por muones, muy energética y muy penetrante, y la blanda,
menos energética y poco penetrante. Ambas componentes se puede considerar que
tienen una energía bastante bien definida, con lo que deberíamos ajustar los puntos
obtenidos a la suma de dos exponenciales decrecientes:
f(x) = A1e-x/b1 + A2e-x/b2 ;
la que decaiga más lentamente corresponde a la componente dura (la primera
exponencial, por ejemplo), cuyo valor queremos conocer antes de que empiece a
atravesar el plomo, para poder calcular el flujo que llega al detector de arriba. Este valor
es por tanto el correspondiente a espesor x = 0, A1.
No es necesario hacer este ajuste para estimar con bastante precisión A1 , ya que en
un rango de datos adecuado f(x) se comporta aproximadamente como una recta, cuya
ordenada en el origen es precisamente A1. Veamos por qué: tenemos
f(x) = A1e-x/b1 + A2e-x/b2 ,
con b2 << b1 (la componente blanda 2 decae mucho más rápidamente que la dura 1),
y además A2 ≈ A1 (se observa en los datos tabulados y al ajustar los datos
experimentales; de hecho A1 es mayor que A2 ). Por tanto para b2 << x << b1 se tiene
que A2e-x/b2 ≈ 0 y que
f(x) ≈ A1 (1- x / b1 ) = A1 – (A1 / b1 )x
Con nuestro dispositivo experimental resulta que se toman los datos en el rango de
distancias x adecuado, del orden de 10 cm, donde se verifica que b2 << x << b1 , y por
tanto los valores correspondientes a distancias de ese orden (donde se observa que el
decaimiento se ha suavizado mucho) se pueden usar para realizar un ajuste lineal y
obtener el valor de la componente dura a espesor x = 0 , A1.
En cualquier caso, como del ajuste lineal podemos deducir b1, podemos comprobar
que la aproximación lineal a la exponencial es buena viendo que los valores xi
manejados para realizar el ajuste verifican siempre que xi << b1.
7.2.5. Cálculo de Iν
Una vez calculado el número de muones que atraviesan ambos detectores (flujo de
muones a través de ambos detectores) por unidad de tiempo, se puede calcular el flujo
por unidad de ángulo sólido, por unidad horizontal de área y por unidad de tiempo en la
dirección vertical, J(θ = 0, φ) (θ = ángulo cenital, φ = ángulo azimutal), llamado Iν.
Como con este montaje no se mide directamente J(θ = 0, φ), sino el flujo total de los
muones que logran atravesar simultáneamente los dos centelleadores, para poder
calcular este valor hay que conocer cómo varía con el ángulo cenital (θ) el flujo de
muones por unidad de ángulo sólido, por unidad de tiempo y de superficie orientada en
θyφ:
J(θ, φ) = A· cos2 (θ)
Donde A es una constante y vemos que es igual al valor que toma J(θ, φ) cuando θ
= 0, es decir;
A = J(θ = 0, φ) = Iν
Por lo tanto:
J(θ, φ) = Iν · cos21 (θ)
Esta dependencia con θ es debida a la absorción de los rayos cósmicos por parte de
la atmósfera.
Cuando se dice que el flujo es por unidad de superficie orientada significa que éste
es el flujo que se mide cuando se sitúa la superficie de área unidad que es atravesada por
los muones con su normal en la dirección del flujo (es decir, se va orientando la
superficie conforme se mide el flujo proveniente de distintas direcciones, de modo que
el flujo a medir siempre incide normalmente sobre la misma). Si se tiene este dato y se
quiere saber cuál es el flujo que atravesará, proveniente de la dirección (θ, φ), una
superficie horizontal de área unidad, habrá que multiplicar por un factor cos(θ) asociado
a que nuestra superficie no orientada ofrece un área de impacto menor que la orientada:
Jsuperficie horizontal unitaria (θ, φ) = J(θ, φ)·cos(θ)
Cuando se dice que el flujo es por unidad de ángulo sólido, se entiende lo siguiente:
si se observa el flujo sobre la superficie horizontal unitaria proveniente de un pequeño
entorno de direcciones dado en coordenadas esféricas por (θ,θ + dθ), (φ,φ + dφ) (que
tiene asociado un diferencial de ángulo sólido dΩ = sen(θ)dθdφ), el resultado será:
Jsuperficie horizontal unitaria (θ, φ)·sen(θ)dθdφ = J(θ, φ)·cos(θ)·sen(θ)dθdφ
Si se quiere calcular el flujo proveniente de todo un conjunto de direcciones, dado
por un intervalo (θ1,θ2 )×(φ1,φ2), no hay más que integrar la expresión previa a dicho
intervalo. Haciéndolo hasta θ = π/2, para todo φ y para el área del detector superior,
obtenemos el número total de muones que inciden sobre éste por unidad de tiempo (en
función de Iν).
Para determinar la relación entre el número total de muones que inciden sobre el
detector superior y el de muones que atraviesan ambos detectores se realiza una
simulación Montecarlo del montaje experimental, lo que nos permitirá finalmente
calcular Iν a partir del valor que tenemos del número de coincidencias debidas a la
componente dura, calculado en el anterior apartado. Debe calcularse también la
incertidumbre en el valor de Iν y especificar las fuentes de ésta.
Valores típicos que se obtienen haciendo la simulación Montecarlo son, en función
de a y b, lados mayor y menor de los detectores, y de la separación h entre ambos:
7.2.6. Comparación del resultado experimental con los valores tabulados
Conviene comparar los resultados experimentales con valores tabulados, como por
ejemplo los siguientes (del Review of Particle Properties Physical Review D54, parte 1,
1996):
Siendo: Iν nuestra J (θ = 0,φ), flujo proveniente de la dirección vertical por unidad
de ángulo sólido por unidad horizontal de área, J1 el flujo total que desde arriba atraviesa la
unidad horizontal de área,
J1 =
π
π
2 2π
2 2π
∫ ∫ J (θ , ϕ ) cosθ dθ dϕ
0 0
y
J 2 = ∫ ∫ J (θ , ϕ ) senθ dθ dϕ
0 0
que corresponde, dada una semiesfera de radio R, al flujo de aquellos muones que tras
atravesar la superficie semiesférica pasan por el centro de la semiesfera (es decir, aquellos
que inciden normalmente a la superficie), dividido por la superficie, 2πR2 :
J2 =
flujo de muones que atraviesan normalmente la superficie semiesférica de radio R
2πR 2
Por tanto sólo contamos los muones que pasan por el centro:
APÉNDICE 1
1.- No existencia de coincidencias múltiples
Queremos calcular la probabilidad de tener 2 pulsos separados por menos de 20 ns. Esto
equivale a calcular la probabilidad de que en un tiempo T = 20 ns haya al menos un
pulso. Durante el tiempo que tomamos medidas podemos suponer el flujo de rayos
cósmicos como constante, caracterizado por una frecuencia media de N pulsos
detectados / s . En nuestro caso se contabilizan del orden de 20 pulsos / s . También
podemos suponer que la distribución de frecuencias n es una normal, de media N y
( n − N )2
−
1
2
e 2σ dn es la probabilidad de que
desviación típica desconocida σ : dP(n ) =
σ 2π
la frecuencia de detección medida corresponda al intervalo (n, n + dn).
Esto corresponde a la unidad de tiempo (1s). La distribución de frecuencias para un
intervalo de tiempo T viene dada entonces por otra gaussiana con σ (T) = (T / 1s) · σ ,
N(T) =(T / 1s) · N , y ahora nos preguntamos por la probabilidad de que n (T) ≥ 1. Será
el área de la cola de la gaussiana a partir de n (T) = 1. Por otro lado, por ser una
gaussiana se cumple que la probabilidad de que n (T) ≥ N(T) + 3.62 σ (T) es 0.0001.
Por tanto, si 1 ≥ N(T) + 3.62 σ (T) podemos concluir que la probabilidad buscada es
despreciable. ¿Cuánto vale σ en relación con N? Como en nuestro caso la variable n es
siempre positiva, la media N será positiva, y σ ≤ N. Además N(T) = (T / 1s) · N ≈
20·10-9 · 20 = 4 · 10-7 , por lo que N(T) + 3.62 σ (T) ≤ N(T) + 3.62 N(T) ≈ 10-6 << 1.
Esto significa que el valor n (T) = 1 está alejadísimo de la media, en la escala de
desviaciones típicas σ , y por eso la probabilidad de que haya un pulso en un intervalo
de 20 ns es despreciable (menor de 0.0001 según lo calculado), y podemos considerar
que no se dan coincidencias múltiples.
2.- Probabilidad de solapamiento de 2 pulsos
APÉNDICE 2
SIMULACIÓN MONTECARLO
1.- Papel que juega en el cálculo de Iν
Conociendo el flujo de muones, el número de coincidencias registrado por nuestro
montaje por unidad de tiempo podría predecirse integrando la expresión (1) sobre la
superficie del detector superior, y para todas las direcciones (θ,φ) tales que la trayectoria
del muón intersecte ambos centelleadores. La expresión (1) tiene simetría cilíndrica,
mientras que la geometría del detector se expresa de manera sencilla sólo en
coordenadas cartesianas, lo que complica considerablemente el cálculo. Por esta razón
es preferible realizar el cálculo mediante una simulación por ordenador del montaje
experimental, siguiendo el método llamado Montecarlo. Para ello generaremos de
manera aleatoria trayectorias de muones que incidan sobre el centelleador superior y
determinaremos, qué fracción fMC de éstas intersecta también el detector inferior (la
determinación será tanto más precisa cuanto mayor sea el número de trayectorias
simuladas). Los puntos de impacto sobre el detector superior deben generarse de manera
aleatoria y uniforme, al igual que los ángulos acimutales φ, a la vista de la expresión (1).
Los ángulos cenitales θ deben generarse también de forma aleatoria, pero no uniforme,
sino siguiendo la distribución que indica (1). Para realizar la simulación es preciso
medir las dimensiones del montaje real (superficie de los centelleadores y distancia
entre éstos).
Una vez conocida la fracción fMC de trayectorias posibles que intersectan ambos
detectores, obtendremos el número de coincidencias (en función de Iν) multiplicando
fMC por el número de muones que llegan al detector superior, que se obtiene integrando
(1) entre θ = 0 y π/2. Esta integral sí puede realizarse de manera analítica. Comparando
la expresión obtenida con el número de coincidencias medido podemos obtener Iν.
2.- Cómo obtener un generador de números aleatorios
Este apéndice trata de explicar cómo obtener un generador de números aleatorios que
responda a una distribución conocida a partir de una uniforme.
Casi todos los ordenadores y lenguajes de programación, poseen un generador
intrínseco de números pseudo-aleatorios uniformes en el intervalo 0, 1. Quisiéramos
pues, aprovechar este generador para obtener números aleatorios que sigan otra
distribución.
Sea f (x) la densidad de probabilidad que queremos generar y F (x) su función de
distribucion, definida como
F ( x) =
∫
x
a
f ( x)dx
(donde a es el origen inferior en el que está definido f(x), por ejemplo, para una
gaussiana a = -∞).
Se puede demostrar que la variable aleatoria r definida como:
r = F (x)
está distribuida uniformemente (véase la demostración al final del apartado). Esta
propiedad puede usarse para obtener nuestro generador.
Para obtener un número aleatorio que siga nuestra distribución, llamaremos al generador
de nuestro ordenador, que nos proporcionará un número r. Calcularemos x = F-1 (r) , y
ya tenemos el número que buscamos (x, que sigue la distribución f (x)).
EJEMPLO
Supongamos que queremos un generador con f (x) = e-x .
Figura 1: Ejemplo
1)
Calculemos:
F ( x) =
2)
∫
x
0
x
f ( x)dx = ∫ e − x dx = 1 − e − x
0
→ x = − ln(1 − r )
Lo igualamos al número aleatorio uniforme r = 1 − e − x
3)
Para obtener números aleatorios x que sigan una distribución f (x) = e-x ,
llamamos a nuestro generador uniforme y calculamos x con la fórmula anterior.
* Demostración de que r = F (x) está distribuida uniformemente:
 f ( x) : [a, b] → ℜ

b
Queremos generar puntos según una distribución f (x), con 
.
f ( x) ≥ 0 , ∫ f ( x)dx = 1

a

x
dF ( x)
Tenemos F ( x) = ∫ f ( x' )dx' →
= f ( x) . Si tenemos una función cualquiera
a
dx
G(x) cuyo valor medio queremos calcular hallaremos G ( x) =
b
∫ G( x' ) f ( x' )dx' , pero
a
haciendo el cambio de variable de x a F(x), se tiene
1
b
dF ( x)
dF =
dx = f ( x)dx , F ( x = a ) = 0 , F ( x = b) = 1 → ∫ G ( x' ) f ( x' )dx' = ∫ G ( F )dF
a
dx
0
, por lo que vemos que cuando expresamos las funciones en términos de la variable F, la
distribución de probabilidad asociada a F es la distribución uniforme, que vale 1 en el
intervalo [0,1], es decir, F está distribuida uniformemente.
3.- Generador de números gaussianos
Queremos ahora generar números aleatorios distribuidos según una gaussiana de media
0 y sigma 1. Podríamos intentar aplicar el método anterior, pero fracasaríamos ya que la
gaussiana no es integrable analíticamente y por lo tanto no podríamos obtener una
fórmula para F (x). Sin embargo existen otras técnicas que no explicaremos en detalle.
Damos a continuación un método práctico para obtenerlos:
1)
Obtener dos números aleatorios de una distribución uniforme u y v
x = − 2 ln u cos(2π v )
2)
Calcular:
y = − 2 ln u sin (2π v )
3)
x e y así calculados son dos números aleatorios independientes que siguen una
distribución gaussiana (de media 0, varianza 1)
Este método es exacto y fácil de programar, pero tiene la desventaja de que no es muy
rápido debido al cálculo del logaritmo, seno y coseno.
El siguiente algoritmo es una mejora a este método:
1)
Generar dos números aleatorios uniformes u y v
2)
Calcular w = (2u – 1)2 + (2v – 1)2
3)
Si w > 1 ir a 1)
ln w
4)
Devolver x = uz e y = vz, con z = − 2
w
Esta variación elimina el seno y el coseno a expensas de un rechazo del ≈ 21% en el
paso 3.
Para saber algo más sobre los métodos de Montecarlo:
http://www.physics.carleton.ca/courses/75.502/slides/intro/index.html
4.- Alternativas al uso de la simulación Montecarlo
Supongamos que hacemos la siguiente aproximación para calcular la fracción f de
muones que, antes de atravesar el panel de abajo, atraviesan también el panel de arriba:
Tenemos los dos paneles (detectores) y tomamos una pequeña área A en el inferior, de
acuerdo con el siguiente esquema:
De todos los muones que atraviesan el área A tan sólo una fracción f habrá atravesado la
placa superior. Si tomamos una esfera centrada en A de radio h y suponemos que el
flujo es aproximadamente isotrópico, podemos estimar f como:
área panel arriba área panel arriba
f =
=
área semiesfera
2Πh 2
Donde también se ha cometido un error por no formar parte exactamente la superficie
del panel de la esfera, y por no depender f del área A escogida.
¿Cuál es la validez de esta aproximación? A continuación comparamos, para unos
paneles dados y un rango de distancias h, lo que se obtiene con esta aproximación con
lo que se obtiene con un método Montecarlo que supone flujo isotrópico (lo cual nos
permite saber el error que se comete por no formar el panel parte de la superficie de la
esfera), y con otro que supone el flujo proporcional a cos2(θ) (así sabemos el error
global que se comete con la estimación). Asimismo se compararán los dos Montecarlo
para saber la influencia de la hipótesis de isotropía del flujo en función de la distancia, y
por último se hará un pequeño análisis de la influencia de la geometría del dispositivo.
De momento tomamos los paneles de dimensiones fijas, a = 28 cm y b = 10 cm, y
vamos variando h desde h = 0.11 cm (paneles casi pegados) hasta h = 1378 cm (paneles
muy alejados entre sí), y los supondremos en todo momento con sus normales
orientadas en la dirección vertical, θ = 0. Comenzamos viendo la influencia de la
isotropía del flujo comparando los dos Montecarlo. La comparación consiste en ver la
diferencia relativa (en %) entre las fracciones obtenidas por ambos métodos, definida
f MC uniforme − f MC cos 2 θ
por Fracción relativa 1(% ) = 100 ⋅
:
f MC cos 2 θ
Diferencia relativa entre Mcunif y Mccos^2 vs h
6000
Diferencia relativa (%)
5000
4000
3000
2000
1000
0
-1000
0
200
400
600
800
h (cm)
1000
1200
1400
1600
Diferencia relativa a distancias típicas
Diferencia relativa (%)
50
40
30
20
10
0
-10 0
10
20
30
40
50
60
-20
-30
-40
h (cm)
Vemos que para estos paneles en concreto (con esas dimensiones) existe un rango de
distancias h, entre 20 y 30 cm, para los que el error es mínimo, y es tolerable, de
aproximadamente un 3 % ( por otro lado, como a distancias muy pequeñas cualquier
distribución angular del flujo dará prácticamente f = 100 % , se comete poco error
suponiendo isotropía, pero estas distancias son incompatibles con nuestro método
experimental, que requiere una separación mínima para introducir las planchas de
plomo para deducir la componente dura, así que no nos fijamos en ellas). Fuera de ese
rango los errores son muy grandes (de hecho se hacen enormes para distancias mayores),
y la aproximación de isotropía no es válida.
Ahora comparamos la estimación con el Montecarlo que supone una distribución
angular del flujo uniforme, viendo en función de la distancia h la fracción
f estimación − f MC uniforme
Fracción relativa 2 (% ) = 100 ⋅
, así sabremos el error cometido por
f MC uniforme
suponer que la superficie del panel superior forma parte de la esfera:
Diferencia relativa MCuniforme-aproximación en
la zona de interés
200
Diferencia relativa (%)
150
100
50
0
0
20
40
60
80
100
120
140
-50
-100
-150
h (cm)
Vemos en primer lugar que la aproximación es una aproximación muy fuerte, ya que
sólo para un rango de distancias pequeño en torno a h = 12 cm el error cometido es
pequeño (menor de un 10 %). Cuando h tiende a 0 la diferencia se dispara (el resultado
correcto es f = 1 , pero la estimación hace tender f a infinito), y cuando h tiende a
infinito también (la estimación de f decrece más rápido con h que en el caso de
Montecarlo uniforme, por eso la diferencia relativa tiende a -100 %). Nótese que el
rango de distancias en que la aproximación no es muy incorrecta es bastante parecido al
que se observó en la comparación entre los dos Montecarlos. Esto se refleja al comparar
directamente la estimación con el Montecarlo que tiene en cuenta que el flujo no es
f estimación − f MC cos 2 θ
:
isotrópico, siendo ahora Fracción relativa3 (% ) = 100 ⋅
f MC cos 2 θ
Diferencia relativa MCcos^2-aproximación
150
Diferencia relativa (%)
100
50
0
0
20
40
60
80
100
120
-50
-100
h (cm)
Hay una zona en el entorno de h = 9.5 cm, (8.85 cm, 10.65 cm), en el cual la
estimación coincide muy bien con el factor f desconocido, pero vemos que enseguida es
incorrecta, dando para distancias mayores un resultado del factor f que es
aproximadamente 1/3 del valor real.
Ahora veamos la influencia de la geometría de las placas, tomando ambos lados a y b de
10 cm de longitud. Los resultados que se obtienen son los siguientes:
f MC uniforme − f MC cos 2 θ
:
Fracción relativa 1(% ) = 100 ⋅
f MC cos 2 θ
Diferencia relativa entre Mcunif y Mccos^2 vs h
6000
Diferencia relativa (%)
5000
4000
3000
2000
1000
0
0
200
400
600
800
-1000
h (cm)
1000
1200
1400
1600
Diferencia relativa a distancias típicas
160
Diferencia relativa (%)
140
120
100
80
60
40
20
0
-20 0
10
20
30
40
50
60
-40
h (cm)
Fracción relativa 2 (% ) = 100 ⋅
f estimación − f MC uniforme
f MC uniforme
:
Diferencia relativa MCuniforme-aproximación en
la zona de interés
250
Diferencia relativa (%)
200
150
100
50
0
-50
0
20
40
60
80
100
-100
-150
h (cm)
Fracción relativa3 (% ) = 100 ⋅
f estimación − f MC cos 2 θ
f MC cos 2 θ
:
120
140
Diferencia relativa MCcos^2-aproximación
200
Diferencia relativa (%)
150
100
50
0
0
20
40
60
80
100
120
-50
h (cm)
Comparando las gráficas correspondientes a las dos geometrías de las placas vemos que
presentan claras diferencias, lo que refleja la importancia de la geometría de las mismas
(y de la medida de las dimensiones en el caso de nuestro experimento, para minimizar
errores). En este segundo caso la estimación resulta óptima para h = 14.5 cm, y para
distancias mayores se subestima la fracción f en un rango amplio de h’s en torno a un 30
% (error aceptable sólo si de lo que se trata es de hallar el orden de magnitud del flujo).
Por último conviene reseñar un punto: a la hora de ver en qué rango de distancias h la
estimación es buena lo que importa realmente es ver, para ese rango, el cociente h/a ó
h/b, ya que si tomamos otras placas que sean exactamente como las originales, pero x
veces mayores, se obtendrá que el rango óptimo de h’s es el original multiplicado por x,
manteniéndose el cociente h/a ó h/b constante. Es decir, la validez de la aproximación es
la misma aunque cambiemos la escala del conjunto placas + distancia h que las separa.
Si por ejemplo se toman las placas cuadradas de lado 1 cm, la estimación será óptima
para una distancia h = 1.45 cm .
El interés de una aproximación es función del rango de aplicabilidad de la misma, y en
este caso la estimación vemos que tiene unos rangos pequeños, con lo cual es de poca
utilidad y habría que acudir a otra estimación que fuera fiable para un rango de datos
mucho mayor.
Descargar