Física de Altas Energías y Física Teórica

Anuncio
Simposio de
Física de Altas Energías
y Física Teórica
XXXII Reunión Bienal de la Real Sociedad Española de Física
Medida de las propiedades de la energía oscura usando BAO
en cartografiados fotométricos de galaxias
A. Carnero Rosell1, E. Sánchez Álvaro1, J. Rodríguez Calonge1 y J. García-Bellido2
1
2
Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas, 28040, Madrid.
Instituto de Física Teórica, Universidad Autónoma de Madrid, Cantoblanco, 28049, Madrid.
En esta contribución se presenta un estudio de las capacidades de los cartografiados extensos de galaxias para determinar las propiedades de la energía oscura utilizando fotometría
para medir los corrimientos al rojo de las galaxias. La escala de las oscilaciones acústicas
de los bariones, medida en dichos cartografiados, se utiliza como un “Standard ruler” para
obtener información sobre la evolución dinámica del Universo y en consecuencia sobre el
contenido y naturaleza de la energía oscura.
Las características de las oscilaciones acústicas de bariones en el plasma primordial es una
de las predicciones más claras del modelo estándar cosmológico, basada en leyes físicas bien
conocidas. Estas oscilaciones han sido detectadas en la radiación de fondo de microondas
y en la distribución a gran escala de galaxias, tal y como predecía el modelo cosmológico.
Estas ondas sonoras provocan un exceso
de concentración de materia a una distancia comóvil de alrededor de 100 Mpc/h.
Este exceso de materia se detecta como un
pico en la función de correlación a 2 puntos de la distribución de galaxias. En este
trabajo se presenta un método de análisis
para medir con precisión la posición del
pico bariónico (BAO en adelante) en función de la distancia, y utilizar esta medida
como observable para estudiar las propiedades de la energía oscura.
El método consiste en parametrizar la
función de correlación angular en torno
al pico bariónico por una función genérica que nos permita extraer la escala BAO
con precisión. Este método ha sido proba- Figura 1. Posición angular de la escala BAO en fundo en funciones de correlación teóricas, ción de z para la simulación MICE.
y más especialmente sobre la simulación
MICE [1]. Para ello hemos dividido la simulación en 18 bines de corrimiento al rojo (z) desde
z = 0,32 hasta z = 1,40 con un grosor fijo de Δz = 0,06. Los errores en la determinación fotométrica de z son simulados como una distribución normal centrada en cero y de dispersión
0,03(1+z), el error esperado en un survey fotométrico de 5 filtros grizY, como el “Dark Energy
Survey” (DES) [2], para galaxias luminosas rojas (LRG). La función de correlación se ha obtenido usando el estimador de Landy-Szalay [3]. Una vez obtenida la función de correlación
angular para 18 bines de z, parametrizamos la función alrededor del pico acústico y extraemos la escala asociada.
En el estudio somos capaces de recuperar la escala acústica para los 18 bines de z (Figura
1). Hemos comprobado que los errores estadísticos asociados a la determinación serán mucho
menores que los errores sistemáticos del método. Los errores sistemáticos más importantes
183
Simposio de Física de Altas Energías y Física Teórica
son: El Sesgo producido por la proyección
a 2D de la función de correlación en el espacio real y la dispersión introducida por
los errores fotométricos en la determinación de z. Otros sistemáticos han sido estudiados también, como son el efecto del
estimador elegido o los efectos de las no
linealidades en el modelo teórico.
Una vez obtenida la escala acústica a
distintos z, podemos utilizar la medida
como una “standard ruler“ para ajustar
a los parámetros cosmológicos. Con este
análisis se recuperan los valores de la cosmología de la simulación MICE. La región
permitida para los parámetros cosmológicos al 90%, 95% y 99% de nivel de confian- Figura 2. Intervalos de confianza para w y Ωm en la
za se muestra en la Figura 2. Otra de las simulación MICE.
consecuencias importantes de este estudio ha sido ver que, aunque este método es capaz de acotar los valores de w (el parámetro de
la ecuación de estado de la energía oscura) por si solo, presenta una gran degeneración entre
los valores de w y Ωm, lo que hace indispensable la sinergia con otros métodos si queremos
llegar al nivel de precisión requerido por futuros cartografiados como es DES.
En este análisis hemos visto que el estudio de las oscilaciones acústicas de bariones en
cartografiados extensos de galaxias usando z fotométricos es un valioso método para obtener
valores precisos del parámetro de la ecuación de estado de la energía oscura, especialmente
cuando se complementa con otros métodos independientes. En este sentido, la precisión que
se puede conseguir dependerá en gran medida de la incertidumbre fotométrica del catálogo
de galaxias.
Referencias
[1] P.Fosalba, E.Gaztanaga, F.Castander, M.Manera, MNRAS 391 (2008) 435-446.
[2] http://www.darkenergysurvey.org.
[3] S.Landy, A.Szalay, ApJ 412 (1993) 64-71.
184
XXXII Reunión Bienal de la Real Sociedad Española de Física
La estrategia Muón más Traza para el trigger
de alto nivel del experimento LHCb
A. Pérez-Calero
Departamento de Estructura y Constituyentes de la Materia, Universidad de Barcelona, Av. Diagonal 647,
08028 Barcelona.1 [email protected]
El detector LHCb [1], instalado en el LHC del CERN, estará dotado de mecanismos de
selección para aquellos sucesos de interacción protón-protón en los que, como producto, se
obtengan mesones B. La medida de las frecuencias y otras propiedades de los procesos de
desintegración de estas partículas hará posible estudiar la ruptura de la simetría entre materia y antimateria (CP), y poner a prueba las predicciones de ciertas extensiones del Modelo
Estándar, como algunos modelos de Supersimetría.
Para este propósito, el llamado trigger [2] (disparador) del experimento LHCb ha sido
diseñado en dos niveles. El primero de ellos (L0) consta de ciertos componentes electrónicos
diseñados de modo que reducirá la frecuencia de lectura de información del detector desde
la correspondiente al cruce entre los haces de protones (40 MHz) a aquella aceptable por el
sistema de adquisición de datos del detector (1 MHz), descartando aquellos sucesos con baja
probabilidad de contener procesos relevantes. Para ello, se basará en la presencia de candidatos de alto momento o energía transversos en el calorímetro y en las cámaras de muones.
El segundo nivel, denominado alto nivel o HLT (del inglés High Level Trigger) está implementado en algoritmos informáticos, que procesan la información procedente de todo el
detector. Decidirá finalmente si cada suceso es guardado, de forma que se espera que su tasa
de salida, tras filtrar aquellos que proceden del primer nivel, sea de unos 2 kHz. Estos algoritmos, que se ejecutarán en unos cerca de 2000 procesadores, dispondrán de toda la información que el detector pueda proporcionar. Sin embargo, deberán tomar su decisión utilizando
y procesando la menor cantidad de información posible, de modo que sean muy rápidos y
eficientes.
El HLT consta a su vez de dos etapas, una primera a alta frecuencia (reduciendo de 1 MHz
de entrada a unos 30 kHz de salida) en la que fundamentalmente se realiza la confirmación de
la decisión tomada en el nivel anterior con los detectores de trazas y de vértices. Para ello se
ejecutan algoritmos de reconstrucción parcial del suceso, buscándose trazas que apunten a los
candidatos del L0. Sobre estas trazas y otras cercanas producidas en la misma desintegración,
se podrán aplicar nuevos filtros en los que se basará la decisión de este nivel (HLT1).
A continuación se lleva a cabo la reconstrucción completa del suceso, sobre la que se pueden aplicar diferentes estrategias de selección, con distinto grado de exclusividad, y que permiten reducir finalmente la frecuencia de salida hasta unos 2 kHz (HLT2).
En ambos niveles podemos encontrar secuencias de filtrado independientes, que serán
ejecutadas en paralelo, y que estarán diseñadas según diferentes estrategias para poder retener sucesos interesantes según haya presencia de hadrones, electrones, fotones o muones en
cada desintegración.
La estrategia basada en un muón más una traza compañera tiene como objetivo seleccionar sucesos genéricos del tipo B→μX. Este tipo de sucesos incluye algunos de los más
importantes para el programa de Física de LHCb, como Bs→μμ, Bd→K*μμ, y desintegraciones
semileptónicas, entre otros. Por su capacidad de adaptarse a diferentes valores de frecuencia
de salida, así como por ser suficientemente inclusiva como para retener diferentes procesos de
interés con alta eficiencia, esta estrategia será empleada en ambos niveles del HLT.
185
Simposio de Física de Altas Energías y Física Teórica
Se ha escogido un conjunto de variables que caracterizan la probabilidad de que el suceso
contenga la desintegración de un mesón B produciendo al menos un muón. Estas variables
están relacionadas con la masa relativamente elevada del mesón (los momentos transversos
de ambas trazas y la masa invariante del par), su larga vida media (parámetro de impacto
respecto del PV de ambas trazas y distancia de vuelo del mesón), la geometría de la desintegración (distancia entre ambas trazas en el punto de mayor aproximación), la conservación
del momento transverso respecto de la dirección de vuelo del mesón y la calidad del ajuste
de ambas trazas.
El trabajo de optimización se ha realizado hasta la actualidad basándose en simulación
Monte Carlo. Para medir las eficiencias se ha empleado un conjunto de procesos simulados
que contienen desintegraciones muónicas del mesón. La frecuencia de salida de cada línea se
ha calculado sobre una simulación que engloba los posibles procesos que pueden ocurrir en
las colisiones protón-protón, pesados según su sección eficaz, en las condiciones nominales de
luminosidad en el punto de colisión del detector LHCb. Posteriormente, la optimización continuará con datos recogidos una vez se produzcan las primeras colisiones reales del LHC.
Los resultados de esta optimización pueden verse en la Tabla 1. Los sucesos que pasan el
L0 con un candidato de muón entran en el HLT1, donde son confirmados y filtrados. Puede
observarse cómo para proporcionar unas eficiencias similares, una estrategia basada sólo en
las propiedades de la traza del muón necesita una frecuencia de salida 5 veces superior. En
la tabla se observa también que en el nivel final de filtrado, el HLT2, la información de la traza compañera permite proporcionar una eficiencia claramente superior para una frecuencia
inferior.
L0 Muon
Hlt1 Muon
Hlt1 MuTraza
Hlt1 (total)
Hlt2 Muon
Hlt2 MuTraza
Salida
Bd→J/ψKs Bs→J/ψφ
(kHz)
219 +/- 3
93,5
92,2
7,5 +/- 0,5
67,8
66,6
1,5 +/- 0,2
58,5
62,8
37 +/- 1
88,4
86,3
1,06 +/- 0,18
29
25,7
0,89 +/- 0,16
38,9
47,4
Bs→μμ
98,2
95,5
91,1
96,9
83,2
89,2
Bd→K*μμ Bd→D*μν Bs→Dsμν
84
66,9
71,4
84,5
41,7
56,9
76,2
53,7
56,1
72,2
24,6
40
78,5
56,4
62,9
74,8
31,3
46,2
Tabla 1. Frecuencia de salida y eficiencias sobre varios canales de desintegración con muones en diferentes etapas del trigger de LHCb.
Referencias
[1] The LHCb Collaboration, The LHCb detector at the LHC, 2008 JINST 3 S08005.
[2]The LHCb Collaboration, LHCb Trigger System Technical Design Report, CERN LHCC 2003-031,
LHCb TDR 10.
186
XXXII Reunión Bienal de la Real Sociedad Española de Física
Búsqueda de producción del Bosón de Higgs del Modelo
Estándar asociado a un Bosón W en colisiones
protón-antiprotón en el Tevatron
B. Álvarez1, F. Canelli2, R. Eusebi2, B. Casal3, J. Cuevas1, P. Dong3, C. Group2,
E. Palencia2, A. Ruiz3, B. Stelzer4, R. Vilar3 y R. Wallny3
Universidad de Oviedo.
Fermilab.
3
Instituto de Física de Cantabria (IFCA).
4
UCLA, University of California, Los Angeles (LA).
1
2
En esta contribución, se presenta un análisis de búsqueda de producción del bosón de
Higgs asociado a un bosón W usando un conjunto de datos correspondiente a la luminosidad
de 2.7 fb-1 recogidos por el detector CDF (Collider Detector at Fermilab), y producidos por colisiones entre protones y antiprotones en el acelerador Tevatron del laboratorio Fermilab (Fermi
National Accelerator Laboratory) situado en Batavia (Illinois, EEUU) cerca de Chicago.
En concreto se estudia la producción del bosón de Higgs asociado al
bosón W cuando el Higgs se desintegra a dos quarks b y el W se desintegra a un lepton y un neutrino.
Con estas características, se busca el
bosón de Higgs dentro del modelo
estándar a baja masa, es decir, a una
masa mayor de 114 giga electrón
voltios (GeV), límite obtenido en el
acelerador LEP y menor de aproximadamente 140 GeV.
La sección eficaz de producción
del bosón de Higgs es tan pequeña
comparada con el resto de procesos
que se conocen en el modelo están- Figura 1. Límites esperados y observados al 95% de nivel
dar, como por ejemplo la producción de confianza relativos a lo esperado por el modelo estándar
de top-antitop observada en Teva- para una masa de Higgs entre 100 y 150 GeV/c2 de 5 en
tron en 1995, que es necesario utili- 5 GeV/c2.
zar herramientas muy sofisticadas
para extraer la señal de los datos recogidos y analizados. Ejemplos de estas herramientas son
el método llamado Matrix Elements (ME), relacionado directamente con los diagramas de
Feynman de producción del proceso que se estudia, Boosted Decision Trees (BDT) y redes
neuronales.
Como resultado de este análisis, no se ha encontrado evidencia del bosón de Higgs.
Se han determinado los límites de producción por el branching ratio a un nivel de confianza del 95% para masas del bosón de Higgs entre 100 y 150 GeV/c2. Los resultados esperados
(línea rayada) y observados (línea sólida) se muestran en la figura 1. Por ejemplo, para un
Higgs de masa 115 GeV/c2 el límite observado (esperado) es 5.6 (4.8) veces la predicción del
modelo estándar.
187
Simposio de Física de Altas Energías y Física Teórica
Referencias
[1]
[2]
[3]
[4]
[5]
[6]
[7]
[8]
188
P. W. Higgs, Phys. Rev. Lett. 13, 508 (1964).
S. Weinberg, Phys. Rev. Lett. 19, 1264 (1967).
R. Barate et al. (LEP Higgs Working Group), Phys. Lett. B565, 61 (2003).
A. Djouadi, J. Kalinowski, and M. Spira, Comput. Phys. Commun. 108, 56 (1998).
T. Aaltonen et al. (CDF Collaboration), Phys. Rev. D78, 032008 (2008).
P. J. Dong (2008) FERMILAB-THESIS-2008-12.
C. Peterson, T. Rognvaldsson, and L. Lonnblad, Comput. Phys. Commun. 81, 185 (1994).
A. Hocker et al. PoS ACAT, 040 (2007), physics/0703039.
XXXII Reunión Bienal de la Real Sociedad Española de Física
IR Transparent Microstrip Detectors for a Laser Alignment
System for future Silicon Tracker at ILC
D. Bassignana1, M. Fernández2, M. Lozano1, G. Pellegrini1 y I. Vila2
entro Nacional de Microelectrónica IMB-CNM-CSIC, Campus Universidad Autónoma Barcelona,
C
08193 Bellaterra, Barcelona (Spain); [email protected].
2
Instituto de Física de Cantabria (IFCA), Ed. Juan Jorda, E-39005 Santander (Spain).
1
The next generation of tracking systems, as the one envisaged for the International Linear
Collider (ILC)[1], demand track momentum resolutions one order of magnitude better than
current state-of-the-art trackers. Mechanical stabilities coping with the precision of such measurements should either be provided by the construction of the supporting structure (currently
out of the technological reach) or monitored using an alignment system. The SiLC (Silicon for
Linear Collider) [2] collaboration proposed to use a Laser Alignment System.
In a nutshell, consecutive layers of silicon sensors are traversed by IR laser beams which
play the role of infinite momentum tracks, not bent by the magnetic field (Fig.1). Then, the
same sophisticated alignment algorithms employed for track alignment with real particles
can be applied to achieve relative alignment between modules to better precision than a few
microns. Furthermore, since IR light produces a measurable signal in the silicon bulk, there is
no need for any extra readout electronics.
We propose an R&D on microstrip detectors in order to obtain high spatial resolution and
maxim transmittance to the IR beam.
Starting from a 300 μm thick p-on-n microstrip detector with 50 μm readout pitch, the
idea is to tune the thicknesses of the different material layers and the pitch/strip-width ratio
of the sensors (Fig. 2).
Figura 1. IR Laser Alignment System.
Figura 2. Model of the microstrip detector.
Optical simulations of the real detector have been done to study the transmittance, absorptance and reflectance of light at infrared wavelengths (Fig. 3).
Refraction effects due to inhomogeneous layers and interfaces have been considered.
Electric simulations have been performed to study the electric properties of the sensors. The
results obtained suggest that to reach a transmittance ≥ 70% a pitch/metal-strip-width ratio
≤ 0.10 is required, while the thicknesses of the layers are related to each other and therefore
chosen to obtain the maximum transmittance [3].
189
Simposio de Física de Altas Energías y Física Teórica
Taking into account the simulation results, the mask for the first prototypes of transparent
detectors has been designed (Fig. 4). The 4” wafer includes twelve different detectors with an
active area of 1.5x1.2 cm2, each one with 256 or 513 strips with 1.5 cm length and a circular
window in the back metal with radius of 0.5 cm to allow the passage of IR light. In order to
study transmittance and electric properties dependence from geometric parameters, three different values (12.5 μm, 15 μm, 17.5 μm) of the p+ implant widths have been chosen. Also four
different widths of the strip metal (3, 5, 10 and 15 μm) will be tested. Some detectors have
been completed with floating intermediate strips, without metal contact, in order to improve
the spatial resolution using the principle of capacitive charge division. Finally, different test
structures have been also included in the mask.
Figura 3. Optical functions: T,R,A calculated using a realis- Figura 4. Mask designed for the fatic simulation of the propagation of light through a Si micros- brication of the Microstrip IR Transtrip detector. Effect of diffraction due to the strips is included. parent Detectors.
Strip/Pitch width=10%.
In summary, this mask contains all the structures needed to carry out an experimental
investigation of the topics highlighted by the simulations work. The detectors will be processed in the IMB-CNM clean room facilities and the first results of their characterization will
be presented.
Referencias
[1] http://www.linearcollider.org/cms/.
[2] http://lpnhe-lc.in2p3.fr/.
[3]“ Infrared-transparents microstrip detectors” M.Fernández et al. Nuclear Instruments and Methods
in Physics Research A (2008), Volume 598, Issue 1, 1 January 2009, Pages 84-85.
190
XXXII Reunión Bienal de la Real Sociedad Española de Física
Caracterización de detectores CCDs para el plano focal
de DECam (Dark Energy Survey Camera)
J. Campa para la colaboración DES
División de Astrofísica de Partículas, Centro de Investigaciones Medioambientales, Energéticas y Tecnológicas, 28040 Madrid; [email protected].
El proyecto Dark Energy Survey (DES) [1], medirá parámetros de energía oscura utilizando cuatro técnicas complementarias: lentes gravitacionales, cúmulos de galaxias, oscilaciones
acústicas de bariones y supernovas. Los datos serán tomados mediante un cartografiado de
5000 grados cuadrados del Southern Galactic Cap durante 525 noches de observación del año
2011 al 2016. DECam será el instrumento requerido.
DECam es una cámara de 520 Mpixeles, con un campo de visión de 3 grados cuadrados
que sustituirá al foco primario del telescopio de 4m Blanco, situado en Cerro Tololo, Chile.
DECam ha elegido los CCDS [2] (Charge Couple Devices) de 250 um de espesor e iluminados
por detrás, desarrollados por Lawrence Berkeley National Laboratory (LBNL), con una alta
eficiencia en el infrarrojo cercano. Esta comunicación presenta el trabajo de caracterización
de estos dispositivos por el equipo de DES y su comparación con los requerimientos técnicos
(Tabla 1) realizados en la fase de investigación y desarrollo (Agosto 2005 a Diciembre 2008).
Los resultados demuestran que satisfacen las necesidades para el instrumento y por lo tanto
están disponibles para llevar a cabo un testeo y caracterización para seleccionar los mejores
que cumplan los requerimientos para ser colocados en el plano focal.
Eficiencia cuántica(g,r,i,z)
Full Well Capacity
Corriente de oscuridad
Ruido de lectura
CTI
Difusión de carga
Requerimientos de cosmética
Linealidad (from variance)
DECam requirements
60%, 75%, 60%, 65%
> 130000 electrones
2 e/hr/pixel a 120 ºC
15 e @ 250 kpix/s
< 10^-5
1D sigma<7.5um
<#Pixeles defectuosos> < 0.5%
10%
Tabla 1. Requerimientos técnicos DECam.
El empaquetamiento y testeo se lleva a cabo en el Fermi National Accelerator Laboratory
(FNAL). Para ello se requiere una infraestructura especial, ya que se requiere trabajar en salas
limpias y con protecciones electroestáticas. Además se han montado diferentes bancos de
pruebas que consisten principalmente en un sistema óptico que proporciona tomas planas
en la longitud de onda deseada. Los CCDs se colocan en criostatos controlados térmicamente
( -100ºC) y enfriados utilizando nitrógeno líquido. La lectura del CCD se realiza mediante
el sistema Monsoon, diseñado por National Optical Astronomy Observatory (NOAO) para
controlar grandes mosaicos. Aqui cabe destacar la participación del equipo de ingenieria electrónica del Ciemat que lleva a cabo el rediseño y la mejora de la tarjeta de relojes que mueven
la carga en el dispositivo.
191
Simposio de Física de Altas Energías y Física Teórica
Los test se realizan en dos etapas. La primera etapa se lleva a cabo en todos los detectores e incluye el
cálculo de: ganancia, linealidad, ineficiencia de transferencia de carga (CTI) y su dependencia con los voltajes (ver figura 2), el ruido y su dependencia con los
voltajes, defectos y optimización de voltajes.
La segunda etapa se realiza en los CCDs que superan la anterior e incluye medidas de: corriente de
oscuridad, difusión de carga, y dependencia con la
temperatura del ruido y de la eficiencia cuántica.
Mi trabajo se centra en el desarrollo de las técnicas de caracterización y de software de análisis de
datos de la primera etapa, la cual es realizada también por físicos de FNAL y de otras instituciones
colaboradoras internacionales. Además, también
cabe destacar mi participación en el montaje de los
bancos de pruebas.
Brevemente se ha descrito el equipo de testeo y
las pruebas a realizar. Los resultados muestran que
los CCDs elegidos por la colaboración satisfacen los
requerimientos [3]. La cámara de DES, se espera,
esté finalizada y completa a finales de 2010.
Figura 2. Variacion de CTI (arriba) y del
ruido (abajo) con los relojes o voltajes horizontales.
Referencias
[1] T. Abbot at al.,”The Dark Energy Survey”, astro-ph/0510346, (2005).
[2] J.R. Janesick, Scientific Charge Coupled Devices, SPIE press (2001).
[3] H.Thomas Diehl et al, “Characterization of DECam Focal Plane Detectors”, SPIE proceedings (2008).
192
XXXII Reunión Bienal de la Real Sociedad Española de Física
Médida de la producción electrodébil del quark top en el
experimento CDF del Tevatron usando un método de ánalisis
multivariable basado en Boosted Decision Trees
F. Canelli1, B. Casal Laraña2, P. Dong3, C. Group4, A. Ruiz2, B. Stelzer3,5,
R. Vilar2 y R. Wallny3
University of Chicago.
Instituto de Física de Cantabria (CSIC – Univ. Cantabria), 39005 Santander; [email protected].
3
University of California, Los Angeles (UCLA).
4
Fermi National Accelerator Laboratory.
5
Institute for Particle Physiscs Canada, Simopn Fraser University.
1
2
Se presenta una búsqueda de la producción electrodébil del quark top utilizando un conjunto de datos de colisiones protón-antiprotón a una enegía centro de masas de 1.96 TeV correspondientes a una luminosidad integrada de 3.2 fb’1 recogidos en el experimento CDF del
Tevatron. El análisis emplea una técnica de análisis multivariable basada en Boosted Decision
Trees (BDT) [1], donde el output es utilizado como variable discriminante con la que se extrae
la medida de la sección eficaz de producción mediante un ajuste de máxima verosimilitud a
los datos. Se buscan simultáneamente los procesos s-channel y t-channel de producción de
single-top (ver Figura 1). Como resultado se obtiene una sección eficaz de 2.1+0.7-0.6 pb asumiendo una masa del quark top de 175 GeV/c2. La probabilidad (o p-value) de que el exceso
observado en los datos sea debido a una fluctuación de los fondos es 0.022% (correspondiente
a 3.5σ), siendo el p-value esperado, en 300 millones de pseudo-experimentos, de 8.7◊10-6 %
(correspondientes a 5.2♦) asumiedo la tasa de producción del quark single-top predicha por
el Modelo Estándar.
Finalmente se muestra el resultado de la reciente observación del quark single-top combinando las diferentes búsquedas existentes en CDF (incluyéndose la descrita anteriormente)
[2]. Se mide una sección eficaz de 2.3+0.7-0.6 pb con un p-value observado en datos de 3.1◊10-5%
correspondiente a 5.0σ suficiente para observación. De la médida de la sección eficaz se extrae
el valor del elemento de la matriz CKM|Vtb|= 0.91 ± 0.11 (exp.) ± 0.07 (theory), consistente
con el Modelo Estándar.
Figura 1. Diagramas de Feynman de producción de single-top. Las figuras (a) y (b) representan el
proceso t-channel, y la figura (c) representa el proceso s-channel.
Referencias
[1] http://www-cdf.fnal.gov/physics/new/top/2009/singletop/BDT/SingleTop_BDT.html.
[2] T. Aaltonen, et al.,arXiv:0903.0885v2 [hep-ex], enviado a Phys. Rev. Lett.
193
Simposio de Física de Altas Energías y Física Teórica
El Tier-2 Federado Español para ATLAS ante el comienzo de la
toma de datos de colisiones en el LHC
G. Amorós1, A. Fernández1, S. González de la Hoz1, M. Kaci1, A. Lamas1,
E. Oliver1, J. Salt1, J. Sánchez1, M. Villaplana1, C. Borrego2, M. Campos2,
J. Nadal2, A. Pacheco2, J. del Peso3, J. Pardo3, L. Muñoz3, P. Fernández3,
L. del Cano3 y X. Espinal4.
I nstituto de Física Corpuscular (IFIC), CSIC-Universitat de València, 46980 Paterna,
[email protected].
2
Instituto de Física d’Altes Energies (IFAE), UAB Barcelona, Bellaterra.
3
Universidad Autónoma de Madrid (UAM), Madrid.
4
Port d’Informació científica (PIC), UAB Barcelona, Bellaterra.
1
El colisionador de hadrones (LHC) se pondrá en marcha en Octubre de 2009. La colaboración
ATLAS a través del grupo ATLAS Distributed Computing (ADC) está comprobando y validando
el modelo de computación ATLAS así como la infraestructura desplegada en cada instituto de la
colaboración con la intención de tenerlo todo a punto y preparado antes de las primeras colisiones [1]. El Tier-2 federado español para ATLAS (el cual se compone de los siguientes institutos:
IFAE, UAM e IFIC), está participando activamente y de forma regular en todas las actividades
coordinadas y llevadas a cabo por el grupo ADC. Estas actividades están relacionadas con la
producción de sucesos simulados, distribución, reprocesado y análisis distribuido de los datos.
Cada una de estas actividades es crucial para validar la infraestructura desplegada por la colaboración ATLAS siguiendo su modelo de computación Grid distribuido. El objetivo de este
documento es describir y explicar el estado de las actividades de computación distribuida en el
Tier-2 español y su preparación para la primera toma de datos del detector.
Desde hace algo más de un año
la colaboración ATLAS adoptó los
“pilot jobs” para la producción de sucesos simulados. El mecanismo de
producción de sucesos simulados
empieza cuando los grupos de física definen trabajos que deben correr
en el Grid. Estos trabajos se definen
en una base de datos de producción
central, los cuales son leídos por un
supervisor y enviados a las diferentes infraestructuras Tier-2. El sistema asigna trabajos de simulación de
forma automática a los diferentes
centros y en el caso de no tenerlos
transfiere los datos necesarios para
poder correr la simulación. En la fi- Figura 1. Estadística de trabajos de simulación en el Tiergura 1 se puede ver como el uso de 2 desde mitad de Enero hasta mitad de Febrero. La línea
CPU en el Tier-2 español es prácti- verde oscura muestra el número de trabajos corriendo.
camente constante. La eficiencia del
Tier-2 ha sido bastante estable y alrededor del 95%, teniendo en cuenta paradas técnicas en los
centros, incidencias en el almacenamiento de los datos y validación del software de ATLAS.
194
XXXII Reunión Bienal de la Real Sociedad Española de Física
Por lo que concierne a la transferencia de datos y al análisis distribuido, hay millones de ficheros
transferidos al día mientras se están
procesando los trabajos de simulación. Un último test llevado a cabo
ha sido la transferencia masiva de
datos con el formato en el que van
a ser utilizados por los físicos para
el análisis, el cual se denomina De- Figura 2. Distribución de datos DPD entre los centros perrived Physics Data (DPD). Un total tenecientes a la “nube” española entre ellos el Tier2-espade 6 TB de datos DPD fue transferi- ñol. La figura de la izquierda muestra la transferencia de
do desde el CERN a el Tier-2 (como datos (GB) y la de la derecha el transfer troughput (MB/s).
se puede ver en la figura 2) [2]. Por
último, el modelo de computación de ATLAS tiene como objetivo proporcionar un marco
de trabajo sólido para llevar a cabo los análisis de física con datos reales. Por esta razón se
están llevando a cabo tests de análisis distribuido (DA) de forma periódica con la intención
de encontrar posibles problemas en los centros y tener la infraestructura lista para cuando
los datos reales comiencen a llegar a los diferentes institutos [3]. En el último test enviado al
Tier-2 español, más de 500 trabajos fueron ejecutados, la eficiencia total fue del 96%. Como se
pueda ver en la tabla 1, las diferencias entre los diferentes centros dependen de la arquitectura
de cada uno de ellos. La CPU/Walltime y el input/output parecen ser mejores en el IFIC que en
el IFAE y en la UAM. Por otro lado el IFAE muestra muy buena eficiencia de trabajos y la frecuencia en procesar un suceso está dominada por la CPU utilizada en los diferentes centros.
Site
PIC
IFAE
IFIC
UAM
LIP-Lisbon
Job eff.
100%
100%
94%
95%
80%
CPU / Wall
44%
33%
92%
41%
74%
Events (Hz)
8
9
10
8
17
SW setup (s) Input (Output) (s)
119
19 (32)
30
79 (27)
82
8 (34)
340
16 (11)
92
6 (26)
Tabla 1. Valores detallados en la ejecución de un trabajo de análisis en cada centro. Estos valores son
la eficiencia, el porcentaje de CPU utilizada, el tiempo en procesar un suceso, el tiempo de ejecución
del software de análisis y los tiempos para leer los datos de entrada y copiar lo datos de salida.
Podemos concluir basándonos en los resultados obtenidos en los tests realizados por la
colaboración ATLAS en estos últimos meses que estamos preparados para el inicio de la toma
de datos. La mayoría de la infraestructura del Tier-2 español ha sido validada y en el caso de
encontrar algún fallo ha sido inmediatamente resuelto. El principal punto ha sido que hemos
demostrado ser un Tier-2 estable y además al ser distribuido es más fácil solucionar problemas a corto (eventuales) y a largo plazo.
Queremos expresar nuestro agradecimiento al apoyo de la Agencia Financiadora (Plan
Nacional de Altas Energías) procedente del proyecto de referencia FPA2007-66708-C03-01
Referencias
[1] ATLAS Computing Technical Design Report, ATLAS TDR-017, CERN-LHCC-2005-022.
[2] ATLAS dashboard: http://dashb-atlas-prodsys-test.cern.ch/dashboard/request.py/overview.
[3] http://gangarobot.cern.ch/st/.
195
Simposio de Física de Altas Energías y Física Teórica
Analysis strategy for the WW cross section measurement with
CMS detector at the LHC
C. Jordá Lope1, R. Vilar Cortabitarte1, J. Cuevas Maestro2,
J. Fernández Menéndez2 y R. González Suárez1
1
2
Instituto de Física de Cantabria (IFCA). Universidad de Cantabria.
Universidad de Oviedo.
We study the feasibility to measure pp → WW production cross-section using the Compact Muon Solenoid detector, located at the LHC accelerator, at the center of mass energy
center √s = 14 TeV.
The study of the W/Z boson production, within the Standard Model (SM), is crucial because it can provide accurate tests of both electroweak and strong interactions; QCD corrections to the production cross-section of these bosons are in fact available in the NNLO
approximation. At the LHC, given the high energy and luminosity, a large number of W and
Z events will be collected shortly after the machine turns-on. Even before providing accurate
measurements of σW, σZ and MW and performing other tests of the ElectroWeak (EW) theory,
such events will be quite useful for calibration and alignment of the detector. Once the detector is well understood, the study of the WW production will test the SM interaction at the
highest energy possible. The better knowledge of this cross-section the better limits of anomalous WZ and WWσ couplings. The production rate at LHC will be at least 100 times higher
than at Tevatron: this is 10 times more WW production cross-section and 10-100 times higher
luminosity (1033-1034cm-2s-1). This increase allows to probe a much higher energy region, that
will extend the sensitivity to new physics. The study at the LHC of diboson production will
also become interesting to search for the Higgs boson and deviation from the standard physics. A very precise measurement helps to understand the Higgs sensitivity because it is the
only irreducible background for H → WW, and an important background for other analysis
such as SUSY (SUperSYmmetry) and top-antitop. The more precise we know the cross sections for the different backgrounds, the better we can search for Higgs. This discovery channel
would be pp → H → WW, which dominates the Higgs signal for the approximate mass range
for the boson 120 < mH < 170 GeV/c2. This mass range is the preferred taken into account the
EW measurements at Tevatron and LEP.
In this analysis we study the possibility to measure WW cross-section at the beginning of
the LHC using the leptonic decay of the W boson. This provides a final state of two leptons
and two neutrinos, we have concentrate for the moment on the muon lepton, so the final signature we look for is two muons and missing transverse energy due to the neutrinos. For this
measurement, the reduction of the backgrounds and understanding of the systematic uncertainties are very important in order to increase the precision of the measurement. The backgrounds are mainly Z/W + jets, top and diboson processes with similar final state objects.
Two techniques have been used to analyze the data: Cut-based analysis and Multivariate
techniques, in particular, Boosted Decision Trees (BDT). Both techniques exploit the differences between the signal and background due to the production modes. The former technique
reduces the backoground with a series of sequential cuts in the topological and kinematical
variables most significant to separate the signal from it. The value of the cut was chosen to
maximize the significance of the signal versus the background. This type of analysis, a counting experiment, is good for the beginning of the data taking, when there will be not much
statistics. The latter technique, BDT, instead of counting, extracts the information from all the
196
XXXII Reunión Bienal de la Real Sociedad Española de Física
significant variables at the same time, taken into account the correlations among them. This
analysis is more powerful but needs more statistics because in order to rely the results, needs
to have a very good understanding of the observables selected.
The work developed has been focused on the optimization of the WW signal selection
using these two analysis techniques. For the cut-based technique, the analysis has been performed up to the end, meaning studying the systematics uncertainties and calculating the
expected sensitivity. The plot shows the expected sensitivity for this process as a funtion of the
luminosity acquire by CMS. Yellow and blue band shows 1 and 2 sigma deviation, taken into
account systematic and statistic uncertainties. From the plot, with about 180 pb-1 of data there
is an evidence of the process and with about 500 pb-1 there is an observation.
Figura 1. Expected signal significance versus integrated luminosity. The color bands correspond to
the 68 and 95% confidence level.
References
[1]“Analysis strategy for the WW cross section measurement with CMS detector at the LHC”. Master
Thesis. Author: C. Jordá Lope.
197
Simposio de Física de Altas Energías y Física Teórica
Estatus del experimento AMS y prestaciones del
detector AMS-02 con muones cósmicos
D. Crespo Roces
Departamento de Investigación Básica, División de Astrofísica de Partículas, Centro de Investigaciones Energéticas, Medioambientales y Tecnológicas (CIEMAT), Avda. Complutense 22, 28040 Madrid;
[email protected].
AMS (Alpha Magnetic Spectrometer) es un experimento de física de altas energías diseñado para operar en la Estación Espacial Internacional (ISS) y cuyo objetivo es la búsqueda de
evidencias de la existencia de antimateria de origen primordial y de los productos de desintegración de la aniquilación de materia oscura en el halo galáctico mediante la medida precisa
de los rayos cósmicos [1].
El estudio de los productos de aniquilación de materia oscura se centra en los canales
de antipartículas (e+, , ), siendo el principal reto reducir el importante fondo de protones
existente. Para ello, AMS-02 cuenta con un imán superconductor y varios subdetectores que
proporcionan una medida redundante de la velocidad y de la carga así como del momento
y de la energía cinética. Tres subdetectores cobran una importancia crítica en el estudio de la
materia oscura: el detector de radiación de transición (TRD), el detector de trazas de silicio
(STD) y el calorímetro electromagnético (ECAL). El TRD está formado por 20 capas de módulos de radiadores de polipropileno y tubos de deriva llenos con una mezcla de gas Xe/CO2
(80/20). El TRD es capaz de realizar la separación electrón-protón en el rango de energías
1.5 — 300 GeV con un factor de rechazo de 102 — 103 para un 90% de eficiencia en la señal.
El STD está formado por 8 capas de sensores de silicio de doble cara que se distribuyen en 5
planos y proporcionan una resolución de 10 μm en la dirección de curvatura (y) y de 30 μm
en la dirección perpendicular (x). El STD es capaz de medir la rigidez de los protones hasta
los TV con una resolución en la medida del 1.5% a 10 GV. El ECAL está formado por capas de
plomo y fibras centelleadoras, tiene un espesor de 17 longitudes de radiación X0 (X0 ≈ 0.97 cm)
y una resolución en energía del 3% para electrones de 100 GeV. El factor de rechazo que se
consigue es de 104 para E < 1 TeV. El uso conjunto de todos ellos proporciona un factor de
rechazo electrón-protón de 106 hasta los 300 GeV.
El detector AMS-02 se encuentra actualmente dentro del manifiesto de lanzamientos de la
NASA, siendo la misión STS-134, programada para septiembre de 2010, la encargada de llevar
el detector hasta la ISS donde estará operando durante 3 años. En el período de preintegración
de AMS-02 en el CERN (Ginebra) llevado a cabo en el año 2008, se realizó un test del detector
completo, salvo el imán superconductor, con muones cósmicos. El objetivo de este test era el
de verificar tanto la cadena de adquisición de datos como el software de reconstrucción así
como calibrar los subdetectores, los cuales ya habían sido validados de forma individual en
haces de prueba. Actualmente, el detector se encuentra en el estado final de ensamblaje en el
CERN, y antes de ser transportado al KSC (Florida) para su integración con el transbordador
espacial Discovery, se tiene programado hacer un test de haz en el CERN en octubre de 2009
así como un test térmico y de vacío junto con un test de niveles de interferencia electromagnética en ESTEC (Noordwijk) a finales de este año. La estancia en las instalaciones de la ESA se
aprovechará también para realizar un test del detector completo con muones cósmicos.
Los datos tomados durante la preintegración en 2008 se han utilizado para realizar un
primer estudio de las prestaciones de los diferentes subdetectores. Aunque el estudio esté
limitado por el hecho de que los muones se comporten como un MIP (Minimum Ionizing
198
XXXII Reunión Bienal de la Real Sociedad Española de Física
Particle) al atravesar el detector, se pueden obtener resultados relevantes de los diferentes
subdetectores. En este trabajo se presentan resultados preeliminares del ECAL y el TRD (para
otros subdetectores véase [2]). Durante los días que duró el test se tomaron 108 sucesos con
diferentes condiciones de trigger, por lo que el estudio de un subdetector en particular requiere tanto homogeneizar la muestra como restringirla a los períodos de funcionamiento más
estable del subdetector.
Durante la toma de datos el ECAL tenía el 98% de los canales funcionando. Una vez comprobada su respuesta al paso de un MIP, la atenuación en las fibras centelleadoras, cuya corrección es esencial para tener una respuesta ecualizada de los canales, y haber hecho el alineamiento del ECAL respecto al STD, se puede estimar la resolución espacial y angular del
ECAL. La figura 1 muestra los residuos en y (ΔY = Ystd ‒ Yecal) entre las trayectorias del STD
y del ECAL a la entrada de este último. El 68% de los sucesos se concentran en los 0.43 cm
centrales de la distribución (σy(68%)). En la dirección x se obtiene que σx(68%) = 0.61 cm. Por
otra parte, la figura 2 muestra la distancia angular entre las trayectorias del STD y del ECAL
(cosα = u(std) ∙ u(ecal)). El 68% de los sucesos se concentran en los primeros 4.16o de la distribución (σα(68%)).
Figura 1. Residuos en y entre las trayectorias
del STD y del ECAL a la entrada de este último
para datos (línea gris) y monte carlo (línea oscura). Distribuciones normalizadas a 1. Existe un
acuerdo razonable con la simulación MC.
Figura 2. Distancia angular entre las trayectorias del STD y del ECAL para datos (línea gris)
y monte carlo (línea oscura). Distribuciones normalizadas a 1. Existe un acuerdo razonable entre
datos y la simulación MC.
Durante la preintegración el TRD tenía el 99.6% de los tubos funcionando, los cuales estaban llenos de CO2, por lo que sólo debe de estar presente radiación por ionización. Al igual que
antes, una vez comprobada la respuesta de los tubos al paso de un MIP y el alineamiento del
TRD respecto al STD, al comparar las trayectorias de ambos se obtiene que σx(68%) = 0.15 cm,
σy(68%) = 0.20 cm y σα(68%) = 0.53o.
Referencias
[1] J. Casaus, Symposium on Prospects in the Physics of Discrete Symmetries (DISCRETE 2008), Valencia.
[2] C. de la Guía, contribución a la XXXII Bienal de Física, Ciudad Real (2009).
199
Simposio de Física de Altas Energías y Física Teórica
Estudio de las prestaciones del RICH de AMS-02
con muones cósmicos
C. De La Guía y C. Delgado
División de Astrofísica de partículas. Departamento de Investigación Básica. Centro de Investigaciones
Energéticas Medioambientales y Tecnológicas (CIEMAT). Avda. Complutense, 22, 28040 Madrid (Spain)
[email protected]
El instrumento del experimento AMS-02 [1] es un detector de partículas que operará en la
Estación Internacional Espacial (ISS) durante un periodo de, al menos, tres años con el propósito de medir la composición y el espectro de energía de los rayos cósmicos primarios, así
como realizar una búsqueda de materia oscura y antimateria. Entre los subdetectores que lo
componen se encuentra un RICH, detector de luz Cherenkov, cuyo objetivo es medir la velocidad β con una precisión para protones del ~ 0.1%, y proporcionar una medida de la carga, Z
hasta Z ~ 26. La medida de β del RICH se usa para separar elementos con la misma carga, determinando su masa (separación isotópica). El RICH de AMS-02 hace uso del efecto Cherenkov
que se produce cuando una partícula cargada se propaga en un material dieléctrico con una
velocidad superior a la velocidad de la luz en ese medio. En ese caso se emiten fotones con un
ángulo respecto de la dirección de propagación de la partícula que depende de la velocidad
de la misma. La proyección del cono de luz resultante es detectada por los fotomultiplicadores del plano de detección lo que nos permite medir el ángulo de emisión, llamado ángulo Cherenkov a partir del cual obtendremos la velocidad β. Además, el número de fotones detectados
es proporcional a Z2, por lo que su medida nos proporciona la carga de la partícula.
Teniendo en cuenta que la resolución de la masa viene determinada por:
(Δm/m)2 = γ4 (Δβ/β)2 + (Δp/p)2
(1)
donde γ es el factor de Lorentz, y dado que la resolución en el momento proporcionado por
el Tracker de AMS-02 es (Δp/p) ~ 2%, para energías altas la resolución en la masa empeorará,
debido a que el término dominante en (1) será γ4(Δβ/β)2 [2].
Una vez integrado el detector completo se procedió a una toma de datos para estudiar la
respuesta del sistema de adquisición de datos (DAQ). Utilizando éstos se está realizando un
estudio de las prestaciones del RICH de AMS-02, en concreto sobre la medida de β. Para ello
se han usado medidas de muones cósmicos tomadas durante el periodo comprendido entre
los meses Abril y Junio del año 2008, en las instalaciones del CERN, obteniendo una estadística del orden de millones de sucesos. Emplearemos datos reales y datos obtenidos por simulación con los que realizaremos un estudio comparativo para saber cuál es el comportamiento
real del detector, y su rendimiento en las medidas de β.
Partimos de una muestra formada por una estadística del orden de ~ 3 · 105 sucesos de un
periodo donde las condiciones de hardware de toma de datos eran estables, donde el ritmo de
detección de anillos Cherenkov era superior a 8Hz y el de detección de trazas superior a 18Hz.
Mediante el empleo de cortes en cantidades medidas que garantizan que los anillos Cherenkov
están bien reconstruidos, nos quedamos con una estadística de ~ 1 · 105 sucesos para datos
reales. Además disponemos de una muestra de sucesos simulados en las mismas condiciones.
A partir de ésta se ha obtenido la resolución de β en función del número de fotones usados
para reconstruir el anillo.
200
XXXII Reunión Bienal de la Real Sociedad Española de Física
La dependencia en la resolución con el número de hits usados en la reconstrucción para
una β fija viene dada por:
Δσβ = (ΔσStat 2 /Nhit + Δσsis 2)1/2
(2)
siendo Δσsis el error sistemático, ΔσStat el error estadístico y Nhit el número de Hits o canales
que componen el anillo Cherenkov. Se representa en la figura 1 la estimación de la resolución
estimada de β en función de la resolución por hit. Vemos que para el caso de los datos reales la
resolución se encuentra desplazada hacia valores mayores respecto a los simulados, es decir,
presentan peor resolución.
Figura 1. Estimación de la resolución de β en función del número de Hits o canales que componen el
anillo Cherenkov ■ Representa los datos reales. ▲ Representa los datos simulados.
En vista de nuestros resultados, concluimos que los datos simulados no reproducen el
comportamiento de los reales. La diferencia en cuadratura, en el caso concreto del estimador
utilizado, es del orden del ~ 0.001.
Se está estudiando cuál podría ser el origen de las diferencias entre los datos reales y los
simulados, para lo que se está analizando el software de simulación y de reconstrucción, así
como los parámetros de caracterización del detector.
Referencias
[1]AMS collaboration, “AMS on ISS: Construction of a Particle Physics Detector on the International
Space Station” to be submitted to Nucl.Instrume. and Meth. B.
[2]E. Lanciotti. Memoria para obtención del título de Doctora en C. Físicas: “Estudio de las capacidades
del detector RICH de AMS mediante el análisis de los datos de un prototipo en un haz de iones”.
(2005).
201
Simposio de Física de Altas Energías y Física Teórica
Measurement of the Muon Charge Asymmetry in the
p → W X → μν process at √s = 14 TeV
J. Alcaraz2, J. Cuevas3, J. Duarte Campderrós1, J. Fernández3, R. González Suárez1,
M. I. Josa2 y I. Vila Álvarez1
I nstituto de Física de Cantabria (IFCA), CSCI-Universidad de Cantabria 39005 Santander;
[email protected].
2
Centro de Investigaciones Energéticas Mediambientales y Tecnológicas (CIEMAT), Madrid, Universidad de Oviedo, Oviedo.
1
We present estimates for the measurement of the muon charge asymmetry in W → μν
events with the Compact Muon Solenoid (CMS) at the Large Hadron Collider (LHC). We consider proton-proton collisions at center of mass energy √s = 14 TeV for integrated luminosities
in the range from 10 to 100 pb-1. The muon charge asymmetry is studied up to 2 units of muon
pseudo-rapidity, |η| < 2.
The muon charge asymmetry in the pp → WX → μν process is a clean observable at the
LHC.
dv _W " n + o i
o dh
A _h i =
dv _W " n + o i
o +
dh
dv _W " n - or i
o
dh
dv _W " n - or i
o dh
(1)
It is directly sensitive to parton density function
(PDF) for u and d-quarks, as already observed at the
Tevatron [1]. This study is based on Monte Carlo full
simulations of the CMS detector. For the estimate of
PDF uncertainties, we employ a re-weighting method
according to the recommendations of the Les Houches Accord [2].
We have considered five background contributions to the signal: Drell-Yan, t , W → τν, W → eν and
pp → μνX (QCD). Main selection cuts are [3]: transverse momentum of the muon lesser than 25 GeV,
muon pseudo-rapidity inside [-2,2] range, muon
isolation (the sum of the projections at the transverse
plane of the deposits in the calorimeters normalized
by the momentum of the muon must be lesser than
0.09 in a cone ΔR < 0.03), and invariant mass of the Figura 1. Distribution of the invariant
muon and event transverse energy unbalance (MET) mass of the muon and MET for the signal
and backgrounds showing the lower cut
must fall inside the window [50,200] GeV.
Background contributions of the measured used.
muon charge asymmetry are subtracted in order to
extract the asymmetry of the signal component [4]. Possible systematic uncertainties due to
misalignment and miscalibration have a negligible effect within the available statistics.
202
XXXII Reunión Bienal de la Real Sociedad Española de Física
Figura 2. Muon charge asymmetry distribution for simulated samples at different integrated luminosities. The blue band represents the size of the PDF uncertainties (CTEQ6). Only statistical
uncertainties are included in the simulated experimental points.
Muon charge asymmetry is a robust observable, relatively free from systematic effects,
and possess an easy and clean experimental signature which can be asserted at the level of
few percent -depending on the η range- from the very earliest data taking period. With about
50 pb-1 of luminosity, muon charge asymmetry will start to constrain the current PDF sets and
therefore improve them; with 100 pb-1, an asymmetry measurement with few percent accuracy will be achieved.
References
[1] A. Bodek, Y Chung, D. Han, K. McFarland, E. Halkiadakis, Phys. Rev. D 77, 111301(R) (2008).
[2] D, Bourilkov, R.C. Group, M.R. Whalley, hep-ph:0605240v2.
[3]The CMS Collaboration,, CMS PAS Note EWK-07-002, Available in http://cms-physics.web.cern.ch/
cms-physics/public/EWK-07-002-pas.pdf.
[4]The CMS Collaboration,, CMS PAS Note EWK-08-002, Available in http://cms-physics.web.cern.ch/
cms-physics/public/EWK-08-002-pas.pdf
203
Simposio de Física de Altas Energías y Física Teórica
Búsqueda de Supersimetría con violación de paridad-R
en el experimento ATLAS del LHC
E. Torró-Pastor, V. A. Mitsou y C. García-García
Instituto de Física Corpurcular (IFIC), Universitat de València – CSIC, 46071 València;
[email protected].
Los modelos de Supersimetría de baja energía con violación de la paridad-R mediante
términos bilineales [1] llevan a un mecanismo see-saw para la escala del neutrino atmosférico
y a un mecanismo radiativo para la escala de neutrino solar. Este modelo tiene implicaciones
importantes para la búsqueda de supersimetría en aceleradores de partículas, si el neutralino
más ligero, 01, se considera la partícula más ligera de Supersimetría (LSP): el neutralino se
desintegrará dentro el detector incluso para masas diminutas de neutrino y, las relaciones entre distintos canales de desintegración del neutralino restringuirán los ángulos de mezcla de
los neutrinos. En esta comunicación se estudia la viabilidad de tal análisis con el experimento
ATLAS, utilizando la capacidad de reconstrucción de trazas y vértices secundarios en del
detector para posteriormente llevar a cabo un análisis sistemático cuando se obtengan datos
con el Gran Colisionador de Hadrones (Large Hadron Collider, LHC).
Sobre la búsqueda de supersimetría con violación de la paridad-R pretendemos: (a) establecer los criterios de selección adecuados para descubrir dicho modelo teórico y distinguirlo
de los procesos del Modelo Estándar; (b) mejorar el análisis anteriormente mencionado para
la detección del vértice secundario originado en la
desintegración del neutralino; y (c) evaluar el potencial del experimento ATLAS para descubrir esta
señal con los primeros datos del LHC.
En el modelo concreto de violación bilineal
de paridad-R que estudiamos, la proporción
BR( 01 → μW)/BR( 01 → τW) está relacionada directamente con el ángulo de mezcla de los neutrinos
atmosféricos [2]. En particular, nos interesa ai~slar
estas desintegraciones del neutralino cuando el W
se desintegra hadrónicamente a dos quarks. Así es
posible reconstruir la masa del neutralino a través
de la masa invariante de dos jets y un muón o un
leptón-τ.
Los diferentes modos de desintegración de la
LSP se muestran en la Figura 1. Para facilitar la com- Figura 1. Modos de desintegración del
paración de los resultados con análisis semejantes de neutralino más ligero en el punto SU3 de
ATLAS con conservación de paridad-R, hemos ele- ATLAS.
gido un modelo supersimétrico concreto, la Supergravedad mínima (mSUGRA). Este modelo tiene sólo cinco parámetros, los cuales en el punto
específico que estudiamos (SU3), toman los siguientes valores: m0 = 100 GeV, m1/2 = 300 GeV,
tanβ = 6, A0 = -300 GeV, μ > 0. Los (seis) parámetros de los términos bilineales, por otra parte,
se eligen de forma que sean compatibles con los datos experimentales de las masas y ángulos
de mezcla de neutrinos.
En la primera etapa de este análisis, aplicamos una selección inclusiva para eliminar el
fondo del Modelo Estándar, tal como jets de QCD de alto momento transverso, W + jets,
204
XXXII Reunión Bienal de la Real Sociedad Española de Física
Z + jets, WZ y la producción de pares de quarks top. A tal efecto, el trigger utilizado para
los procesos supersimétricos convencionales, basados en el alto momento transverso faltante
(missing transverse momentum) [3], serán ineficaces ya que en el caso de violación de paridad-R
la LSP se desintegra en el detector. No obstante, otras variables cinemáticas pueden también
emplearse tales como la multiplicidad alta de leptones aislados y jets de alto momento y la
forma del suceso (esfericidad y thrust).
En un ejemplo concreto hemos generado sucesos que corresponden a una luminosidad
integrada de 0.25 fb-1 para todos los procesos supersimétricos de colisiones entre protones a
una energía del LHC de 14 TeV. Las masas de las partículas supersimétricas y las proporciones de sus desintegraciones son calculadas por el código SPheno, mientras que la generación
de sucesos del LHC está hecha con el programa PYTHIA.
Las partículas supersimétricas que se producen directamente son principalmente gluinos
o squarks y se desintegran en cadena a otras partículas supersimétricas hasta llegar al neutralino más ligero. El neutralino se desintegra según los modos detallados en la Figura 1. Para
eliminar el fondo del Modelo Estándar aplicamos los siguientes cortes básicos:
- el suceso contiene al menos un muón (o un leptón- τ) con momento transverso mayor
que 30 GeV;
- el suceso contiene al menos un jet con momento transverso mayor que 30 GeV;
- la masa efectiva del suceso es mayor que 600 GeV; y
- la esfericidad del suceso es mayor que 0.2.
La masa invariante de un muón y dos jets de alto momento, cuya masa invariante mjj es la
del W con un error de 5 GeV, se muestra en la Figura 2. Es evidente el pico que corresponde
a la desintegración del neutralino a un muón y un W, que se desintegra a dos quarks. En este
modelo específico, el neutralino tiene una masa de 97 GeV.
Una característica interesante de este escenario
es que la longitud de desintegración del neutralino,
es suficientemente grande (cτ ~ 1 mm) como para
proporcionar un vértice desplazado observable, con
la resolución esperada de reconstrucción de vértices en ATLAS de ~ 80 µm en el plano transverso y
de ~ 300 µm en la dirección del neutralino [3]. Con
la reconstrucción de los vértices secundarios de las
desintegraciones (µqq’ o τqq’) se espera poder medir
la masa y el tiempo de vida medio del neutralino.
En el futuro, los análisis establecidos se aplicarán a los datos reales del LHC. En el caso de supersimetría con violación de paridad-R, los datos to- Figura 2. Masa invariante de un muón
mados durante el primer año de operación del LHC y dos jets después de la aplicación de los
(0.1 – 1 fb-1) serán suficientes para determinar su cortes básicos en una muestra de sucesos
supersimétricos generada con PYTHIA.
existencia o no hasta cierta escala de energías.
Referencias
[1] W. Porod, M. Hirsch, J. Romao and J.W.F. Valle, Phys. Rev. D 63, 115004 (2001) [arXiv:hep-ph/0011248].
[2] W. Porod and P. Skands, arXiv:hep-ph/0401077 (2004).
[3]G. Aad et al. [ATLAS Collaboration], “Expected Performance of the ATLAS Experiment - Detector,
Trigger and Physics,” CERN-OPEN-2008-020, arXiv:0901.0512 (2008).
205
Simposio de Física de Altas Energías y Física Teórica
El Tier-1 español para el LHC preparado para la toma de datos
E. Acción, V. Acín, G. Bernabéu, A. Bria, M. Campos, M. Caubet, M. Delfino, L.
Diaz, X. Espinal, J. Flix, F. López, F. Martínez, G. Merino, K. Neuffer y E. Planas
Port d’informació Científica (PIC), Universitat Autònoma de Barcelona 08193 Bellaterra; [email protected].
El Large Hadron Collider, en el Laboratorio Europeo de Física de Partículas (CERN) es
el mayor instrumento científico jamás construido. Cuando empiece a funcionar producirá
aproximadamente 15 Petabytes de datos cada año, que serán analizados por miles de científicos de todo el mundo. El proyecto Worldwide LHC Computing Grid (WLCG) se inició
en 2002 con el objetivo de construir y poner en marcha la infraestructura informática para
procesar los datos del LHC. Dicha infraestructura consta de recursos provistos por unos 150
centros informáticos de todo el mundo, el acceso a los cuales se uniformiza mediante el uso de
servicios Grid. En WLCG los centros informáticos se han clasificado jerárquicamente. La capa
cero de la jerarquía es el CERN, origen de los datos. En la primera capa se encuentran once
centros con unos requisitos de fiabilidad y eficiencia muy altos: los centros Tier-1. La función
principal de estos centros es proporcionar servicios de almacenamiento masivo a largo plazo,
así como recursos de cálculo para el procesamiento y filtrado de los mismos. El Tier-1 español
está en el Port d’Informació Científica (PIC), un centro científico-tecnológico participado por
el DIUE, el CIEMAT, la UAB y el IFAE situado en el campus de la UAB y da servicio a los
detectores ATLAS, CMS y LHCb.
Una de las principales características de los centros Tier-1 es que, más allá de proporcionar
una gran capacidad de almacenamiento y cálculo, deben hacerlo mediante servicios que sean
extremadamente fiables. Los compromisos de capacidad y fiabilidad de los centros WLCG se
formalizan en el WLCG Memorandum of Understanding [1].
Los servicios proporcionados por el Tier-1 se pueden clasificar bajo dos grandes categorías: computación y almacenamiento masivo. El servicio de computación tiene actualmente
una capacidad de 1500 kSpecInt2000 y el de almacenamiento 2PB (1PB en disco y 1PB en cinta). En la tabla 1 se muestra el aumento de capacidad planificado en el PIC para los próximos
3 años.
CPU (kSI2k)
Disk (TB)
Tape (TB)
2009
2591
1702
1844
2010
5109
3009
3402
2011
6941
4090
5249
Tabla 1. Aumento de capacidad del Tier-1 español planificado hasta 2011.
Durante los últimos años, al mismo tiempo que el PIC ha aumentado su capacidad y fiabilidad para cumplir los compromisos del MoU, los experimentos han sometido el sistema
a una carga creciente y lo más realista posible, usando para ello datos simulados o de rayos
cósmicos. Estas actividades son comunes a los experimentos y se pueden englobar en cuatro grandes campos: distribución y reprocesado de datos, simulación, y análisis de usuario.
Durante Mayo de 2008 se ejecutó el ejercicio llamado CCRC08 (Common Computing Readiness Challenge) cuyo objetivo principal era testear los modelos de computación de los experimentos usando el servicio WLCG simultáneamente. Durante el ejercicio se probó que la
distribución de datos entre Tier-0, Tier-1s y Tier-2s, así como la producción masiva de eventos
206
XXXII Reunión Bienal de la Real Sociedad Española de Física
simulados, se pueden ejecutar al nivel requerido de forma estable. En la figura 1 se muestran
algunos gráficos de la eficiencia del PIC recibiendo y exportando datos durante el CCRC08.
Cabe destacar que los resultados fueron excelentes, situando al PIC entre los mejores Tier-1
del proyecto WLCG. Tras el corto período de funcionamiento del LHC en Septiembre de 2008,
los experimentos han aprovechado para seguir haciendo pruebas poniendo especial énfasis
en aquéllas áreas que fueron menos ejercitadas anteriormente: el reprocesado de datos y el
análisis de usuario. El reprocesado de los datos en crudo es una actividad que se llevará a
cabo en los Tier-1, y de manera periódica a medida que aparezcan nuevas constantes de calibración y alineamiento del detector. Estos datos en crudo se almacenan en cinta en los Tier-1
y el reprocesado requiere de una maquinaria específica para copiarlos a disco antes que los
trabajos de reprocesado empiecen. Por último y como uno de los temas más importantes para
la comunidad científica encontramos el análisis de usuario, es decir, los físicos que analizaran
los datos del LHC. Esta actividad es difícilmente predecible ya que hasta ahora no hay datos
reales y no ha habido un uso masivo del WLCG por parte de los usuarios. Una vez que los datos lleguen a los centros empezarán a ser accedidos por multitud de usuarios de todo el mundo, por lo que tanto los centros como las herramientas de computación de los experimentos
han de estar a punto. Por esta razón durante el 2009 se han llevado a cabo ejercicios intensivos
intentando modelar el impacto de los usuarios sobre la infraestructura. Tanto en los ejercicios
del año pasado como de este año el PIC ha estado entre los mejores centros Tier-1 de ATLAS,
CMS y LHCb, así como en estabilidad global dentro de WLCG, por lo tanto podemos decir
que el Tier-1 español esta preparado para la llegada de los datos del LHC.
Referencias
[1] http://www.cern.ch/lcg/mou.htm.
207
Simposio de Física de Altas Energías y Física Teórica
The SOFT TPC concept and the NEXT experiment
F. Monrabal Capilla1, J. Martín-Albo y J. J. Gómez Cadenas
Instituto de Física Corpuscular (IFIC), CSIC – Universidad de Valencia, 46980 Valencia, Spain.
1
[email protected]
Neutrinos have mass. This experimental evidence has strong implications in physics and
cosmology. Neutrino-less double beta decay have demonstrated its potential to measure the
neutrino masses and to determine the intrinsic nature of them. A positive result in a double
beta neutrino-less experiment the Majorana nature of the neutrinos will be demonstrated, that
is, the neutrinos will are identical to their own anti-particles. Moreover, the Heilderberg-Moscow group claims they have reach a positive result in 0νββ with a solid state 76Ge experiment,
that will imply an effective neutrino mass of 0.24-0.58 meV. As usual, in the frontier science
the result is controversial and must be confirmed.
The neutrinoless double beta decay experiments are based in their ability to find the
signal of the end-point (Qββ) in the two-electrons energy spectrum of the double beta decay
with neutrinos. Due to the limited energy resolutions of every detector and long time scale of
those experiments, any kind of possible background falling into the energy window of interest damages the sensitivity to the effective neutrino mass. Based on these point, neutrinoless
double beta decay experiments has especial requirements as the ultra-high radiopurity of all
materials of the detector and the requirement of ultra-low background of the laboratories.
NEXT, will be running in the Canfranc Underground Laboratory (LSC).
In any case, a continuous spectrum arising from α, β and γ radiation from the natural decay chains can overwhelm the signal peak. For these reason, we need extra tools to discriminate backgrounds.
The double beta decay experiments could be separated in two big groups, the ones which
use calorimeters as main detector (calo group), these detectors are fully active detectors but
they only play with the energy resolution and can’t distinguish the topology of the double
beta event. On the other side, we have the ones which tries to use the typical topology of the
double beta decay (tracko-calo experiments), tracking the electrons, in order to have better
background rejection, the energy resolution in that experiments is too poor to obtain good results, moreover they are not fully active detectors so are difficult and expensive to extrapolate
to larger masses. The main problem in both groups was the background.
The NEXT experiment would be inside the tracko-calo experiments due to its ability to
recognize the topology of the electrons inside the TPC. In spite of that we need to get a very
good energy resolution around 1% FWHM at 2.5 MeV to have a competitive experiment. At
these point is where the SOFT concept born.
The “Neutrino Experiment with a Xenon TPC” (NEXT) is a recent proposal that marries
an old subject (xenon TPCs) with a new instrumental concept (a SOFT, electroluminescent
TPC), collecting many of the desirable features for a successful experiment: a) Good energy
resolution, probably better than 1% FWHM at Qββ; b) topological signature, that can be used
for background rejection; c) a fully active detector; and d) a technique easy to extrapolate to
larger masses.
The NEXT Collaboration plans to do a complete research program to install the NEXT
detector in Canfranc Underground Laboratory (LSC) to compete with the new generation of
experiments.
The SOFT-electroluminescent TPC concept (Separated-Optimized Function for Tracking)
consists in separate the two main goals of the TPC in two different places of the TPC, and to
208
XXXII Reunión Bienal de la Real Sociedad Española de Física
use the scintillation light to perform the t0, the
energy function and the tracking.
The main proposal is an asymmetric TPC
where we have the grid in one side where we
produce a big amount of light to amplify the
primary ionization signal, close to that grid we
have a tracking system good enough to tell us
the main event topology characteristics. In the
opposite wall of the TPC, we have PMTs to
measure the light produced in the electroluminescent section and the primary scintillation
light which gives us the t0 and the position in z- Figura 1. An asymmetric TPC in which the
axes. Those PMTs will be the responsible of the cathode plane performs the energy function
and the anode plane performs the tracking
energy resolution.
The number of photons produced in the EL function.
section will be around 108 for a typical double
beta process close to the Qββ of the 136Xe. Depending of the PMTs distribution and on the
coverage area. The total number of photo-electrons produced must be enough to have good
energy resolution. As the light is not read close to the point where it is produced, the number
of photon read will depend on the position in the XY plane. These effect must be taken into
account at calibration level in order to reach the necessary energy resolution.
The baseline concept for the tracking function is the detection of the EL light via photosensors. In this case, the tracking must be provided by an array with 2-d pixelization of 1-1.5
cm and with less radioactivity and less cost per unit sensitive area than PMTs. The signal resolution of the tracking cells does not need to be remotely as good as that for the energy measurement, since diffusion and multiple scattering dominate the spatial information quality.
For tracking, we propose to use silicon photosensor devices, with the following advantages: a)smaller pitch, b) less cost, and c)very low levels of radioactivity. In addition to that
baseline design for tracking, we are also exploring the possibility to perform the tracking
function with micro-pattern devices as Micromegas (MM).
Referencias
[1] NEXT Collaboration, Letter of Intent (2009), http://next.ific.uv.es/.
209
Simposio de Física de Altas Energías y Física Teórica
Composición de rayos cósmicos ultra-energéticos:
un nuevo parámetro para los experimentos de superficie*
G. Ros1, A. D. Supanitsky2, G. A. Medina-Tanco2,
L. del Peral1 y M. D. Rodríguez-Frías1
1
2
Space Plasmas and AStroparticle Group. Universidad de Alcalá. [email protected].
Instituto de Ciencias Nucleares, UNAM. México D. F., México.
El estudio de los rayos cósmicos de ultra-alta energía (UHECRs), aquellos con energía
E>1018eV, se realiza a través de las cascadas extensas de partículas que generan en la atmósfera
al colisionar con los núcleos de ésta (EAS, por sus siglas en inglés). A partir de ello, se puede
obtener información referente a su energía, su dirección de llegada y se pueden determinar
diversos parámetros relacionados con el desarrollo de la cascada que permiten conocer la
composición del primario, si bien únicamente de forma estadística. El problema de la composición es el más complejo como puede verse comparando los resultados publicados por los
diversos experimentos [1].
Existen dos técnicas principales para el estudio de los UHECRs. Una de ellas consiste en
detectar la luz de fluorescencia que emiten los núcleos de la atmósfera al desexcitarse tras haber sido excitados por las partículas de la cascada. La cantidad de luz recogida en función de
la profundidad atmosférica se denomina perfil longitudinal, y el punto en el cual éste alcanza
el máximo, Xmax, es considerado el mejor parámetro para estudios de composición hoy día
(p.ej. [2]). La segunda consiste en utilizar una red de detectores de superficie (centelleadores o
tanques de agua) colocados a nivel del suelo, en los que las partículas de la cascada dejan una
señal al atravesarlos, realizando un muestreo discreto del frente de la lluvia. Esta técnica de
superficie proporciona diversos parámetros para estudios de composición, como el llamado
risetime, sus asimetrías temporales y el radio de curvatura del frente entre otros ([3]). Estos
parámetros de superficie son, en general, capaces de discriminar peor entre diferentes primarios ya que se ven más afectados por las fluctuaciones y las incertidumbres en los modelos
hadrónicos. Sin embargo, cuentan con la ventaja de que los detectores de superficie funcionan
a tiempo completo mientras que los telescopios de fluorescencia únicamente en noches claras
y sin luna, con lo que la estadística se reduce aproximadamente al 10%, lo que motiva seguir
buscando parámetros de superficie. En este trabajo se propone una nueva familia de parámetros de superficie:
! > Si # d rr0i n
N
Sb =
i=1
b
H
6VEM @
donde N son los detectores activados N, r0 = 1000 m es una distancia de referencia, Si es la
señal del detector medida en VEM (Vertical Equivalent Muon) y ri es la distancia en metros
del detector al eje de la cascada.
En [4] se ha realizado un completo estudio tanto desde el punto de vista analítico como
numérico de este parámetro. En la Figura 1 se muestra que el máximo poder discriminador
* Este trabajo ha sido financiado por el MICINN y el MEC con los proyectos FPA2006-12184-C02-02,
CSD2007-00042, ARGEN2007-002, FPA2008-04192-E/ARGEN y FPA2008-01698-E/FPA, y también gracias
a los proyectos de México PAPIIT-UNAM IN115707 y IN115607 y al CONACyT con los proyectos 46999-F
y 57772. G. Ros quiere agradecer además a la Comunidad de Madrid por su contrato de Formación de
Personal Investigador.
210
XXXII Reunión Bienal de la Real Sociedad Española de Física
entre dos muestras de hierro y protón (el cual se determina utilizando el estadísitico llamado
merit factor η) se produce para b = 3.0, tanto en el estudio analítico como numérico. En el análisis
numérico se realiza una simulación completa de las cascadas atmosféricas y de su detección y
reconstrucción por parte de tanques de agua Cherenkov como los utilizados en el Observatorio
Pierre Auger Sur [5] utilizando para ello el software oficial de esta colaboración [6]. Se ha comparado el error en la determinación de la composición media de varias muestras usando como
parámetros S3, Xmax y el risetime calculado tal y como se muestra en [7]. Para ello se ha utilizado
un método de máxima verosimilitud cuyos detalles pueden consultarse en [4]. Se obtiene que el
error cometido con S3 es claramente inferior que con los otros dos parámetros (ver Figura 2), por
lo que se concluye que S3 es un nuevo parámetro muy útil para estudios de composición que se
puedan realizar por parte de los actuales y futuros experimentos de superficie.
Figura 1. Poder discriminador de Sb frente al exponente b. Izquierda: modelo analítico (línea negra
continua). Derecha: análisis numérico. En ambos el máximo es b = 3.0 (Detalles en [4]).
Figura 2. Error en la fracción de protones inferida en las muestras seleccionadas utilizando S3, Xmax y
el risetime a 1000 metros. Las muestras se eligen con una estadística equivalente al funcionamiento
del Observatorio Pierre Auger Sur durante 1 y 5 años. El error es claramente menor utilizando S3.
Detalles en [4].
Referencias
[1] M. T. Dova, A. A. Watson and A. G. Mariazzi. arXiv:astro-ph/0512408 (2005).
[2] M. Unger for the Pierre Auger Collaboration. 30th ICRC, México (2007). arXiv:0706.1495.
[3] M. Healy for the Pierre Auger Collaboration. 30th ICRC, México (2007). arXiv:0706.1569.
[4] G. Ros et al. 31st ICRC, Polonia (2009). Artículo en preparación.
[5] The Pierre Auger Collaboration. Nuclear Instruments and Methods A, 523 (2004), 50.
[6] S. Argiró et al. Nuclear Instruments and Methods A, 580 (2007) 1485.
[7] The Pierre Auger Collaboration. Astropart. Phys. 29 (2008) 243-256, arXiv:0712.1147.
211
Simposio de Física de Altas Energías y Física Teórica
Rayos Cósmicos ultra-energéticos: sobre la determinación
de la energía en los experimentos de superficie*
G. Ros1, G. A. Medina-Tanco2, L. del Peral1, M. D. Rodríguez-Frías1, M. Blanco1,
J. Calvo1, E. Colombo1, J. Gutiérrez1, J. A. Morales de los Ríos1 y N. Pacheco1
1
2
Space Plasmas and AStroparticle Group.Universidad de Alcalá. [email protected].
Instituto de Ciencias Nucleares, UNAM. México D. F., México.
Los rayos cósmicos de ultra-alta energía (E>1018 eV) son las partículas más energéticas del
Universo. Al interaccionar con los núcleos de la atmósfera generan billones de partículas una
cascada extensa de partículas. Las cascadas se detectan situando a nivel del suelo una red de
detectores (centelleadores o tanques de agua) en los cuales se genera una señal al ser atravesados por las partículas de éstas. A partir de las señales es posible reconstruir las propiedades
del rayo cósmico primario como su energía y dirección. La determinación de la energía tiene
dos etapas. Primero, se ajusta la distribución lateral de partículas (LDF), esto es, como varía
la señal recogida en los detectores con la distancia al punto de impacto de la cascada en el
suelo. Segundo, se elige un punto fijo conocido como distancia óptima, r0 (el Observatorio
Pierre Auger Sur elige 1000 m [1] y el experimento AGASA utiliza 600 m [2]), de modo que la
señal interpolada en ese punto S(r0) se relaciona con la energía del primario utilizando o bien
simulaciones Monte Carlo, como realizan los experimentos basados únicamente en la técnica
de superficie (AGASA), o bien mediante una calibración cruzada con la medida obtenida con
los telescopios de fluorescencia (Auger). A pesar de que todos los experimentos usan un valor
fijo, en [3] se muestra que la distancia óptima no es independiente de la energía y del ángulo
cenital de incidencia del primario. Por ello, en este trabajo se estudia como afecta en la determinación del espectro de rayos cósmicos el hecho de usar para todos los eventos la misma
distancia óptima (r0) en lugar del valor correcto para cada lluvia individual (ropt).
Para este estudio se elige un experimento como AGASA formado por centelleadores separados 1 km. Para simular todo el proceso adecuadamente se han elegido la misma LDF y
conversión de energía que en AGASA. Los detalles sobre la determinación de ropt para cada
evento y sobre el algoritmo de simulación y reconstrucción pueden consultarse en [4].
En el código de simulación se introduce un espectro que consta de 1000 eventos por intervalo de energía (Δlog(E) = 0.1) y va desde 1017.8 hasta 1020.5 eV. El ángulo cenital se elige
siguiendo una distribución isótropa. Para cada evento se determina su ropt (que varía desde
valores en torno a 500 m a las energías más bajas hasta 2.5 km a las más altas [4]) y su energía
por ambos métodos, a partir de S(ropt) y de S(r0 = 600 m). Además, es importante distinguir
entre aquellos eventos que tienen algún detector saturado de los que no, ya que tal y como se
muestra en [3], los eventos con detectores saturados tienen valores de ropt sistemáticamente
mayores.
En la Figura 1 se muestra el error relativo en la energía reconstruida por ambos métodos
mostrando por separado los eventos con algún detector saturado o y los que no. Como puede
verse el error es muy significativo, especialmente para los eventos con detectores saturados ya
que para ellos, su valor de ropt es mucho mayor que el valor fijo considerado (r0 = 600 m) lo que
provoca una subestimación muy importante de su energía. Además, este problema es crucial
* Este trabajo ha sido financiado por el MICINN y el MEC con los proyectos FPA2006-12184-C02-02,
CSD2007-00042, ARGEN2007-002, FPA2008-04192-E/ARGEN y FPA2008-01698-E/FPA. G. Ros agradece a
la Comunidad de Madrid por la concesión del contrato FPI.
212
XXXII Reunión Bienal de la Real Sociedad Española de Física
ya que los eventos con detectores saturados representan un porcentaje mayor del 50% de los
eventos a partir de 1019 eV y la totalidad a partir de 1019.5 eV (Figura 2). Utilizando ropt, el error
es prácticamente nulo en todo el intervalo de energías y para ambos tipos de eventos.
Figura 1. Error relativo en la determinación de la energía usando las dos técnicas. Izquierda: eventos
no saturados. Derecha: eventos saturados.
Figura 2. Fracción de eventos saturados como función de la energía.
Referencias
[1]
[2]
[3]
[4]
Takeda et al. Astroparticle Physics 19, 447-462 (2003).
The Pierre Auger Collaboration. arXiv:0706.2096 (2007).
G. Ros et al. XXXI Bienal de la RSEF. Granada (2007).
G. Ros et al. arXiv:0806.0388 (2008). Enviado a una revista internacional con revisión.
213
Simposio de Física de Altas Energías y Física Teórica
Búsqueda de fuentes puntuales en ANTARES
J. P. Gómez1, F. Salesa1, S. Toscano1, J. D. Zornoza1 y J. A. Aguilar2
I FIC- Instituto de Física Corpuscular, Edificios de Investigación de Paterna, CSIC - Universitat de València, Apdo. de Correos 22085, 46071 Valencia, España; [email protected].
2
Dept. of Physics, University of Wisconsin, Madison, WI 53706, USA.
1
1. El detector ANTARES
La Colaboración ANTARES finalizó en
mayo de 2008 la instalación del mayor telescopio de neutrinos submarino del hemisferio norte [1]. Este detector, ubicado en el fondo del mar Mediterráneo a unos 40 km de la
costa francesa de Tolón y una profundidad
de 2450 m, está constituido por una red tridimensional de casi 900 fotomultiplicadores
capaces de recoger la luz Cherenkov inducida por la interacción de neutrinos cósmicos
de alta energía con la materia que circunda
al detector. En su configuración final, el detector dispone de 12 líneas de 450 m de longitud divididas en 25 pisos donde los fotomulti-plicadores se encuentran agrupados Figura 1. Vista esquemática del detector ANTAen tripletes de módulos ópticos (esferas de RES.
vidrio capaces de resistir las altas presiones
del entorno submarino). Una de las características más significativas del telescopio ANTARES
es su resolución angular, que alcanza los 0.3 grados a energías superiores a los 10 TeV.
Los principales objetivos cien-tíficos del experimento son la identifi-cación de fuentes astrofísicas de emisión de neutrinos cósmicos (AGNs, GRBs, etc.), la búsqueda de señales de
materia oscura en la aniquilación del neutralino y el estudio de las oscilaciones de neu-trinos.
Este trabajo se centra en la identi-ficación de fuentes puntuales por medio del uso de algoritmos de búsqueda específicos que nos permitan determi-nar la existencia de señal sobre el
fondo de muones y neutrinos atmosféricos.
2. Análisis de fuentes puntuales
Hemos analizado los datos obtenidos durante 10 meses (feb.-dic. 2007) que se corres-ponden a un periodo en el que el detector estaba formado por tan sólo 5 líneas (375 fotomultiplicadores), lo que representa un volumen inferior a la mitad del disponible con la configuración
final de 12 líneas. Para la búsqueda de fuentes se han utilizado dos métodos distintos [2]. El
primero de ellos, denominado Expectation-Maximization algorithm (EM), se basa en la maximización analítica de la función de verosimilitud de las distribuciones de probabilidad de un
modelo de fondo más señal. El segundo método (usado como cross-check) utiliza la estadística
poissoniana para realizar una búsqueda de exceso que pueda tenga lugar dentro de un cono
de determinado tamaño en el que dividimos el cielo observado.
En el método EM se asume que la muestra observada es una versión incompleta de otra
muestra más general (muestra completa), donde una coordenada extra nos indica a qué gru-
214
XXXII Reunión Bienal de la Real Sociedad Española de Física
po (señal o fondo) pertenece un suceso determinado. El algoritmo realiza un proceso iterativo
de dos pasos; en un primer momento (E) se estima el valor esperado de la verosimilitud de la
muestra completa y, en un segundo paso (M),
se maximiza analítica-mente el valor esperado
resultante de la iteración anterior. Finalmente,
utilizamos un test estadístico para confirmar o
rechazar la existencia de señal.
Una alternativa al método anterior es la
búsqueda de excesos estadísticos dentro de bines circulares (conos). Este método optimiza el
tamaño del cono de búsqueda con el objetivo
de maximizar la probabilidad de encontrar un
número de eventos incompatible con el fondo.
Figura 1. Vista esquemática del detector ANTARES.
3. Resultados
Hemos considerado dos enfoques para la búsqueda de fuentes: un estudio de corre-laciones con una selección de potenciales candidatos entre los distintos tipos de fuentes conocidas,
y una búsqueda ciega en todo el cielo sin hipótesis iniciales sobre la posición de las fuentes.
Tras confeccionar una lista de 25 emisores, tanto galácticos como extragalácticos, calculamos los correspondientes P-values (probabilidad de que el fondo produzca el valor observado del test estadístico), asumiendo que el espectro de la señal sigue una dependencia E-2. El
menor P-value obtenido nos indica un exceso (pre-trial) de 2.8 σ en las coordenadas δ = 57.760,
AR = 155.80. Esperaríamos obtener este resultado en el 10% de los experi-mentos realizados
cuando consideramos 25 fuentes (post-trial). Estos valores son compatibles con los que proporciona el método del cono.
En la búsqueda en todo el cielo el método EM obtiene la mayor significancia (P-value = 0.3)
en la región de coordenadas δ = -63.70, AR = 243.90. En esta zona también el método de los
conos encuentra una de las significancias más altas. El mapa del cielo con los 94 sucesos que
forman nuestra muestra de datos puede verse en la figura 2.
4. Conclusiones
No se ha encontrado ningún exceso estadísticamente significativo en este análisis. Sin
embargo, los primeros límites en el flujo para fuentes puntuales de ANTARES son los más
restrictivos hasta la fecha para el hemisferio Sur.
Referencias
[1] A
NTARES Collaboration: A Deep Sea Telescope for High Energy Neutrinos, E. Aslanides et al. astroph/9907432.
[2] Analysis of the optical beacon system and search for point-like sources in the ANTARES neutrino
telescope, J.A. Aguilar, PhD tesis.
215
Simposio de Física de Altas Energías y Física Teórica
Projected exclusion limits on the SM Higgs boson cross sections
obtained by combining the H → WW(*) and ZZ(*) decay channels
R. González Suárez1 y J. Cuevas2
1
2
IFCA, Instituto de Física de Cantabria, [email protected].
Universidad de Oviedo.
In this contribution, a combination of the results obtained with Monte Carlo analyses setting strategies for early Higgs boson searches in the H → WW(*) → 2l2ν and H → ZZ(*) → 4l
decay channels, where l stands for e or μ, is presented. These two channels alone should allow
the exclusion of the Standard Model Higgs boson in the mass range of 140-230 GeV by the
time when CMS collects 1fb-1 of data at a center-of-mass energy of 14 TeV. An estimate of how
the change of the LHC center-of-mass collision energy from 14 to 10 TeV will impact the Higgs
boson searches is also presented.
The combination is based then, on two recent analyses: H → WW(*) → 2l2ν [1] and
H → ZZ(*) → 4l [2]. Both analyses report their results in terms of expected event counts for
signal and background for a set of predefined Higgs boson mass points, with the associated
systematic errors. There are important differences between the two channels.
After all selection cuts are applied, the three sub-channels in the ZZ(*) analysis (4e, 4μ, 2e2μ)
can be lumped together without any losses in the overall sensitivity. This is due to the following facts: signal/background ratios for these channels are very similar, the dominant systematic errors are nearly 100% correlated, while their role is almost negligible.
As far as the WW(*) channel is concerned, the role of systematic errors is by far not negligible and the three sub-channels (ee, eμ, μμ) have rather different signal/background ratios.
Therefore, one cannot just lump them together without losing in the overall sensitivity and the
three channels must be properly combined. The error correlations between the three channels
(signals and backgrounds) are very high and roughly estimated to be at the level of 80%.
The combination is done with two methods, each with its own limitations and degrees of
approximation. The Bayesian methodology is used with an assumption of a flat prior on the
Higgs boson production, to allow for quick
estimates, 100% of correlation between systematic errors is assumed, which reduces
the problem to a simple one-dimensional
integration. This gives a conservative estimate. The other method used for setting the
exclusion limits is the modified frequentist
CLs methodology. This method is available
in the RootStatsCms package that was used
in this study. For a simple case of a single
counting experiment with a given observation, both methods are mathematically
identical.
The main impact of changing the center
of mass energy is the change in signal and
background cross-sections. The general Figura 1. Projected exclusion limits for the SM
trends are that the process with higher in- Higgs boson at 14 and 10 TeV center of mass enervariant masses naturally get hit harder; gies.
216
XXXII Reunión Bienal de la Real Sociedad Española de Física
also, processes originating from primary gluons suffer more than those involving quark/antiquark initial states (like most predominant backgrounds for Higgs searches). The other effect
that has to be taken into account arises from the change in the detector acceptance, which
is expected to get a little better with decreasing √S as heavy objects tend to be less boosted.
However, based on the ZZ(*) results, one should expect that the acceptance cut changes will
be very small and can be neglected in the first-order approximation. Therefore, to evaluate
the impact of switching the LHC energy for 14 to 10 TeV, we simply take the signal and background event counts from the recent CMS notes [1][2], and scale them. Next, the exclusion
limits are re-calculated with the new event count numbers.
The effect of changing from 14 to 10 TeV roughly corresponds to a loss of factor 1.5 in sensitivity at a given luminosity, or, equivalently, about twice as much luminosity will be needed
to achieve the same exclusion limits as we will be able to set at 14 TeV.
With about 1fb-1 of data collected at 14 TeV and using only two channels, H → WW(*) → 2l2ν
and H → ZZ(*) → 4l, we can exclude the Standard model Higgs boson in the mass range of
140-230 GeV.
Switching from 14 to 10 TeV center of mass energy implies that roughly two times larger
integrated luminosity is needed in order to achieve an equivalent sensitivity to the Standard
Model Higgs boson.
Therefore with around 200 pb-1 of luminosity, we could reach sensitivity for a SM Higgs
with a mass around 160-170 GeV comparable to the current Tevatron sensitivity.
Referencias
[1] C
. Charlot et al. Search for a Standard Model Higgs boson decaying to W bosons in the fully leptonic
final state CMS AN-2008/039, HIG-08-006-PAS.
[2] S. Baffioni et al. Search for the Higgs bóson in the ZZ(*) decay channel with the CMS experiment
CMS AN-2008/050, HIG-08-003-PAS.
217
Simposio de Física de Altas Energías y Física Teórica
Masas y mezclas de leptones en modelos de Higgs
compuesto holográficos
Adrián Carmona
CAFPE & Departamento de Física Teórica y del Cosmos, Universidad de Granada, 18071 Granada
La primera desviación del Modelo Estándar de Partículas Elementales (ME) ha sido observada en su sector leptónico. Así, la observación de oscilaciones de neutrinos puede ser explicada añadiendo al ME masas pequeñas para los neutrinos. La predicción de estas masas, y en
general de los acoplamientos de Yukawa de los fermiones, es uno de los mayores retos de la
física moderna. El ME puede incorporar las masas observadas, pero no existe una explicación
satisfactoria para la estructura de los correspondientes acoplamientos de Yukawa.
En nuestro modelo, el espacio de Minkowski es ampliado con una dimensión espacial
adicional con radio de curvatura R ~ 10-16TeV ~ MPl-1, donde MPl es la masa de Planck. Siendo
más precisos, asumimos la siguiente métrica AdS5 escrita en coordenadas conformes:
O2
_h dx m dx n - dz 2i,
ds 2 = R
Z z mn
donde R £ z £ Rφ es la coordenada que describe la dimensión adicional y hmn = diag(1, -1, -1, -1)
es la métrica de Minkowski en cuatro dimensiones. Existen dos puntos fijos o branas: una
ultravioleta (UV) situada en z = R ~ MPl-1, y otra infrarroja (IR) en z = Rφ ~ TeV-1.
El grupo de simetría gauge electrodébil (ED) SU(2)L, U(1)Y es extendido a SO(5)’, U(1)X [1],
el menor grupo de simetría que lo contiene teniendo un pseudos bosón de Goldstone identificable con el bosón de Higgs del ME y un subgrupo de simetría custodial SO(3). La elección
de condiciones de contorno adecuadas para los bosones de gauge permitirá romper SO(5)’,
U(1)X a SU(2)L, U(1)Y en la brana UV y a SO(4)’, U(1)X en la brana IR. Además, con el fin de
reproducir el patrón de mezcla aproximadamente tri-bimaximal (TB) observado en el sector
leptónico [2], añadiremos al grupo gauge anterior el grupo de simetría discreto A4 [3]. Por
último, la adición del grupo continuo U(1)FN nos permitirá deshacernos de ciertos operadores
que son fuente de violación de sabor.
El contenido fermiónico del modelo así como sus números cuánticos bajo los grupos arriba citados se muestra a continuación:
Z1
SO(5)
5
U(1)X
0
A4
U(1)FN
Z2
5
0
3
-2
Z3
5
Zα
5
-1
-1
3
1,1’,1’’
1
0
3
1
Tabla 1. Campos fermiónicos con sus respectivas cargas gauge y de sabor. El índice α toma los valores
e, μ y τ.
con las siguientes condiciones de contorno para los:
c n Yc 6- , +@,
Z1 = `l1% 6- , +@ l1 6+ , +@j ^2, 2h A
1
%
c
`
j
Z = l 6+ , -@ l 6+ , -@
An Yc 6- , -@,
2
218
2
2
^2, 2h
1
XXXII Reunión Bienal de la Real Sociedad Española de Física
c e Yc 6- , +@,
Z3 = `l3 6- , +@ l 3% 6- , +@j ^2, 2h A
3
%
c
`
j
Z = l 6+ , -@ l 6+ , -@
Ae Yc 6- , -@ .
a
a
a
^2, 2h
a
La descomposición de los multipletes bajo el grupo de simetría SU(2)L, SU(2)R @ SO(4) se
indica como subíndice. Además, hemos denotado por l los dobletes con números cuánticos
idénticos a los del ME y por l% los dobletes que poseen partículas nuevas. En esta notación,
[+/-]hace referencia a condiciones de contorno de Neumann (Dirichlet) para la componente a
izquierdas, teniendo la otra componente condiciones de contorno opuestas.
Finalmente, para poder obtener la mezcla TB en el sector leptónico, debemos romper
A4’ U(1)FN a 2 en la brana UV y a 3 en la brana IR. Para ello introduciremos dos escalares localizados en cada brana, cuyos números cuánticos mostramos a continuación:
f(UV)
SO(5)
1
U(1)X
0
A4
h(UV)
1
0
1
4
fφ(IR)
1
fφ(IR)
1
0
0
3
1
1
3
3
U(1)FN
4
Tabla 2. Escalares localizados con sus cargas gauge y de sabor.
Una vez fijado el grupo de simetría y el contenido de materia de nuestro modelo debemos
escribir el lagrangiano más general posible incluyendo términos localizados en ambas branas.
Para c3 > c1, la matriz de mezcla obtenida teniendo en cuenta sólo los modos cero es exactamente TB. Si por el contrario, c3 £ c1 (con ci los parámetros de localización en la dimensión
extra), obtenemos desviaciones que nos permiten tener q13 1 0 sin necesidad de incluir modos
más pesados. Para ciertos valores de los parámetros, la inclusión de modos pesados permite
obtener igualmente una matriz de mezcla TB. Con respecto al espectro leptónico, es posible
generar las masas de los leptones cargados y neutrinos mediante localización de funciones de
onda en el primer caso y localización junto al mecanismo de see-saw en el segundo. Es importante resaltar que tanto las masas como las mezclas obtenidas son perfectamente naturales,
puesto que todos los parámetros toman valores del mismo orden. Además, al igual que en el
ME, no obtenemos cambio de sabor a nivel árbol y los procesos a un lazo como m ® eg están
dentro de las cotas experimentales.
Referencias
[1] R. Contino, Y. Nombra, and A. Pomarol, Nucl. Phys. B671, 148 (2003), hep-ph/0306259.
[2] P. F. Harrison, D. H. Perkins, and W.G. Scott, Phys. Lett. B530, 167 (2002), hep-ph/0202074.
[3] C. Csaki, C. Delaunay, C. Grojean, and Y. Grossman, JHEP 10, 055 (2008), 0806.0356.
219
Simposio de Física de Altas Energías y Física Teórica
Estudio de anisotropías en la difusión de electrones galácticos
I. Cernuda y C. Mañá
División de Investigación Básica, CIEMAT 28040 Madrid. [email protected].
En el contexto de astrofísica de altas energías, la persistente medida de una sobredensidad
local de electrones y positrones respecto al fondo esperado por modelos estándar de producción y propagación de rayos cósmicos, constituye uno de los puzzles más intrigantes de los
últimos años. Datos recientes de las colaboraciones PAMELA, ATIC y con menor significancia
estadística de Hess y PPB BETS apuntan a un exceso que comienza en las decenas de GeV y
alcanza su máximo alrededor de 600 GeV. La posible existencia de fuentes primarias de rayos
cósmicos no conocidas pugna con análisis detallados de los mecanismos de difusión que parcialmente pueden explicar el exceso. Para poder diferenciar los diferentes escenarios la medida del espectro parece ser insuficiente, sin embargo, el análisis de anisotropías muestra ser un
buen método para discriminar las fuentes. En este trabajo analizamos el espectro esperado en
el caso de aniquilación de materia oscura en el halo galáctico y la contribución esperada en el
caso de producción de electrones en púlsares. Asimismo, calculamos la anisotropía esperada
en el flujo y las expectativas de detección para ambos casos por el observatorio espacial Fermi.
Para lo primero consideramos un perfil de densidad de halo galáctico tipo NFW homogéneo
y de manera independiente, la posibilidad de existencia de clumps de materia oscura cercanos. Para lo segundo consideramos la colección de púlsares de rayos gamma recogidos en el
catálogo ATNF [1].
La propagación de positrones en el medio galáctico es un proceso de difusión en el que
intervienen grandes pérdidas energéticas debidas a la emisión sincrotrón resultando en longitudes de difusión del orden del Kpc a las energías consideradas.
La solución a la ecuación de evolución en una situación estacionaria como es el caso de
una fuente de materia oscura, consta de un primer primer término α < σv > f(E)/M2 que codifica la información relevante a física de partículas, <σv> ~ 10-26 cm3/s la sección eficaz de
aniquilación promediada en velocidades, f(E) las fracciones de aniquilación y M la masa de la
partícula (~1TeV), y de un segundo término α ∫ρ2(x)G(E,x)dx3 correspondiente a la astrofísica,
descrito por la correspondiente función de Green G y la densidad del halo ρ. Los datos sugieren un candidato leptofílico, es decir uno cuyos productos de aniquilación sean predominantemente leptones con una masa alrededor de 600 GeV. Asimismo, secciones eficaces del orden
considerado no son suficientes para explicar la densidad de positrones por los mecanismos de
producción estándar, siendo necesario recurrir a factores de ensanchamiento de aproximadamente 2 o 3 ordenes de magnitud con posible origen astrofísico (clumps de materia oscura) o
de física de partículas (sección eficaz de aniquilación dependiente de la velocidad, producción
primordial no térmica). En la figura 1 se puede ver el espectro esperado de e+ + e- por la aniquilación de materia oscura en el halo teniendo en cuenta la contribución de un clump cercano.
Por otra parte, los pulsares también pueden generar gran cantidad de pares electrón positrón como resultado de cascadas electromagnéticas producidas por la aceleración de electrones en su magnetosfera. La inyección de pares en el medio galáctico en este caso se puede
expresar como una ley de potencias con un cutoff en el rango del TeV.
220
XXXII Reunión Bienal de la Real Sociedad Española de Física
Figura 1. (a): e+ + e- para la colección de púlsares del catalogo ATNF (línea punteada inferior) y para
la contribución por aniquilación de un clump de materia oscura, d = 1.64Kpc y M = 1TeV (línea
punteada superior). (b):Anisotropía generada por un clump a 1 Kpc para 3 modelos de difusión,
M = 650GeV.
Se han sugerido diferentes modelos para describir este proceso produciendo todos ellos
una cantidad de energía por pulsar en forma de pares del orden de 1047 erg. Los electrones
generados de este modo se propagan en un proceso no estacionario. Considerando el caso
estándar de producción de pares en el cual toda la energía de rotación del pulsar se pierde
por radiación dipolar magnética con una eficiencia de conversión en pares del orden del 10%
el espectro esperado para la colección de pulsares se ajusta a los datos (Fig.1).
Anisotropías
Tradicionalmente la dirección de llegada de rayos cósmicos ha sido considerada en buena
aproximación isótropa sin embargo se sabe que pueden existir pequeñas anisotropías que
podemos medir y correlacionar con fuentes conocidas. En el caso de electrones, la anisotropía
creada por una fuente viene dada por δ = 3D(E)| N|/cN, donde D es el coeficiente de difusión y N la densidad de partículas. En este trabajo hemos calculado la anisotropía esperada
tanto en el caso de una fuente estacionaria (materia oscura) como una fuente no estacionaria
(púlsares, SNRs...).
En el caso no estacionario hemos considerado la contribución al dipolo total dada por la
colección de pulsares del catálogo ATNF, mientras que en el caso de materia oscura, hemos
considerado la contribución dada por un clump o minispike cercano normalizado para ajustar los datos de PAMELA (Fig.1).
En ambos casos, esperamos encontrar una anisotropía al menos al nivel de 2 sigmas con el
observatorio espacial Fermi actualmente tomando datos.
Referencias
[1]Manchester et al. (2004) The ATNF Pulsar Catalogue, Manchester, R. N., Hobbs, G. B., Teoh, A. and
Hobbs, M., Astron. J., 129, 1993-2006 (2005) [astro-ph/0412641].
221
Simposio de Física de Altas Energías y Física Teórica
MAGIC Observations of Markarian 421 during Multiwavelength
Campaigns in 2006
I. Oya1, S. Rügamer2, J. L. Contreras1, R. M. Wagner3 for the MAGIC collaboration4
Universidad Complutense, E-28040 Madrid,[email protected].
Universität Würzburg, D-97074 Würzburg, Germany.
3
Max-Planck-Institut für Physik, D-80805 München, Germany.
4
http://wwwmagic.mpp.mpg.de/.
1
2
The active galactic nucleus (AGN) Mkn 421, of Blazar type, was the first extragalactic
source to be detected in the TeV energy range using the imaging atmospheric Cerenkov technique. Blazars, a rare type of AGN, emit beamed emission inside a jet whose direction is closely aligned to the line of sight of the observer. Mkn 421 has remained one of the most active TeV
γ-ray blazars showing flux variations by more than an order of magnitude, and occasional
doubling times as short as 15 minutes. Its fast, sub-hour, flaring behaviour at keV and TeV
energies, with a strong evidence of correlation, suggests a very compact emission region.
The detection and study of Mkn 421 at all wavelengths has allowed to reconstruct a spectral energy distribution (SED) that shows the typical two bump structure for Blazars: a first
bump peaking at keV energies and a second one at TeV energies. These SEDs are commonly
interpreted as being caused by a beamed, non-thermal emission of synchrotron and inverse
Compton radiation from ultra-relativistic electrons accelerated in the jet.
The Major Atmospheric Gamma Imaging Cerenkov (MAGIC) telescope [2] performed
very high energy (VHE, defined as E > 100 GeV) observations of Mkn 421 during eight nights
from MJD 53848 to MJD 53856 (2006 April) and in MJD 53901 (2006 June). Simultaneous
Multiwavelength (MWL) measurements were performed together with the Suzaku and the
XMM-Newton satellites in MJD 53854 and in MJD 53855, respectively. For this latter campaign, the Whipple 10-m telescope provided 3.5 hours additional simultaneous VHE coverage to XMM-Newton, although, due to the geographical separation of the two experiments,
after the MAGIC observations stopped. In MJD 53901 simultaneous X-ray observations were
carried out by INTEGRAL.
The MAGIC observations were taken in the false-source (wobble) mode, pointing alternatively to two opposite sky directions 0.4° off the source, tracking each position for 20 minutes.
This wobble mode allows a simultaneous measurement of signal and background. After calibration and signal extraction of the data, the shower images were cleaned from the noise of
the night sky background. Further data reduction was performed using the MAGIC analysis
software [3]. Finally, the statistical significance of the detection, calculated using equation 17
from [4], was obtained applying a cut in θ2, θ2 being the angular distance between the expected source position and the reconstructed γ-ray arrival direction. The event rate was used
as one of the indicators of the quality of the data. From a total of 14.2 h of observation during
April, 11.9 h passed the quality cuts and were used for further analysis, whereas for the June
sample the full observed 0.80 h were used.
222
XXXII Reunión Bienal de la Real Sociedad Española de Física
Figura 1. Differential energy spectrum of Mrk
421 measured by MAGIC in April 2006. Fits to
a power law with exponential cut-off, black line,
and to a simple power law, gray line, are shown.
Figura 2. MAGIC light curve for Mrk 421 in
April 2006. Dashed line is Crab flux, whereas
solid line is the average flux of the low state days.
Gray areas mark MWL observations.
A strong signal was detected for all observation nights, with a total significance of 64.5 σ
for the April sample, and 7.5 σ for the June single night. For each night a differential energy
spectrum was derived, well described by a simple power law fit, with the exception of MJD
53853, better described by a power law with exponential cut-off (likelihood ratio test probability: 95.2%). The same applies to the spectrum of the overall April sample (see Fig 1.). The
observations indicated an elevated flux state of Mkn 421. During three nights the flux was specially high (see fig2.). The measured strong signal allowed to infer light curves on sub-hour
scale for all days. Most light curves were compatible with a constant flux, but on MJD 53855,
which does not show a particularly high flux, clear intra night variability was observed. The
MAGIC and Whipple telescopes observations, carried out simultaneously with XMM-Newton, showed no obvious correlation between X- and VHE γ-rays [1].
Leptonic acceleration models predict a shift of the inverse Compton peak of the SED towards higher energies with increasing flux. In VHE ranges this means a hardening of the
spectral index. Several groups have reported evidence of hardening of the spectrum during
a flare. The data presented here showed an indication of this effect but, probably caused by
their relatively small dynamical range, it was not possible to definitely confirm nor rule out
such a correlation.
A ToO alert by XMM-Newton on Mkn 421 in June 2006 triggered MWL observations at
various energy ranges. MAGIC and INTEGRAL observed the source simultaneously at MJD
53901. Subsequent pointings by the Whipple telescope some days later showed increasing
source fluxes.
The data of this work, presented in detail at [1,3], will be further investigated in a MWL
context (publications in preparation).
We thank the Instituto de Astrofísica de Canarias for the excellent working conditions at
the Observatorio Roque de los Muchachos in La Palma.
References
[1]
[2]
[3]
[4]
Acciari, V.A. et al. (VERITAS and MAGIC Collabs.), 2009, ApJ, submitted.
Albert, J., et al. (MAGIC Collab), 2008, ApJ, 674, 1037.
Anderhub, H., et al. (MAGIC Collab), 2009, A&A (in preparation).
Li, T.-P., & Ma, Y.-Q. 1983, ApJ, 272, 317.
223
Simposio de Física de Altas Energías y Física Teórica
Dependencia de las propiedades de los mesones ligeros
con la masa de los quarks
J. Nebreda y J. R. Peláez
Departamento de Física Teórica II, Universidad Complutense de Madrid, 28040 Madrid.
1. Introducción y motivación
La Cromodinámica Cuántica (QCD) está firmemente establecida como la teoría que explica las interacciones fuertes. Sin embargo, esta teoría pierde su carácter perturbativo a bajas
energías y no permite describir la física hadrónica en términos de quarks y gluones. La Teoría
de Perturbaciones Quiral (ChPT) es una teoría efectiva que incorpora todas las simetrías de
QCD de la forma más general posible y nos permite estudiar de forma sistemática e independiente de modelos la interacción entre los mesones más ligeros. Utilizando el Método de
la Amplitud Inversa (IAM) [1] para unitarizar esta teoría, es posible reproducir resonancias
mesónicas de hasta 1,2 GeV, en concreto las vectoriales ρ y K*, bien conocidas y entendidas en
teoría de quarks como estados quark-antiquark, y las escalares κ, a0(980), σ y f0(980), objeto
de un intenso estudio teórico y experimental en estos últimos años. En particular, se halla en
debate su clasificación espectroscópica como miembros de un multiplete de la simetría SU(3)
de sabor.
En este trabajo desarrollamos un método para demostrar que determinadas resonancias
forman parte de un mismo multiplete de SU(3). Para ello cambiamos las masas de los quarks
ligeros u y d y del extraño s hasta hacerlas iguales, límite en el que la simetría de SU(3) de
QCD no está rota, y vemos cómo las resonancias que pertenecen al mismo multiplete ciertamente degeneran en masa y anchura.
Por otra parte, continuando el trabajo [2] que estudiaba la dependencia de las propiedades
de ρ y σ con la masa de los quarks ligeros en SU(2), extendemos el estudio a SU(3), lo que
nos permite examinar también las resonancias κ y K*. La importancia de este tipo de análisis
radica en la posibilidad de comparar con los resultados de QCD en el retículo (lattice QCD),
donde por el momento sólo se pueden estudiar las amplitudes de dispersión para grandes
valores de las masas de los quarks.
2. Método
ChPT se construye como el lagrangiano efectivo más general con los grados de libertad
relevantes a bajas energías, los bosones de Nambu-Goldstone (NGB), y que además contenga
la ruptura espontánea de la simetría quiral y las simetrías de QCD. Se trata de una expansión
en potencias de los momentos externos de los NGB y de las masas de los quarks en la que a
cada orden aparecen unos parámetros, las Constantes de Baja Energía (LECs) cuyo valor no
está determinado y debe ajustarse a los datos experimentales.
Para la clasificación de las resonancias en octetes, tomamos las amplitudes de ChPT en
SU(3) a segundo orden y las unitarizamos con el IAM para canales acoplados. El IAM consiste en modificar las amplitudes de ChPT de modo que cumplan la condición de unitariedad,
extendiendo su rango de validez hasta energías del orden de 1 MeV. Además este método nos
permite prolongar analíticamente las amplitudes al plano complejo y acceder a sus distintas
hojas de Riemann, donde encontramos polos cuya posición está relacionada con la masa y la
anchura de las resonancias mesónicas. A continuación, cambiamos la masa de los quarks en
nuestras amplitudes y estudiamos el movimiento de los polos correspondientes a las reso-
224
XXXII Reunión Bienal de la Real Sociedad Española de Física
nancias de interés en las distintas hojas. Cuando las masas de los tres quarks se hacen iguales,
observamos que los polos de la hoja completamente continua con la parte física del eje real se
juntan en un mismo punto, es decir, las resonancias se degeneran en masa y anchura, como
corresponde a los miembros de un mismo multiplete de SU(3).
Para comprobar la validez del método, lo hemos aplicado primero a las resonancias ρ y K*,
bien conocidas como pertenecientes al octete vectorial JP = 1-, y después a las controvertidas κ,
a0(980), σ y f0(980) para demostrar que forman el nonete escalar JP = 0+. Resultados similares se
habían obtenido en [3] pero sólo a primer orden en ChPT y con una escala de masas espuria
debido a la regularización por medio de un cut-off.
Por otro lado, hemos estudiado el movimiento de los polos correspondientes a las resonancias ligeras de isospín I = 1, ρ y σ, y de isospín I = 1/2, K* y κ al aumentar la masa de los
quarks ligeros, para comparar sus masas y anchuras con las obtenidas en el retículo.
3. Resultados
A continuación se muestran unas gráficas que recogen los resultados del estudio.
Figura 1. Trayectoria de los polos, cuya posición se relaciona con la masa y anchura de las resonancias
mediante S polo . M - iC/2 . En línea continua (discontinua) se muestra el movimiento de los
polos en la hoja relevante para masas de los quarks físicas (iguales). Los puntos indican la posición de
los polos correspondiente a las masas físicas.
4. Conclusiones
Hemos desarrollado un método para la clasificación de resonancias mesónicas ligeras utilizando las amplitudes de ChPT a segundo orden unitarizadas, que incluyen la dinámica de
QCD y están completamente renormalizadas sin introducir parámetros espurios. Hemos aplicado este método a las resonancias vectoriales ρ y K* y escalares κ, a0(980), σ y f0(980).
También hemos estudiado las propiedades de las resonancias para masas de los quarks
grandes y comprobado que reproducimos bien los resultados de QCD en el retículo.
Este trabajo ha sido financiado parcialmente por el contrato FPA2007-29115-E.
Referencias
[1] A. Gomez Nicola y J. R. Pelaez, Phys. Rev. D 65 (2002) 054009.
[2] C. Hanhart, J. R. Pelaez y G. Rios, Phys. Rev. Lett. 100, 152001 (2008).
[3] J. A. Oller, Nuc. Phys. A 727 (2003) 353-369.
225
Simposio de Física de Altas Energías y Física Teórica
NEXT, a HPXe TPC for neutrinoless double beta decay searches
J. Martín-Albo1, J. Muñoz y J. J. Gómez Cadenas
Instituto de Física Corpuscular (IFIC), CSIC – Universidad de Valencia, 46980 Valencia, Spain.
1
[email protected].
Neutrino oscillation experiments have demonstrated that neutrinos have masses and mix.
The mechanism responsible for generating their masses may be related to the particle/antiparticle nature of the neutrino. Neutrinos could be Majorana particles, that is, identical to
their antiparticles. All other Standard Model fermions, being electrically charged, are instead
Dirac particles, distinguishable from their own antiparticles. Majorana neutrinos provide an
attractive explanation for the smallness of neutrino masses, the so-called seesaw mechanism.
Furthermore, Majorana neutrinos violate lepton-number conservation. This, together with
CP-violation, is a basic ingredient to help uncover the reasons why matter dominates over
antimatter in our Universe.
The most promising experimental method to reveal the neutrino nature is the search for
neutrinoless double beta decay (0νββ): (Z, A) → (Z+2, A) + 2 e-. Such a process is possible if
and only if neutrinos are massive, Majorana particles. In addition, the measurement of the
half-life of the 0νββ would provide direct information on the absolute scale of neutrino
masses. The half-life of the 0νββ process, if
mediated by the exchange of a light Majorana neutrino, is inversely proportional to the
square of the effective Majorana mass, mββ,
defined as the m11 element of the neutrino
mass matrix in the flavour basis, and therefore depends on the neutrino mass eigenstates and the elements of the PMNS mixing matrix, parameterized in terms of three
mixing angles and three complex phases.
The search for neutrinoless double beta
decay relies on finding a faint signal at the
transition end-point (Qββ) of the 2νββ (the
SM-allowed mode) energy spectrum. Due
to the finite energy resolution of detectors, Figura 1. Topological signature of a 0νββ in
0νββ events, that should pile at Qββ, spread NEXT: a continuous track ending in two blobs.
over a larger region. Any background event The trajectory of electrons contains no informafalling into this region of interest limits dra- tion, being dominated by multiple scattering in
matically the sensitivity to the effective neu- the dense gas xenon.
trino mass. In a background-limited experiment the sensitivity improves only as (Mt)-1/4 —where M is the total mass of ββ source and t is
the experiment run time— instead of the (Mt)-1/2 expected in the background-free case. Good
energy resolution is therefore essential.
Unfortunately, resolution is not enough per se: a continuous spectrum arising from α,
β and γ radiation from the natural decay chains can overwhelm the signal peak, given the
enormously long decay times explored. Consequently, extra handles to reject backgrounds are
required.
226
XXXII Reunión Bienal de la Real Sociedad Española de Física
Traditionally, 0νββ experiments have been carried out with devices such as germanium
diodes, which rely mainly on their impressive energy resolution. Others experiments tried to
exploit the topological signature of a ββ event to reject backgrounds, but their energy resolution was mediocre. Both approaches have been dominated by backgrounds.
The “Neutrino Experiment with a Xenon TPC” (NEXT) is a recent proposal that marries
an old subject (xenon TPCs) with a new instrumental concept (a SOFT, electroluminescent
TPC), collecting many of the desirable features for a successful experiment: a) Good energy
resolution, probably better than 1% FWHM at Qββ; b) topological signature, that can be used
for background rejection; c) a fully active detector; and d) a technique easy to extrapolate to
larger masses.
The NEXT Collaboration recently submitted a Letter of Intent proposing a full research
program whose goal is to build and operate at the Laboratorio Subterráneo de Canfranc (LSC)
a 100 kg (fiducial mass) detector, competing with, and possibly outperforming, the other newgeneration experiments.
The NEXT detector is based on a novel detection concept: a Time Projection Chamber
filled with high-pressure gaseous xenon (used as source and detector), with separated-function capabilities for calorimetry and tracking, and use of electroluminescence (EL) to amplify
the primary ionization signals.
Xenon is the only noble gas that has a ββ decaying isotope, 136Xe (9% of natural abundance). It does not have other long-lived radioactive isotopes and can be easily enriched by
centrifugation methods. The Qββ value of 136Xe (2480 keV) is acceptably high, and the 2νββ
mode lifetime (not yet measured) may be as long as 1022 years.
The EL readout consists in a parallel grid or a wire plane to accelerate the ionization electrons below the avalanche limit producing abundant, proportional scintillation light, which is
detected with photo-sensors. Very good energy resolution, ~0.5% FWHM at 2.5 MeV (close to
the theoretical limit), can be reached in this way.
Double beta decay events have a distinctive topological signature in high-pressure gaseous Xe (Figure 1): a ionization track, of about 30 cm length at 10 bar, tortuous because of
multiple scattering, and with larger depositions or blobs in both ends.
Detection of the initial scintillation prompt signal of an event and its use as start-of-event
provides complete 3D-reconstruction, allowing the rejection of essentially all charged background entering the active volume. The most serious background for NEXT are high-energy
gamma rays from 208Tl and 214Bi (from the thorium and uranium decay chains, respectively).
They create electron tracks in the xenon through Compton interaction, pair-creation and photoelectric absorption. However, most of those events can be distinguished by their topology.
Simulations show suppression factors of the order of 10-7 - 10-8.
A half-life sensitivity above 5.5×1025 years, corresponding to an effective neutrino mass of
~140 meV, is expected after running NEXT-100 for 5 years (500 kg·y of exposure).
Referencias
[1] NEXT Collaboration, Letter of Intent (2009), http://next.ific.uv.es/.
227
Simposio de Física de Altas Energías y Física Teórica
Simulación de cascadas atmosféricas (EAS) generadas por
neutrinos cósmicos de extremadamente alta energía (EHECR)
para el observatorio espacial JEM-EUSO*
J. A. Morales de los Rios, M. Blanco, J. Calvo, E. Colombo, N. Pacheco,
L. del Peral, M. D. Rodríguez Frías & G. Ros
Space Plasmas and AStroparticle Physics (SPAS) Group. Universidad de Alcalá, www2.uah.es/spas,
[email protected]
JEM-EUSO ("Extreme Universe Space Observatory" at the Japanese Experiment Module)
es un telescopio que irá acoplado al módulo japonés de la estación espacial internacional
(ISS) (Figura 1) y cada 90 minutos orbitará la Tierra a una altitud de 400 km. JEM-EUSO es
un nuevo tipo de detector que utilizará grandes volúmenes de la atmósfera del planeta como
calorímetro para detectar las partículas más energéticas del Universo, la radiación cósmica
de extremadamente alta energía, que son aquellas con E > 1019 eV (EHECR, por sus siglas en
inglés). JEM-EUSO detectará destellos de radiación de fluorescencia generada en la atmósfera
por el paso de estas partículas que al excitar el N2 y regresar a su estado fundamental, emiten
fotones de fluorescencia. Este telescopio posee un campo de visión muy amplio (60º FoV),
3 lentes de Fresnel de 2.5 m de diámetro y como detectores utilizará unos 5000 fotomultiplicadores multiánodo (MAPMT) muy rápidos para observar la traza de fluorescencia con
suficiente precisión. [1]
El objetivo principal del telescopio es realizar por primera vez astronomía con partículas
cargadas a las más altas energías. Esto permitirá el estudio de las fuentes que pueden acelerar
partículas a tan altas energías; a energías menores las partículas cargadas son deflectadas por
campos magnéticos galácticos y extragalácticos haciendo muy difícil determinar su origen.
JEM-EUSO será el único capaz de recoger suficientes datos a estas energías para hacer viable
este estudio. Otro objetivo es diferenciar entre rayos gamma y neutrinos de los núcleos que
son la componente mayoritaria. Además existen otros objetivos exploratorios como imponer
limitaciones a los modelos extradimensionales a partir de la medida del flujo de neutrinos, explorar posibles invariancias de Lorentz o posibles efectos de gravedad cuántica, y, por último,
posibles resultados derivados de la observación continúa de la Tierra. [2]
En la Universidad de Alcalá se utilizan programas Monte Carlo como CORSIKA (COsmic
Ray SImulations for kascade) y Conex [3] para la simulación de la cascada en la atmósfera, y
luego con programas como ESAF (EUSO Simulation and Analysis Framework) [4] (Figura 2)
podemos reconstruir como sería visto desde el telescopio. Debido a las cantidades de cálculo
y datos necesarios para obtener suficiente estadística utilizamos centros de cálculos avanzados como el grid de CETA-CIEMAT (Centro Extremeño de Tecnologías Avanzadas) y de
esa forma realizar el trabajo en tiempos mucho menores que los requeridos si se usaran PC
individuales.
Actualmente se trabaja en las simulaciones de las cascadas, se estima que serán necesarios
varios miles de cascadas generadas por neutrinos y algunas cascadas generadas por otras
partículas (sólo para comparaciones y verificación del funcionamiento de los programas de
reconstrucción). Además de la simulación de las cascadas, se está acondicionando el código
de los programas de reconstrucción para la lectura de los ficheros de las cascadas simuladas,
* J. A. Morales de los Rios y G. Ros agradecen a la Universidad de Alcala y a la Comunidad de Madrid
respectivamente por sus becas FPI.
228
XXXII Reunión Bienal de la Real Sociedad Española de Física
ya que en el centro de cálculo de CETA-CIEMAT, la infraestructura está basada en sistemas
de 64 bits, mientras que ESAF está diseñado para leer archivos de 32 bits. Además se está
introduciendo el código de HERWIG [5] en módulos adicionales de CORSIKA para el cálculo
de las primeras interacciones de neutrinos.
Figura 1. Imagen de JEM-EUSO en la ISS [2].
Figura 2. Esquema de módulos de ESAF [3].
Referencias
[1]T. Ebisuzaki, The JEM-EUSO Mission, 30TH INTERNATIONAL COSMIC RAY CONFERENCE, Merida Mexico (2007).
[2]Yoshiyuki Takahashi, Science Objectives of the JEM EUSO mission on International Space Station,
30TH INTERNATIONAL COSMIC RAY CONFERENCE, Merida Mexico (2007).
[3]D. Heck et al., Report FZKA 6019 (1998), Forschungszentrum Karlsruhe; http://www-ik.fzk.de/corsika/physics description/corsika phys.html.
[4]Dmitry V. Naumov (JINR, Dubna), Russia Tuebingen ESAF Workshop. February 5-6, 2009.
[5]HERWIG 6.5, G. Corcella, I.G. Knowles, G. Marchesini, S. Moretti, K. Odagiri, P. Richardson, M.H.
Seymour and B.R. Webber, JHEP 0101 (2001) 010 [hep-ph/0011363]; hep-ph/0210213.
229
Simposio de Física de Altas Energías y Física Teórica
Alineamiento del detector interno de ATLAS
utilizando rayos cósmicos
V. Lacuesta-Miquel, C. Escobar y R. Moles-Valls
Instituto de Física corpuscular (CSIC – Universidad de Valencia)
El Gran Colisionador de Hadrones (LHC) es un colisionador protón-protón situado en
el CERN en Ginebra, Suiza. El LHC será capaz de colisionar protones con una energía de
14 TeV en el centro de masas con una frecuencia de 40 MHz. El detector ATLAS (A Toroidal
LHC ApparatuS) [1] es uno de los 4 experimentos del LHC diseñado como experimento de
propósito general. El sistema de trazas es el Detector Interno (ID) que está compuesto por 3
sub-detectores: Pixel, SCT (ambos utilizan la tecnología del silicio) y TRT (que utiliza tubos
de deriva). El detector Pixel esta compuesto por 1744 detectores píxel idénticos ordenados en
3 barriles y 3 discos en cada lado. El SCT esta compuesto por 4088 módulos con detectores de
micro bandas p-sobre-n organizados en 4 barriles y 2x9 discos. Finalmente el TRT se compone
de 992 módulos con tubos de deriva de poliamida situados en un barril y dos extensiones.
Figura 1. Comparación de los residuos en la dirección x e y local del Pixel para el caso alineado,
nominal y perfecto simulado.
El objetivo del detector interno de trazas es medir la trayectoria de las partículas cargadas
con precisión y la determinación lo más exacta posible de su momento y su parámetro de
impacto. Para alcanzar la precisión deseada es necesario conocer la posición de los detectores
con la mayor exactitud posible. Dichas posiciones deben de estar determinadas de tal forma
que no contribuyan más de un 20% en la degradación de los parámetros de las trazas respecto
a la resolución intrínseca del detector [2]. Por ello, el objetivo del alineamiento es determinar la
posición de los módulos para tener una descripción lo más exacta posible del detector real.
El alineamiento se realiza utilizando algoritmos basados en el análisis de trazas. Estos
algoritmos se basan principalmente en la minimización del χ2 de las trazas, calculado a partir
de sus residuos. El alineamiento del silicio se realiza en varios pasos. Las estructuras a alinear
pueden ser seleccionadas en cada uno de estos pasos: el barril del SCT, las tapas del SCT y el
Píxel como estructuras sólidas, capas y discos, tiras longitudinales de módulos, módulos indi-
230
XXXII Reunión Bienal de la Real Sociedad Española de Física
viduales, etc. La selección de estas estructuras en cada paso se realiza empezando por grandes
estructuras (pocos grados de libertad) hasta llegar finalmente a la selección de módulos individuales (miles de grados de libertad). Para alinear el TRT se utiliza una selección similar al
del silicio, con estructuras como barriles, ruedas y anillos.
A finales del 2008 ATLAS operó tomando rayos cósmicos durante 3 meses. Se obtuvieron
casi 8 millones de trazas en el detector interno con y sin campo magnético. El alineamiento se
realizó utilizando estos datos para obtener unas constantes que describieran con cierta precisión la posición de los detectores. Un alineamiento preliminar estaba disponible para mediados de septiembre (para cuando el LHC iba a colisionar los primeros haces). En las figuras 1
y 2 se muestran los residuales para los detectores Pixel y SCT, respectivamente, así como su
comparación con las posiciones nominales y una simulación con la geometría ideal.
Figura 2. Comparación de los residuos en la di- Figura 3. Esquema de módulos de ESAF [3].
rección y local del SCT para el caso alineado, nominal y perfecto simulado.
La validación consiste en lo siguiente: se toma una traza que pase por el detector interno y
se divide en dos segmentos, uno superior y otro inferior. A continuación se reajustan las dos
trazas independientemente y se calcula la diferencia de los parámetros de las dos trazas. Las
diferencias para el parámetro de impacto d0 se muestra en las figura 3. Se puede observar
que la anchura de la gausiana es de 49 micrómetros, siendo la contribución de las dos trazas,
comparable con los 32 micrómetros de la simulación con el detector ideal.
Actualmente dichas constantes se encuentran disponibles en la base de datos de ATLAS
listas para la reconstrucción de trazas tras la puesta en marcha del LHC.
Referencias
[1]ATLAS Detector Paper, ATLAS Collaboration, G. Aadet al., The ATLAS Experiment at the CERN
Large Hadron Collider, JINST 3 (2008) S08003.
[2] ATLAS Technical Design Report 4, CERN/LHCC/97-16.
[3]Global Chi2 approach to the Alignment of the ATLAS Silicon Tracking Detectors, P.Brückman de
Renström, A. Hicheur, S.Haywood, 2004, ATL-INDET-2005-002.
231
Simposio de Física de Altas Energías y Física Teórica
Search Strategy for a Standard Model Higgs Boson Decaying to
Two W Bosons in the Fully Leptonic Final State
L. Lloret1, R. González2, P. Lobelle2 y J. Cuevas1
1
2
Departamento de Física, Universidad de Oviedo, 33005 Oviedo; [email protected].
Instituto de Física de Cantabria, E-39005 Santander.
An analysis strategy for the search of the Standard Model Higgs boson decaying in WW
pairs is presented with the CMS experiment at the CERN LHC pp collider with a pp center of
mass energy of 14 TeV.
The analysis is designed for an early phase at low initial luminosity.
The channel pp - > H - > WW - > llvv is particularly important in the intermediate mass
range [1] and around mH ~ 2 x MW. The signal event signature is two isolated high PT leptons
(electrons or muons) with a small opening angle in the transverse plane, significant Etmiss (due
to undetected neutrinos) and without hard jets in the central CMS detector.
A prospective analysis is presented for a Higgs boson mass in the range from 120 to
200 GeV and for an integrated luminosity of 1fb-1.
The dominant SM backgrounds are W+ W- and tt production. The latter being reduced using central jet veto (vetoing all events with reconstructed jets in the central region).
For the event selection, sets of sequential cuts are applied to each of the three topologies
(namely ee, eμ, μμ) in order to isolate a signal in excess to the Standard Model backgrounds.
Various electron and muon trigger paths and a loose data reduction skimming step are combined at early stages of the analysis to preserve the signal event selection efficiency.
Alternatively, a neural network (NN) multivariate analysis technique is also applied to
increase the statistical significance of a signal extracted. Additional variables with respect to
the cut based approach have been used in this context.
The datasets for the presented study are generated using various Monte Carlo Generators. The resulting events are propagated through a detailed simulation of the CMS detector
response.
The same likelihood ration technique as used at LEP and the Tevatron is used here to
evaluate the significance (see Figure 1) of the experiment to the presence of a Higgs boson
signal. As can be expected, the sequential cut based analysis show less sensitivity than the
NN analysis. Using such a multivariate technique, a SM Higgs could be found at 5σ around
mH = 160 GeV for an integrated luminosity of 1fb-1. Systematic uncertainties [2] are taken into
account in this result.
232
XXXII Reunión Bienal de la Real Sociedad Española de Física
Figura 1. Left: The expected significance of an event excess under the assumption of a Higgs boson
presence for the cut based analysis and for an integrated luminosity of 1fb-1. Right: The expected
significance of an event excess under the assumption of a Higgs boson presence for the NN analysis
and for an integrated luminosity of 1fb-1.
References
[1] T.Rizzo Phys. Rev. D22-3 722-726 (1980).
[2] A.L.Read CERN Report 2000-005 p.81 (2000).
233
Simposio de Física de Altas Energías y Física Teórica
Measurements of the t cross section in the dilepton channels
with 100 pb-1 using the CMS detector
J. Cuevas1, J. Vizán1 y P. Lobelle2
1
2
Universidad de Oviedo.
Universidad de Cantabria, [email protected].
The potential for measurements of the ttr production cross section at s = 14 TeV with the
first 100 pb−1 of integrated luminosity using dilepton final states is presented in this analysis.
It has been carried out using signal and background events from the CMS Monte Carlo
production performed with the full simulation of the detector in which experimental conditions at the beginning of data taking have been taken into account by various miscalibration
and misalignment scenarios.
The number of collected ttr events will depend on the trigger efficiency to select these
events. In the CMS design, the real time selection is achieved in two physical steps, the fast
Level-1 Trigger, built of mostly hardware information, and the High-Level Trigger (HLT) implemented as a sequence of reconstruction and filter steps of increasing complexity.
Prompt feedback on trigger performance for top-like events must be provided during data
taking. This can be done using multi-jet control triggers, and lepton trigger efficiencies can be
monitored selecting lepton+multijets events, based on promptly offline reconstucted quantities, out of the collected control sample. A method to monitor the muon trigger performance
in muon+jets events is proposed and the trigger efficiency measured this way is found to be a
useful quantity for monitoring and prompt validation.
For this analysis several High Level inclusive triggers have been considered, based on
the selection of muon and electron candidates over certain ET thresholds, providing high efficiency for dileptonic events.
The e/μ final states for the signal is characterized by the presence of two high pT isolated
leptons (coming from W boson decays)
associated with a large missing transverse
energy MET and 2 b-jets.
Therefore, events are selected requiring two high ET jets and two well identified and isolated high pT leptons, which
helps to remove backgrounds related to
fake leptons (as QCD multi-jets, W+jets, tt
semileptonic). In order to reject the major
Z+jets background contribution, events
reconstructed with dileptonic invariant
mass close to the Z mass are rejected (this
cut is not applied for the eμ channel). The
presence of neutrinos in signal events allows suppression of Drell-Yan events as
well as multi-jets QCD events by applyFigura 1. Distribution of the Missing ET for the final
ing a selection on the missing transverse
selected events in eμ channel compared with pseudoenergy. Finally, the b-tagging is applied
data for a total integrated luminosity of 100 pb-1.
on the two b-jets candidates.
234
XXXII Reunión Bienal de la Real Sociedad Española de Física
The dilepton signal is clean and almost background-free (after b-tagging), so the dileptonic ttr cross section can be extracted with a simple counting method as:
v # BR =
NSEL - Nbkg
fttr #
#L
where Nsel is the number of events passing the selection cuts, Nbkg the residual background
and:
ftt = f ttHLT # f ttMC # f ttreco/gel
( f ttHLT being the trigger efficiency estimated from data, f ttMC the selection efficiency estimated
from the Monte Carlo and f ttreco/gel a correction factor which accounts for reconstruction differences between data and Monte Carlo).
The total number of dileptonic events produced for a total integrated luminosity of
100 pb−1 is 5340 at s = 14 TeV. With this luminosity, the expected total number of signal
events is about 160 with a very small residual background (Z+jets, W+jets and dibosons) of
about 3 events.
Assuming a ttr cross section of 833 pb, the ttr cross section can be measured with a statistical uncertainty of 8%.
Referencias
[1]J.Andrea et al, Measurement of the Top Quark Pair Production Cross Section with L = 100 pb-1 in
Dileptonic Final States using the CMS Detector, CMS AN-2008/016 (2008), CMS PAS TOP-08-002.
235
Simposio de Física de Altas Energías y Física Teórica
Observación de los quarks pesados ΣB+ ΣB- en el canal de
desintegración ΣB →, ΛBπ → J / ψΛ
C. Calancha1, J. P. Fernandez1 y L. Labarga2
ept. Física Experimental de Partículas, C.I.E.M.A.T., Avda. Complutense, 28040 Madrid.
D
[email protected].
2
Dept. Física Teórica, Universidad Autónoma de Madrid, Cantoblanco, 28049, Madrid.
1
En esta charla se presenta una medida de la masa invariante de los bariones ΣB+, ΣB- y dos
de sus estados excitados ΣB*+, ΣB*+ (referidos los 4 estados globalmente a partir de ahora como
ΣB(*)) en un nuevo canal de desintegración: ΣB(*) → ΛB p con ΛB desintegrándose a ΛB → J/ψ Λ.
La muestra de datos usada contiene una luminosidad integrada de 3.8 fb-1. Los datos fueron
recogidos entre Marzo del 2002 y Octubre del 2008 a partir de colisiones pp en el interior del
Collider Detector at Fermilab (CDF II) en el acelerador Tevatron (Fermilab, EEUU).
La masa invariante de ΣB(*) se midió por vez primera en [1] usando el canal de desintegración:
ΛB → ΛC con ΛC → pKπ.
El estudio del canal de desintegración
que se presenta es interesante, además de por
confirmar el anterior resultado [1], porque el
canal de desintegración utilizado no introduce sesgos y permite realizar un estudio posterior de la vida media de la partícula, lo que en
el anterior canal utilizado [1] no es posible de
forma directa (aunque si lo es eliminando el
sesgo introducido mediante simulación).
El resultado del análisis se muestra en la
figura 1. Se observan 4 estados compatibles
con las predicciones del Modelo Estándar y
con la anterior medida [1].
Este análisis se completará en el futuro
añadiendo nuevos datos y realizando la medida de otras cantidades relevantes accesibles
con este canal como el spin de ΛB (aún no medido), así como un estudio de la vida media de
ΣB(*) para confirmar si la desintegración de esta
partícula procede de forma fuerte o débil.
Figura 1. Distribucion de Q
(Q = M(ΣB(*)) M(ΛB) - M(π) para ΣB(*)+ (arriba)
y ΣB(*)- (abajo).
Referencias
[1] T. Aaltonen et al. (CDF Collaboration), Phys. Rev. Lett. 99, 202001 (2007).
236
XXXII Reunión Bienal de la Real Sociedad Española de Física
Reconstrucción combinada de muones en el detector
ATLAS con los primeros datos
M. J. Costa y M. Moreno Llácer
IFIC (CSIC-Univ. de Valencia). Nuevos Edificios de Investigación Paterna. Apdo.22085, E-46071, Valencia.
[email protected].
En unos meses, en el CERN tendrán lugar las primeras colisiones en el acelerador LHC
(Large Hadron Collider). El experimento ATLAS (A ToroidaL ApparatuS) [1] detectará las
partículas que se produzcan en las colisiones de protones. Con el objetivo de que ATLAS esté
a punto para la toma de datos del LHC, el detector ha registrado mayoritariamente datos
de rayos cósmicos y también sucesos
producidos durante la circulación de
un único haz de protones del LHC.
Estos datos son esenciales para validar
toda la cadena de software y optimizar
los algoritmos de identificación y reconstrucción de muones (presentes en
muchas señales de posible nueva física). Este trabajo se centra en estudiar
la reconstrucción combinada de estos
muones cósmicos usando el algoritmo
Global χ2 [2] que combina la información de los diferentes sub-detectores
de ATLAS: el detector interno, los calorímetros y las cámaras de muones.
La reconstrucción de estos sucesos es
diferente a la de colisiones del LHC,
ya que los muones cósmicos vienen Figura 1. Suceso registrado en ATLAS en el que un
de cualquier dirección y además en muón cósmico pasa, de fuera hacia dentro, por las cátiempos aleatorios, de modo que estos maras de muones (gris claro), los calorímetros (gris oseventos no están sincronizados con el curo) y el detector interno en el centro.
reloj de lectura de los detectores.
Antes de estudiar la reconstrucción combinada, debemos verificar que los diferentes subdetectores están sincronizados y alineados espacialmente. La figura 2a muestra el parámetro
θ0 (ángulo con el eje del haz) medido en el detector interno y en las cámaras de muones.
La correlación entre ellos verifica que ambos sub-detectores están sincronizados entre sí. De
hecho, podemos tomar la diferencia (figura 2b) entre las dos medidas y obtenemos una distribución centrada en cero, indicando que el alineamiento mecánico es bueno, puesto que no se
han utilizado correcciones de alineamiento globales en la reconstrucción. Por tanto, podemos
reconstruir trazas combinadas (figura 1).
La figura 3a muestra la diferencia entre el momento medido en el detector más externo
y en el más interno. El valor es de unos 3 GeV, que coincide con la energía depositada por el
muón en los calorímetros.
237
Simposio de Física de Altas Energías y Física Teórica
Figura 2. a) Correlación entre el parámetro 0 medido en el detector interno y en las cámaras de muones. b) Comparación datos/Monte Carlo de la diferencia entre estas dos medidas de 0.
Los datos han permitido también realizar una primera medida del cociente entre el número de muones positivos y negativos, Nμ+ / Nμ+. Esta asimetría se debe a que las colisiones de
rayos cósmicos con el aire (protones y núcleos) favorecen la producción de mesones positivos.
La figura 3b muestra el valor de Nμ+ / Nμ+ en función del momento del muón. La media obtenida está de acuerdo con las medidas en otros experimentos [3] pero que aún no incluye errores
sistemáticos ni correcciones debidas a la aceptancia del sistema de trigger.
Figura 3. a) Diferencia entre el momento de los muones medido en el detector interno y en las cámaras de muones. b) Relación Nμ+ / Nμ- en función del momento de los muones.
El trabajo aquí presentado ha contribuido a entender el estado de los detectores y a desvelar y resolver problemas en los algoritmos de reconstrucción de muones. Los autores agradecen el apoyo de la Agencia Financiadora (Plan Nacional de Altas Energías, CICYT) procedente del proyecto de referencia FPA 2006-03081.
Referencias
[1] Expected Performance of the ATLAS Experiment, CERN-OPEN-2008-020, Dec. 2008.
[2]Cornelissen, T. et al., Global χ2 combined tracking, CHEP’07, J. Physics: Conference Series 119 (2008)
032013.
[3] http://pdg.lbl.gov/2008/reviews/rpp2008-rev-cosmic-rays.pdf.
238
XXXII Reunión Bienal de la Real Sociedad Española de Física
Medida de la sección eficaz de W→μν en el experimento CMS
M. Cepeda, J. Alcaraz, B. de la Cruz y I. Josa
División de Física Experimental de Altas Energías, CIEMAT, 28040 Madrid, [email protected].
El arranque del Gran Colisionador de Hadrones (LHC) está previsto para otoño de 2009, a
una energía en el centro de masas de 10 TeV. El experimento CMS (Compact Muon Solenoid)
está listo para recoger las primeras colisiones, y con ellas redescubrir el Modelo Estándar en
un rango de energías nunca antes estudiado. La producción inclusiva de bosones gauge es
uno de los procesos clave para la comprensión del funcionamiento del experimento en sus
primeros momentos de toma de datos.
Las desintegraciones leptónicas de los bosones W y Z estarán entre las primeras señales físicas detectadas en el LHC. Estos procesos se caracterizan por su sección eficaz de producción relativamente alta, por la precisión alcanzada en las predicciones teóricas asociadas a ésta, y por la
limpieza y claridad de sus señales experimentales.
Por ello se convierten en herramientas insustituibles, no solo para calibrar el detector y calcular eficiencias de detección e identificación, sino también
para realizar medidas de precisión en el marco del
Modelo Estándar y enfrentarse a la búsqueda de
física más allá de sus límites actuales.
La signatura experimental de estos procesos
se caracteriza por la presencia en el detector de
leptones aislados de alto momento transverso.
En el caso de la desintegración muónica del bosón W, la redundancia y precisión del sistema de
muones de CMS garantiza la detección e identificación de un muón altamente energético que se
ve acompañado de un desequilibrio en la energía transversa del suceso (ELT) correspondiente
al neutrino. El bosón retrocede con respecto al
sistema hadrónico al que acompaña, pudiendo
producirse uno o más jets.
La selección de W±→μ±ν en CMS se ha optimi- Figura 1. Distribución acumulada de MT
zado para los primeros meses de toma de datos, para la señal de W y los distintos procesos
haciendo especial énfasis en la robustez de los de fondo.
métodos empleados. Se exige la presencia de un
único muón de alto momento transverso (pt > 25 GeV/c, rechazándose aquellos sucesos con al
menos 2 muones de más de 20 GeV/c) en el rango de aceptancia angular del trigger de muones (η < 2.1), que esté aislado en una cierta región en torno a su línea de vuelo. El suceso debe
además haber sido reconocido por los algoritmos de identificación y selección del trigger.
Finalmente, se exigirá también al bosón W (reconstruido estimando el momento transverso del neutrino a partir del desequilibrio de la energía del suceso) que tenga una masa transversa (MT) comprendida en el rango entre 50 y 200 GeV/c2. CMS está desarrollando distintos
algoritmos para el cálculo preciso de esta energía perdida en el suceso, siendo precisamente
el canal que nos ocupa uno de los procesos clave para su validación con datos reales. La distribución de MT esperada se muestra en la figura 1.
239
Simposio de Física de Altas Energías y Física Teórica
La aceptancia final de los requisitos expuestos para la selección de señal es de ~47%. CMS
pretende minimizar la dependencia de sus análisis con cualquier tipo de modelización Monte
Carlo. Se persigue calcular las eficiencias correspondientes a reconstrucción, identificación
y aislamiento a partir de los propios datos. Para ello se emplearán muestras de candidatos a
Z → μμ usando la técnica conocida como tag-and-probe, basada en la imposición de criterios
estrictos sobre uno de los dos muones presentes en el suceso para seleccionar una muestra
de control. A continuación se computa la eficiencia a partir del estudio del muón restante, y
se tabula en función de su pseudorapidez y momento transverso para incorporarla posteriormente al análisis.
La eficiencia del corte en masa transversa también se calculará directamente con muestras
experimentales de desintegraciones Z → μμ, utilizando para ello un patrón de señal en esta
variable. Se modela el comportamiento del neutrino proveniente de la desintegración del bosón W a partir de la forma y resolución de la distribución de ELT en una muestra limpia de
candidatos a Z → μμ, parametrizada en función del momento del bosón. Esta información es
reinterpretada e introducida en el Monte Carlo de sucesos W → μν, siendo combinada con
el muón correspondiente para reconstruir el bosón W de forma realista teniendo en cuenta
el comportamiento del detector. Estos patrones serán utilizados no sólo para estimar la eficiencia asociada al corte en masa, sino también para la determinación del fondo hadrónico
remanente tras el proceso de selección a partir de datos de colisiones. Se han desarrollado
varios métodos para ello, basados esencialmente en el análisis simultáneo de dos variables
de discriminación de fondo no correlacionadas y en la división del espacio de fases en una
zona asociada a la señal y otra u otras asociadas al fondo. Las distintas formulaciones de este
método nos permiten estimar con una precisión inferior al 1% la contaminación residual de
fondo presente tras el proceso de selección.
Los primeros 10 pb-1 de luminosidad integrada recogidos proporcionarán suficiente estadística (~50000 sucesos seleccionados de señal y razón señal/fondo de 12) para que la primera
medida de la sección eficaz del W en su desintegración muónica esté dominada por errores
sistemáticos. La estrategia de análisis descrita, robusta y validada a partir de muestras Monte
Carlo, está dispuesta para proporcionar uno de los primeros resultados experimentales del
experimento CMS.
Referencias
[1]CMS Collaboration, “CMS Technical Design Report, Volume II: Physics Performance”, Journal of
Physics G, June 2007
[2]The CMS Collaboration, “Towards a measurement of the inclusive W → μν and Z → μμcross sections
in pp collisions at s = 14 TeV”, CMS PAS EWK 2007/002.
[3]The CMS Collaboration, “Towards a measurement of the inclusive W → μν and Z → μμcross sections
in pp collisions at s = 10 TeV”, CMS PAS EWK 2009/001.
240
XXXII Reunión Bienal de la Real Sociedad Española de Física
Búsqueda del canal WH → THb en el modelo Twin Higgs from
Left-Right symmetry en el detector ATLAS
S. Gonzalez de la Hoz, E. Oliver, E. Ros, J. Salt, M. Villaplana y M. Vos
Departamento de Investigación en Física Experimental, IFIC - Instituto de Física Corpuscular (Centro
Mixto UVEG-CSIC), E-46071 Valencia.
El modelo Twin Higgs from Left-Right Symmetry [1] resuelve el problema de jerarquía de
masas introduciendo una simetría entre estados polarizados a izquierdas y a derechas. Esta
nueva simetría, al romperse, introduce nuevos términos en el Lagrangiano que cancelan las
divergencias cuadráticas (a Next to Leading Order) en la masa del bosón de Higgs. La masa es
el único parámetro libre en este modelo y de entre sus predicciones destacan bosones gauge
SU(2)R, quarks vector-like y un candidato natural a materia oscura (h02) [2].
El canal WH → THb no aparece en otros modelos como Little Higgs por lo que será vital a la
hora de confirmar o descartar los mismos. Por otro lado, la señal a buscar (4b+leptón+neutrino)
constituye un escenario ideal para el estudio de b-tagging en jets de alto pT. Además, ya existe
un estudio similar utilizando una simulación rápida (ATLFAST) del detector ATLAS [3] por
lo que tenemos también la posibilidad de comparar nuestros resultados, obtenidos usando la
simulación completa del detector, con los obtenidos anteriormente.
Empezamos por crear una muestra de 20000 sucesos de señal para un WH de 1 TeV/c²
utilizando el software de generación, simulación y reconstrucción de ATLAS. En el proceso
de generación utilizamos Pythia v.6.4 y GEANT4 en la simulación. En la reconstrucción incluimos información del algoritmo de reconstrucción de trazas IpatRec necesaria para estudiar
el b-tagging en jets de alto pT. De la misma forma creamos una muestra de 20000 sucesos de
fondo ttbar (semileptónico + dileptónico) pero, en este caso, añadimos cortes en generación
para aumentar la estadística (pT > 1000 GeV y s >500 GeV). Todo el proceso se ha llevado a
cabo utilizando los recursos del Tier-2 y del Tier-3 de ATLAS en el IFIC [4] y han servido para
testear y poner a punto la infraestructura.
Para la reconstrucción del bosón WH utilizamos el método conocido como mass template
que consiste en ir reconstruyendo cada una de las partículas intermedias de la desintegración
(W±, t, φ± y TH) quedándonos en cada caso con el candidato cuya masa reconstruida sea más
parecida al valor predicho por la teoría para dicha partícula (Tabla 1).
Particle
WH
Mass (GeV)
1000
Decay
THb
500
z ±b
z±
200
175
80
W±b
TH
t
W±
tb
lν
BR
20%
80%
100%
100%
21%
Tabla 1. Partículas intermedias utilizadas en la reconstrucción de WH.
Se conoce como b-tagging el proceso de identificación de jets procedentes de un quark b (bjets). En este caso se ha utilizado una combinación de dos algoritmos que aprovechan la vida
media del quark b (cτ = 450µm) que son IP3D (Impact Parameter in 3D) y SV1 (Secondary Vertex
Reconstruction). IP3D utiliza el parámetro de impacto (IP) de las trazas asociadas al jet. IP se
define como la distancia mínima entre el vértice primario y la prolongación de la dirección de
241
Simposio de Física de Altas Energías y Física Teórica
la traza en el plano transverso (d0) o en la
dirección longitudinal (z0). Puesto que la
desintegración se produce lejos del vértice primario, es de esperar que las trazas
que pertenecen a un b-jet tengan un IP
grande. SV1 reconstruye el vértice secundario asociado al jet. La probabilidad de
encontrar un vértice secundario en un bjet es alta, mientras que la misma probabilidad en un u-jet es baja. Estos algoritmos
asignan a cada jet un peso de forma que
jets con una probabilidad grande de ser bjets tendrán un peso grande mientras que
a jets ambiguos o claramente procedentes
de otro quark les corresponderá un peso
pequeño o incluso negativo.
Figura 1. Efecto del b-tagging en la reconstrucción de
En nuestro estudio aplicamos un corte
WH (1 TeV/c²). Se muestra señal + fondo (puntos con
sobre la suma de los pesos de los cuatro error)
y fondo (area coloreada en gris). (Arriba) AtlFast.
jets usados en la reconstrucción ya que, (Abajo) Full simulation.
puesto que nuestra señal tiene 4 b-jets y
nuestro fondo solo 2 jets, esta variable tiene un importante poder discriminante. Empezamos
con algoritmos optimizados para jets de alto pT. Sin embargo, el canal WH → THb tiene b-jets en
un amplio rango de energías por lo que nos vimos obligados a volver a optimizar los algoritmos
para mejorar el rechazo de sucesos de fondo. Finalmente fijamos el corte a Σ jetweight > 34 consiguiendo un rechazo del 95% de sucesos de fondo para una eficiencia del 20% de la señal.
En la figura 1 puede verse el efecto del b-tagging en la reconstrucción del bosón WH. Aunque tanto la reconstrucción cinemática de los sucesos como el b-tagging funcionan peor con la
simulación completa de ATLAS de lo que lo hacían con ATLFAST aun conseguimos significancia estadística para un WH de 1 TeV/c² (Tabla 2).
selectión
signal
Atlfast
no b-tag
b-tag
1058
138
Full
no b-tag
b-tag
4414
917
23500
392
193537
72511
S/ B
6,9
7,0
10,0
10,8
S/B
0,05
0,4
0,02
0,13
ttr
Tabla 2. Significancias en función del tipo de simulación usada y del b-tagging aplicado.
Agradecimientos: Queremos expresar nuestro agradecimiento al apoyo de la Agencia Financiadora (Plan Nacional de Altas Energías) procedente del proyecto de referencia FPA200766708-C03-01.
Referencias
[1]
[2]
[3]
[4]
242
Z. Chacko, H.S. Goh, R. Harnik, JHEP 0601 (2006) 108, hep-ph/0512088.
H.S. Goh, S. Su, Phys. Rev. D 75 (2007) 075010.
G. H. Brooijmans et al. Feb 2008 arXiv:0802.3715 [hep-ph].
S.González et al. 2009-03 CGW08, pag 69-77 ISBN:978-83-61433-002 CLAVE: A.
XXXII Reunión Bienal de la Real Sociedad Española de Física
Estudio del funcionamiento del sistema local del Trigger de
Muones de las cámaras de deriva del experimento CMS del LHC
C. Diez Pardos, B. de la Cruz, M.C. Fouz y I. Josa
División de Física Experimental de Altas Energías, CIEMAT, 28040 Madrid, [email protected].
El experimento Compact Muon Solenoid, CMS [1], es uno de los experimentos de propósito general instalados en el acelerador LHC. Su estructura es cilíndrica y está compuesto por
un sistema de detección de trazas y un sistema de calorimetría, inmersos en un solenoide, y
por detectores de muones, fuera del mismo. En la zona central de CMS, el barril, los detectores
encargados de la medida de muones son cámaras de tubos de deriva, Drift Tubes, DT. El objetivo de estas cámaras es reconstruir la trayectoria del muon, medir su momento e identificar
su carga, así como proporcionar la información necesaria al sistema que dispara la toma de
datos o trigger.
El sistema central de muones está compuesto por 250 cámaras distribuidas en cinco ruedas, cada una organizada en cuatro estaciones concéntricas formadas por doce cámaras (catorce en la última estación). Éstas están formadas por tres supercapas independientes, cada
una con cuatro capas de tubos de deriva, y una estructura mecánica, intercalada entre dos
de ellas, que le proporciona rigidez. Dos supercapas proporcionan la medida en el plano de
curvatura del imán, el plano transverso r-z, y la tercera, en el plano perpendicular al mismo,
plano r-θ. Así, en cada cámara se obtienen 8 impactos en un plano y 4 en otro, que se combinan
para la reconstrucción de segmentos, los cuales se asocian con otros del resto de estaciones
para reconstruir la trayectoria completa del muon y determinar su momento.
El primer nivel del trigger local de las cámaras DT [2] está formado por varios componentes: el BTI (Bunch and Track Identifier), forma segmentos a partir de coincidencias de al menos
3 impactos en 4 capas de una supercapa y asigna el cruce de haces en el que se ha producido
la colisión; el TRACO (Track Correlator) correlaciona los segmentos dados por el BTI en las 2
supercapas z y selecciona los mejores, y el TS (Trigger Server), escoge en cada cámara y cruce
de haces los dos segmentos de mejor calidad y mayor momento transverso, pt, como entrada
del DTTF (Drift Tube Track Finder). Este subsistema construye trazas a partir de los segmentos
de distintas estaciones y asigna pt, z, η tabulados mediante tablas de referencia así como una
etiqueta de calidad del muon. La calidad de los segmentos en una cámara depende del número de impactos que participen en la reconstrucción, siendo calidad baja (L) 3 impactos en
una supercapa y alta (H), 4 impactos. Los segmentos pueden ser además correlacionados o no
correlacionados, según estén reconstruidos a partir de impactos en dos supercapas o únicamente en una. De este modo la calidad de los primeros es HH, HL o LL y la de los segundos
simplemente H o L.
Un buen funcionamiento del trigger es fundamental para seleccionar con eficiencia los
muones con alto momento transverso, pt, provenientes de sucesos relevantes para la física
objeto de estudio en el LHC. Para comprobar las prestaciones del mismo se comparan los segmentos reconstruidos offline por el software de CMS y la información procedente del trigger
local de muones en las cámaras.
Durante el año 2008 se realizaron varias tomas de datos de muones cósmicos, tanto con
el campo magnético de CMS de 3,8T activo como apagado. Las variables que se comparan en
este estudio son la posición del segmento proveniente de un muon en la cámara y el ángulo
de incidencia del mismo con respecto a la perpendicular a la cámara en el plano de curvatura
243
Simposio de Física de Altas Energías y Física Teórica
del imán (plano r-z). Para ello se seleccionó una muestra de segmentos
correlacionados, en el primer cruce de haces, asociando a cada segmento de la reconstrucción offline el
segmento dado por el trigger en la
misma cámara. El estudio se realizó
para todas las ruedas y estaciones.
La figura 1 muestra los resultados obtenidos con datos tomados
con campo magnético, para las cámaras de la parte superior del detector en la estación más interna,
superponiendo los resultados de
cámaras con orientación positiva, y
negativa. La orientación depende de
la situación de la electrónica de lectura de datos en la cámara. En la gráfica superior se presenta la posición
dada por el trigger local frente a la
obtenida en la reconstrucción offline,
observándose una excelente correlación entre ellas. Se ha comprobado Figura 1. Arriba, posición dada por el trigger (ordenadas)
igualmente la buena correlación en y la información de la reconstrucción offline (abscisas).
la medida del ángulo de incidencia. Abajo, diferencia entre la información proporcionada por
Las figuras inferiores muestran la di- el trigger y la reconstrucción offline: posición (izquierda)
ferencia segmento a segmento entre y ángulo de incidencia (derecha).
la información del trigger y la reconstrucción offline. En algunos casos, como el de la figura, se observa un desplazamiento con respecto a cero, debido a errores en las tablas de referencia usadas y en la transmisión de éstas.
Dado que la resolución de la reconstrucción offline es mucho mejor que la del trigger, se
puede estimar ésta última, siendo de 1 mm en posición y de 5 mrad en el ángulo de incidencia,
similar a la obtenida en medidas con haces de prueba.
La conclusión de este estudio es la existencia de un buen acuerdo entre la información
del trigger y la reconstrucción offline, habiéndose detectado problemas concretos en ciertas
cámaras, que están siendo actualmente corregidos. Los resultados se compararon también
con los correspondientes a datos tomados sin campo magnético sin encontrarse diferencias
significativas.
Referencias
[1]CMS Collaboration, “Detector Performance & Software, Physics Technical Design Report”, CERN/
LHC 2006-001, CMS TDR 8.1, 2 febrero 2006.
[2]“Estudio sobre las Cámaras de Tubos de Deriva para el Espectrómetro de Muones del Experimento
CMS”, J. Puerta, Tesis UAM, Enero 2004.
244
XXXII Reunión Bienal de la Real Sociedad Española de Física
Sistema de Adquisición y Control del Telescopio de Muones
BATATA (Buried Array Telescope AT Auger)
N. Pacheco1, A. Redondo1, L. del Peral1, G. A. Medina-Tanco2,
D. Rodríguez-Frías1, A. Etchegoyen3, M. Blanco1, J. Calvo1, E. Colombo1,
J. A. Morales de los Ríos1 y G. Ros1
Space Plasmas and AStroparticle Group. Universidad de Alcalá. [email protected].
Instituto de Ciencias Nucleares, UNAM. México D.F., México.
3
Centro Atómico Constituyentes (Comisión Nacional de Energía Atómica/CONICET/UTN-FRBA), Buenos Aires, Argentina.
1
2
El detector BATATA es un telescopio de muones que actuará como prototipo de AMIGA
una extensión del Observatorio Pierre Auger, localizado en Malargüe, Mendoza, Argentina.
Además de servir como prototipo para la comprobación de parámetros de diseño de AMIGA,
BATATA es también un experimento de interés en el ámbito de la Física de Astropartículas,
siendo de utilidad en la medición de funciones de distribución de partículas relativistas originadas en cascadas atmosféricas a nivel del suelo, la caracterización de la distribución temporal de dichas partículas y la medición del flujo de fondo de muones cósmicos.
BATATA consiste en 3 placas independientes de centelleadores plásticos, distribuidas en 2
planos x-y, enterrados a profundidades de entre 30 cm y 3 m. El área de cada placa es de 4 m2,
y el volumen total cubierto por el detector es de aproximadamente 12 m3. Cada placa está formada por 50 varillas plásticas de 1x4x200 cm, totalizando 300 canales independientes para el
detector. La luz producida en cada varilla ante el paso de una partícula cargada es transmitida
por fibras ópticas al pixel de un fotomultiplicador multiánodo (figura 1). La electrónica asociada trabaja en modo de contador, enviando a la superficie solamente la condición de disparo
al superarse un umbral dado.
El detector tiene asociado un conjunto triangular de tres detectores de
superficie del mismo tipo que los del
Observatorio Pierre Auger, los cuales
detectan la luz Cherenkov producida
por las partículas cargadas al atravesar el agua del tanque, con un espaciamiento optimizado para eficiencia
de disparo 100% a una energía de
6x1016 eV. Los detectores de superficie Figura 1. Barras centelleadoras: a la izquierda la imagen
y los enterrados se encuentran tempo- del montaje general de un plano del contador de muones
y a la derecha la imagen de los 64 pixeles de los conecralmente sincronizados vía GPS.
Existen dos niveles de disparo para tores ópticos.
BATATA: (a) cualquier barra centelleadora que supere el umbral abre una ventana temporal de 500 ns dentro de la cual el estado de
todos y cada uno de los elementos centelleadores es grabado; (b) el disparo de los detectores
de superficie en coincidencia, por arriba de un umbral y en forma compatible con la propagación de un frente de onda plano viajando a la velocidad de la luz, genera una etiqueta
temporal que define una cascada atmosférica en el intervalo de energías y ángulos cenitales
de interés. Las señales (a) y (b) son analizadas a posteriori y alineadas temporalmente para
distinguir cascadas atmosféricas de fondo.
245
Simposio de Física de Altas Energías y Física Teórica
El detector será enterrado en el campo, alejado de redes eléctricas y caminos, con acceso
físico muy limitado. La operación de BATATA deberá ser, por lo tanto, mayoritariamente autónoma. Esto implica que, además de la información de interés científico propiamente dicha,
varios parámetros de monitoreo (temperatura ambiente, humedad, tensiones en los fotomultiplicadores y umbrales de los 300 canales) deberán ser también guardados y procesados en
tiempo real.
Se ha desarrollado un programa robot [1] que controla la electrónica del detector BATATA
realizando la adquisición y almacenamiento de datos en tiempo real y supervisando el estado
de los parámetros vitales de la electrónica y del detector de muones, emitiendo alarmas si
algún parámetro se desvía de los márgenes de seguridad y, en su caso, tomando decisiones
que preserven el detector.
Para poder desarrollar el programa control también se crearon programas que simulan
el funcionamiento del detector [2], simulando la temperatura y humedad de cada plano de
cada placa, la tensión de los fotomultiplicadores, el umbral de cada una de las 300 barras y
la simulación de las cascadas de partículas. La figura 2 representa el conjunto de programas
explicados anteriormente.
Este trabajo ha sido financiado por el MICINN y MEC con los proyectos: FPA200612184-C02-02, CSD2007-00042, ARGEN2007-002, FPA2008-04192-E/ARGEN y FPA200801698-E/FPA.
Figura 2. Diagrama de bloques del conjunto de simulaciones de funcionamiento y programas de control y adquisición de datos desarrollados para el funcionamiento autónomo del telescopio de muones
BATATA.
Referencias
[1]N. Pacheco, Sistema de Adquisición y control del Telescopio de Muones BATATA, Proyecto Fin de
Carrera. Escuela Politécnica Superior. Universidad de Alcalá (2008).
[2]A. Redondo, Simulación del funcionamiento de la electrónica del Telescopio de Muones BATATA,
Proyecto Fin de Carrera. Escuela Politécnica Superior. Universidad de Alcalá (2008).
246
XXXII Reunión Bienal de la Real Sociedad Española de Física
Métodos discriminantes entre la señal ZH →t del modelo Little
Higgs y su fondo irreducible gg →t en el experimento ATLAS
S.González de la Hoz, E. Oliver, J. Salt, E. Ros, M. Villaplana y M. Vos
IFIC – Instituto de Física Corpuscular (Centro Mixto CSIC -U. València), Edificio de Institutos de Investigación, Apartado de Correos 22085, E-46071 Valencia; [email protected].
Una alternativa a resolver los
problemas del Modelo Estándar a
altas energías de manera simple es
el modelo Little Higgs [1]. Depende
sólo de dos parámetros (ángulo y
masa del Higgs) y necesita escasas
partículas nuevas para solucionar
el problema de la jerarquía. Los bosones pesados ZH y WH son las más
interesantes de este modelo ya que el
valor de sus masas es alrededor del
TeV, sus secciones eficaces son elevadas y se desintegran en canales leptónicos, los cuales serán más fáciles de
detectar por el experimento ATLAS.
Nuestro objetivo es construir variables y métodos que permitan destacar la señal para el caso del bosón Figura 1. Representación de las diferentes variables (1),
pesado (ZH masa alrededor del TeV) (2), (3) y (4). 20000 eventos tanto para la señal como el
en el canal ttr según el modelo Littlest fondo.
Higgs (el modelo Little Higgs más
sencillo) respecto de su fondo irreducible, con el fin de aplicarlo en alta luminosidad del experimento ATLAS. También, el estudio del canal hadrónico nos permite conocer mejor el modelo.
Basándonos en el modelo teórico y considerando cosθ = 0 y mZH TeV, utilizaremos para
nuestro análisis 20.000 sucesos de datos simulados tanto de la señal ZH → ttr como del fondo
irreducible de alto momento gg → ttr . Para realizar la simulación se ha dispuesto de la infraestructura del Tier-2 ATLAS Federado Español mediante aplicaciones GRID [3], que consigue
gran capacidad de almacenamiento y reducir el tiempo de simulación.
Las diferentes variables para buscar discriminación son: Ángulo entre quark t yttr :
cos i =
p ^t h $ p ^trh
p ^t h $ p ^trh
(1).
Diferencias entre momentos transversos:
pt ^t h - pt ^trh (2).
p ^t h $ p ^lh
p ^t h $ p ^lh (3).
Ángulo entre momento del top y el momento del leptón:
cos ilep =
Comparar momento del top (o antitop) con momento transverso del leptón (electrón o muón):
247
Simposio de Física de Altas Energías y Física Teórica
p ^t h ospt ^lh
(4).
Con estas variables, comparamos la señal con el fondo y observamos escasas diferencias.
En la variable (1), la señal posee cosenos cercanos al -1 y apenas existen sucesos con coseno
igual a 1. En la variable (2), la señal posee mayor número de sucesos con diferencia nula. En la
variable (3), es mayor el número de sucesos con coseno igual a 1 en la señal. En la variable (4),
se observa la misma tendencia, aunque la señal posea mayor número de eventos, ésta no se
destacaría al normalizar. Por tanto, se necesitará recontruir el bosón pesado ZH para comprobar si es eficaz realizar cortes en base a las diferencias observadas con las nuevas variables.
En función de la identificación de los b-jets, realizamos la recontrucción del bosón pesado
ZH para 4 casos diferentes. Caso 1: sin ninguna identificación; caso 2: utilizando likelihood;
caso 3: utilizando un parámetro composición de IP3D y SV1, con corte en '0'; caso 4: utilizando
el mismo parámetro que caso 3 pero corte en '3'.
Caso 1
Caso 2
Caso 3
Caso 4
Eventos
Señal
17506
8486
2999
1165
Eventos
Fondo
17252
6984
1795
711
Eficiencia
Señal
0,88
0,42
0,15
0,06
Eficiencia
Fondo
0,86
0,35
0,09
0,04
N Señal
N Fondo
S/√B
24946,05
12092,55
4273,58
1660,13
4656176,78
1884925,73
484456,14
191893,21
11,56
8,81
6,14
3,79
Tabla 1. Valores obtenidos de los datos simulados para los diferentes casos.
Para una luminosidad de 3·105
pb , la sección eficaz para ZH es de
19 pb y BR = 1/8 [2] y para el fondo
irreducible la sección eficaz es de 833
pb con BR = 0.54. Considerando una
eficiencia en la elección de los bjets de
20%, obtenemos una significancia mayor que 5 (véase la Tabla 1), excepto
para el caso de corte 3 en IP3D+SV1.
En la figura 2, se observa la reconstrucción del ZH para los diferentes casos descritos anteriormente. En
todos ellos se aprecia ligeramente la
señal respecto del fondo.
El objetivo ahora es mejorar la
reconstrucción con el fin de discriminar la señal respecto de su fondo
irreducible y los métodos se puedan Figura 1. Representación de las diferentes variables (1), (2),
utilizar para modelos teóricos con (3) y (4). 20000 eventos tanto para la señal como el fondo.
problemáticas similares.
Los autores agradecen la ayuda de Luis March por su anterior colaboración, así como al
apoyo de la Agencia Financiadora (Plan Nacional de Altas Energías) procedente del proyecto
de referencia FPA2007-66708-C03-01.
-1
Referencias
[1] G. Azuelos, K. Benslama et. al., Eur.Phys.J. C39S2 (2005) 13-24.
[2] S. González de la Hoz, L. March, E. Ros, ATL-COM-PHYS-2005-001.
[3] S.González et al. 2009-03 CGW08, pag 69-77 ISBN:978-83-61433-002 CLAVE: A.
248
XXXII Reunión Bienal de la Real Sociedad Española de Física
The CMS Muon System Alignment: First results from
commissioning runs
P. Martínez Ruiz-del-Árbol
Instituto de Física de Cantabria (UC-CSIC), [email protected].
For optimal performance of the CMS muon spectrometer over the entire momentum range
up to the TeV range, the different muon chambers must be aligned with respect to each other
and to the central tracking system to within a few hundred microns in the rφ plane.
The required alignment precision for the endcap chambers is 750 μm, while for the barrel
the precision varies from 150 μm for the inner station to 350 μm for the outer station. To this
end, after following strict chamber construction specifications, CMS combines precise survey
and photogrammetry measurements, measurements from an opto-mechanical system, and
the results of alignment algorithms based on muon tracks (both from cosmic rays, beam halo
and from pp collisions) crossing the spectrometer.
There are several potential sources of misalignment in the muon spectrometer, from chamber production to final detector operating conditions, including:
• Chamber construction tolerances.
• Detector assembly, closing tolerances.
• Solenoid effects.
• Time-dependent effects.
The strategy for the alignment of the CMS muon spectrometer is to combine different
sources of information: from the production phase of the muon chambers to the final monitoring during operation. The set of data comes from:
• Quality control data recorded during the construction of the chambers.
• Survey and photogrammetry measurements done at the different stages of chamber
construction and detector assembly.
• Optical data provided by the optical muon alignment system.
• The information provided by the tracks (cosmic rays, beam halo, or collision tracks)
crossing the detector.
During the last commissioning runs of CMS the different muon alignment techniques
have been commissioned, resulting on the first steps towards the development of a start-up
geometry intented for the first data taking of CMS when the LHC is ready.
In particular, the internal alignment of the drift tube chambers was calculated using an
alignment with tracks algorithm constrained with information from the Quality Control
checks at the construction sites and from photogrammetry measurements.
The position and orientation of the drift tube chambers in the CMS wheels was also calculated using photogrammetry measurements. A gravitational sag of about 1.2 cm was found in
good agreement with the predictions of the finite element calculations. This new geometry, together with the internal geometry were uploaded into the CMS database (ORCON/ORCOFF)
and used centrally in the reconstruction process.
In addition to these photogrammetry measurements, during the CRAFT run (Cosmic Run
At Four Tesla) that took place in October and November of 2008, more than 300 million cosmic
events were recorded, with a 3% of global muons (reconstructed by the tracker and the muon
system. This allowed to perform a first alignment of the muon chambers with respect to the
tracker using alignment with tracks techniques.
The optical alignment system worked during CRAFT, collecting up to 200 alignment
249
Simposio de Física de Altas Energías y Física Teórica
events, distibruted before and after
the connection of the magnetic field.
After running the reconstruction
software an axial deformation of the
endcaps was found. This effect was
due to the magnetic forces, provoking a global compression of the endcaps towards the interaction point
of about 1.5 cm, and a deformation
of the endcap disks, adquiring the
form of a lens.
The new geometries were validated using independent trackbased methods and then uploaded
in to the database to be used for the
following reprocessings of the CRAFigura 1. Comparison between Rphi alignment of the
FT data.
chambers
based on photogrammetry and based on alignThe last commissioning runs of
CMS have been very useful in order ment with tracks with respect to the tracker.
to understand the alignment of the
muon system and in particular towards the development of an start-up geometry to be used
for the first data taking once the LHC is ready.
Referencias
[1]P. Martinez et al. “A software and computing prototype for CMS Muon Alignment.”J.Phys.Conf.
Ser.119:072008,2008
[2]M. Sobrón et al. “CMS muon alignment: System description and first results”. Nucl.Instrum.Meth.
A598:187-191,2009.
250
XXXII Reunión Bienal de la Real Sociedad Española de Física
A portable readout system for microstrip silicon sensors
(ALIBAVA)
R. Marco-Hernández, on behalf of the ALIBAVA Collaboration
Unidad de Electrónica y Microelectrónica, IFIC (CSIC-Universidad de Valencia), 46980 Paterna, (Valencia); [email protected]
This system has been developed in the framework of the ALIBAVA collaboration (University of Liverpool, CNM of Barcelona and IFIC of Valencia) which is integrated in the RD50
collaboration. It can measure the collected charge in one or two microstrip silicon sensors by
reading out all the channels of the sensor(s), up to 256. The system is able to operate with different types (p-type and n-type) and different sizes (up to 3 cm2) of microstrip silicon sensors,
both irradiated or non-irradiated. Heavily irradiated sensors will be used at the Super Large
Hadron Collider, so this system is being used to research the performance of microstrip silicon sensors in conditions as similar as possible to the Super Large Hadron Collider operating
conditions.
The system is compact and portable. It has its own supply system and it contains two Beetle readout chips [1] to acquire the detector signals. It is connected via USB (Universal Serial
bus) to a PC host, which stores and processes the data acquired. The user controls the system with the PC software in communication with a FPGA (Field programmable Gate Array)
which interprets and executes the orders. The system can be used with a laser setup, where a
laser light is generated exciting a laser source with a pulsed signal. It can be used also with a
radioactive source setup, where
the charged particles are generated randomly. Therefore, it has
an external trigger input, from
one or two photomultipliers
(radioactive source), and it generates a trigger output for pulsing an external excitation source
(laser setup). The system has two
main parts: a hardware part and
a software part (Figure 1). The
hardware part acquires the sensor signals either from external
trigger inputs, in case of a radioactive source setup is used, or
from a synchronised trigger output generated by the system, if a
laser setup is used. The hardware
is made of a daughter board and
a mother board. The daughter
board contains two Beetle read- Figura 1. Architecture of the readout system.
out chips as well as the circuitry
necessary to connect the Beetle chips with the motherboard. Fan-ins and a detector board are
used to interface the sensors. The mother board is intended to process and digitize the analogue data that come from the daughter board readout chips. It also processes the trigger in-
251
Simposio de Física de Altas Energías y Física Teórica
put signal in case of radioactive source setup or it generates an output trigger signal if a laser
setup is used. Moreover, it controls the whole system and it communicates with the PC software via USB, using a FPGA with and embedded processor and custom logic. The software
controls the whole system and processes the data acquired by the sensors in order to store it
in an adequate format. This format is compatible with software used for further data analysis,
as the ROOT framework. With this software the system can be configured and calibrated. Acquisitions with a laser setup or a radioactive source setup can be carried out as well.
Figura 2. Measurements of collected charge carried out with different systems.
ATLAS07 sensors irradiated with neutron. From [2].
Measurements acquired with n-type and p-type irradiated and non-irradiated detectors
using both the laser and the radioactive source setup have been carried out with the system.
A plot representing the collected charge versus the depletion voltage of the detector for ATLAS07 irradiated and non-irradiated detectors is shown in Figure 2. In this figure, the different curves correspond to detectors with different irradiation doses (irradiation with neutrons)
and these curves have been obtained with different readout systems (among them the ALIBAVA system, denoted with VLC). For non-irradiated detectors the SNR of the system with
a β source is 22.. With the laser setup, the signal is much larger, so there is no concern about
the SNR. The SNR in irradiated detectors should be lower since the noise increases because
of the radiation effects and the collected charge is reduced. However, since the measurements
can be acquired with the detectors cooled (i.e. the daughterboard) and the radiation effects on
the collected charge can be partially counteracted by increasing the depletion voltage of the
detector, the noise can be minimized. Moreover, results of measurements acquired with the
system for irradiated detectors have shown that the gain of the Beetle front-end increases at
low temperatures (i.e. -30 °C) so the SNR do not diminishes despite the noise increase. However, a calibration at room temperature and a gain correction factor are required.
Referencias
[1]S. Löchner and M. Schmelling, “The Beetle reference manual for Beetle version 1.3/1.4/1.5”, LHCb
note 2005-105, August 22, 2006.
[2]C. Lacasta, “Sensor measurements at IFIC”, ATLAS Tracker Upgrade Workshop, NIKHEF, Holland,
November 2008.
252
XXXII Reunión Bienal de la Real Sociedad Española de Física
Calibración del subdetector Scintillator Pad Detector (SPD)
de LHCb usando rayos cósmicos
R. Vázquez Gómez
Departament d’Estructura i Constituents de la Matèria, Universidad de Barcelona, 08028 Barcelona;
[email protected]
LHCb es uno de los cuatro grandes detectores diseñado para estudiar las colisiones hadrónicas con una energía de 14 TeV en el centro de masas producidas en el acelerador LHC
del CERN. LHCb está específicamente diseñado para el estudio de la física de mesones B [1].
Su objetivo es estudiar la violación de simetría CP y las desintegraciones menos frecuentes de
dichas partículas. En las colisiones generadas en LHC se generarán un par de quarks bbr contenidos en un estrecho cono alrededor de uno de los haces. Este hecho determina la geometría
de LHCb siendo éste un espectrómetro de brazo único.
El calorímetro de LHCb está compuesto por cuatro subdetectores: Scintillator Pad Detector (SPD), PreShower (PS), Electromagnetic Calorimeter (ECAL) y Hadronic Calorimeter (HCAL)
[2]. Los tres primeros subdetectores (SPD, PS y ECAL) están formados por 6016 celdas con
geometría proyectiva respecto al punto de interacción, mientras que HCAL consta de 1468
celdas.
El SPD es un detector binario formado por celdas centelleadoras de 1.5 cm de espesor.
Cuando una partícula relativista cargada atraviesa el SPD pierde una energía por unidad
de longitud debido a ionización constante y cercana al mínimo (Minimum Ionizing Particle,
MIP) e independiente de la masa o velocidad de la partícula. La ionización produce fotones
secundarios que son recogidos por una fibra óptica hasta un fotomultiplicador que da una
señal eléctrica. Si está señal es superior que un cierto valor (umbral) se asume que la partícula
es cargada y si es inferior se asume que es neutra. Esta característica es utilizada para distinguir a nivel de trigger entre partículas cargadas y neutras. Este valor umbral tiene que estar
calibrado celda a celda y ha sido medido previamente gracias a un “test beam”.
El objetivo de este trabajo es calibrar el valor de la tensión umbral del SPD. Para ello se
ha calculado el valor de la eficiencia global del SPD utilizando medidas de rayos cósmicos
realizadas con el detector y se ha comparado con el valor teórico dado por la convolución de
las distribuciones de Landau y de Poisson.
2. Método
El trigger utilizado para obtener sucesos con rayos cósmicos ha sido la energía depositada
por las partículas en ECAL y HCAL simultáneamente. Debido a la geometría de espectrómetro de LHCb, el ritmo de adquisición de rayos cósmicos que atraviesan ECAL y HCAL y
cuya proyección se encuentra dentro de la aceptancia del SPD es de unos 8 Hz. Utilizando el
ángulo de incidencia de las partículas en ECAL y HCAL y la cantidad de energía depositada
en sucesos consecutivos se puede predecir cuál será la posición de la partícula en el SPD y el
tiempo de llegada al SPD respecto al comienzo de integración de la señal.
Así, se ha podido extraer una eficiencia global para el SPD, con tres valores diferentes
del umbral que se corresponden con valores de 0.25 MIP, 0.5 MIP y 1.5 MIP. Debido a que no
todos los sucesos recogidos son útiles para calcular la eficiencia, las muestras se han tenido
que seleccionar para obtener valores representativos. Los criterios seguidos para seleccionar
sucesos interesantes han sido, básicamente, que el tiempo de llegada de los muones al SPD
253
Simposio de Física de Altas Energías y Física Teórica
se adecue al comienzo del periodo de
integración de la electrónica y que los
muones vengan lo más horizontalmente posible.
Una vez escogida la muestra, se
define la eficiencia global para el SPD
como el cociente entre el número de
sucesos con señal en el SPD no más
lejos de 2σ de la traza extrapolada y el
número de sucesos con una traza extrapolada dentro de la aceptancia.
Estos valores se han comparado
con la eficiencia teórica dada por la
convolución de la distribución de Landau que rige la energía depositada por
las partículas, con la distribución de Figura 1. Comparación de los tres puntos experimentaPoisson que rige el número de fotoelec- les con la curva teórica de eficiencia en función del valor
trones generados en el tubo fotomul- umbral en MIPs para el valor promedio del número de
tiplicador. El valor máximo teórico de fotoelectrones. Los errores verticales de los puntos se
la eficiencia global para un cierto valor corresponden con errores estadísticos mientras que los
umbral se obtiene al integrar la función errores horizontales se deben a la dispersión del valor
de densidad de probabilidad entre un umbral. entre celdas.
cierto valor de energía e infinito.
Los valores obtenidos para las tres diferentes configuraciones del valor umbral comparados con la curva teórica se presentan en la figura 1.
3. Resultados y conclusiones
Se ha expuesto un método para poder calibrar valor del MIP para el subdetector SPD de
LHCb con rayos cósmicos.
Los valores experimentales obtenidos para las diferentes configuraciones de la tensión
umbral están en acuerdo con los valores máximos dados por la función de densidad de probabilidad. El único punto que se aparta ligeramente del valor esperado es el que corresponde
con un umbral de 0.5 MIP. Esto puede ser debido bien a que el valor del MIP está sobreestimado o bien a efectos debidos a la dispersión del valor de la tensión umbral entre las diferentes celdas. Esto último puede entenderse viendo en la figura 1 que los valores situados a
izquierda y derecha de 0.5 MIP no contribuyen de la misma manera. Los valores mayores que
0.5 MIP contribuyen en menor medida a la eficiencia, mientras que no hay cambio para los
valores menores que 0.5 MIP ya que se encuentran sobre el “plateau”. Esto podría traducirse
en un descenso artificial de la eficiencia para este valor.
Este estudio se continuará celda a celda con partículas procedentes de colisiones de LHC.
Referencias
[1] The LHCb Collaboration. The LHCb Detector at the LHC. 2008 JINST 3 S08005.
[2] The LHCb Collaboration. LHCb Calorimeter TDR. CERN-LHCC-2000-0493.
254
XXXII Reunión Bienal de la Real Sociedad Española de Física
Caracterización con muones cósmicos de las cámaras de tubos de
deriva del experimento CMS en el LHC
J. Santaolalla, B. de la Cruz, M.C. Fouz, I. Josa y J. Puerta
División de Física Experimental de Altas Energías, CIEMAT, 28040 Madrid. [email protected]
El experimento CMS (Compact Muon Solenoid) es uno de los 4 grandes detectores instalados en el LHC [1]. Su parte central está formada por 5 ruedas donde se ubican cámaras de
tubos de deriva, que constituyen el detector central de muones. Cada rueda está dividida en
12 sectores, cada uno con 4 estaciones concéntricas alrededor del tubo del haz, denominadas
MB1 a MB4. Cada estación contiene 3 estructuras llamadas “supercapas”, formadas por 4
capas de detectores gaseosos: los tubos de deriva. Las estaciones se hallan emplazadas en el
hierro que guía las líneas de retorno del campo magnético de CMS.
El detector se encuentra ya instalado y preparado para la toma de datos. Hasta que comiencen las colisiones protón-protón, CMS está siendo sometido a diversas campañas de toma de
datos usando muones cósmicos. Hasta ahora, más de 600 millones de muones cósmicos han
sido registrados, que han servido, entre otras cosas, para la calibración, caracterización y puesta
a punto de las cámaras de tubos de deriva, parte de la cual se presenta en esta contribución.
Velocidad de deriva
Se conoce por velocidad de deriva a aquella que lleva el electrón creado por ionización en
el tubo de deriva al paso de una partícula cargada, en su camino hacia el ánodo. Conocida
esta velocidad, los tiempos de deriva registrados en el detector se transforman en distancias,
las cuales conforman finalmente la trayectoria de la partícula cargada. La velocidad de deriva
se calcula con la técnica de "meantimer”, que relaciona los tiempos de deriva en tres capas
consecutivas de detectores.
El objetivo de esta investigación es el estudio de la variación aparente de la velocidad de
deriva con distintos factores, como son el campo magnético, el ángulo de incidencia de la
partícula y la distancia del punto de paso a la electrónica de lectura de datos.
El solenoide de CMS crea un campo magnético de 3,8 T en su interior. Las cámaras de muones, al estar dispuestas en el entrehierro del imán, se ven sólo afectadas por el campo magnético residual [2]. La componente radial de éste induce
una componente en la velocidad de deriva haciendo el
trayecto de deriva más largo. Por ello, la velocidad de deriva medida es más pequeña. El mapa de la componente
radial del campo magnético muestra un valor máximo de
0,8 T en las cámaras interiores (MB1) de las ruedas exteriores (±2), siendo despreciable en el resto. Además, este
valor será máximo dentro de la cámara MB1 en la región
más exterior. En la figura 1 se representa la variación relativa de la velocidad de deriva debido al efecto del campo Figura 1. Variación relativa de la
magnético en 5 regiones a lo largo del eje longitudinal de velocidad de deriva para estaciones
CMS para las supercapas φ de las cámaras MB1, MB2 y MB1 (abajo), MB2 (centro) y MB3
MB3 del sector 3, rueda -2. Obsérvese que la disminución (arriba) de la rueda -2 sector 3, en
de la velocidad de deriva en la estación MB1 alcanza un función de la coordenada local de la
3% en su zona más externa.
cámara.
255
Simposio de Física de Altas Energías y Física Teórica
Eficiencia
Otro parámetro importante a determinar es la eficiencia de reconstrucción de segmentos
en las cámaras DT al paso de un muón. Un segmento es la asociación de puntos de detección
en capas de tubos de deriva sucesivas (en una supercapa), conformando una trayectoria recta.
Estos segmentos a su vez se agrupan entre sí hasta describir la trayectoria del muón.
Para cuantificar su eficiencia, se usan las 3 estaciones en la misma rueda y sector que la
cámara cuya eficiencia se quiere cuantificar. La medida de la eficiencia consiste en un contaje de casos en los que las cámaras reconstruyen un segmento adecuado frente al total de
los casos en los que deben producirlo. Se considera un segmento como adecuado cuando su
posición no difiere en más de 5 cm de la posición extrapolada usando las cámaras contiguas,
lo cual garantiza que no se rechacen segmentos
correspondientes a la traza. Para asegurar una
buena extrapolación, se han realizado cortes de
calidad en el número de impactos de la traza y
el error de propagación asociado a la extrapolación. El cálculo se ha realizado sobre una región fiducial alejada de los bordes de las cámaras, donde la eficiencia disminuye por razones
geométricas asociadas al método de análisis.
La extrapolación se realiza con dos métodos, verificando así la compatibilidad de ambos. Por un lado una extrapolación lineal, para
datos tomados sin campo magnético, usando
el método de mínimos cuadrados ponderados Figura 2. Eficiencia de reconstrucción de segpara obtener el punto de paso del muon por la mentos en el plano r-φ para cada una de las
cámara de test. Para casos con campo magnéti- cámaras DT de CMS (MB1, arriba-izquierda,
co se usa el código oficial de CMS para produ- MB2, arriba-derecha, MB3, abajo-izquierda,
cir la extrapolación dada la compleja trayecto- MB4, abajo-derecha).
ria seguida por el muón en este caso.
Los resultados de eficiencia mostrados en la figura 2 corresponden al análisis de 20 millones de datos tomados con campo magnético de 3,8 T. En ella se muestra la eficiencia medida
para cada una de las estaciones de CMS en el plano r-φ. Se puede observar los elevados valores de eficiencia (>99%) para la mayor parte de las cámaras. Los valores bajos de eficiencia
se corresponden con casos puntuales de cámaras con algún problema de detección en ese
determinado periodo. Los valores observados para el plano r-θ son aproximadamente un 2%
inferiores a los vistos en la figura 2, tal y como cabría esperar, dado que el número de puntos
de detección es menor.
Tras los numerosos estudios llevados a cabo sobre las cámaras de muones DT de CMS, se
puede concluir que éstas están plenamente caracterizadas y listas para las próximas tomas de
datos con colisiones protón-protón en el acelerador.
Referencias
[1]“CMS Detector Performance and Software, Physics Technical Design Report”, CERN/LHCC 2006001, feb. 2006.
[2] “The CMS Muon Project, CMS Technical Design Report”, CERN/LHCC 97-32, dic. 1997.
256
XXXII Reunión Bienal de la Real Sociedad Española de Física
El sistema de calibración de balizas ópticas del telescopio
de neutrinos ANTARES
H. Yepes-Ramirez y F. Salesa-Greus
IFIC – Instituto de Física Corpuscular, Edificio Institutos de Investigación, Apartado de correos 22085,
E-46071, Valencia, España, [email protected].
1. Introducción
En ANTARES, la resolución angular se define como la desviación entre la traza real del
neutrino y la traza reconstruida [1]. La calibración temporal de un telescopio de neutrinos es
imprescindible para alcanzar una buena resolución angular (< 0.3° para Eν > 10 TeV). La resolución temporal absoluta de ANTARES es de 1 ms, suficiente para correlacionar señales detectadas con eventos astrofísicos transitorios. La resolución temporal relativa hace referencia
a los retrasos relativos individuales en la detección de señales debidos a las diferencias entre
los tiempos de tránsito y la electrónica front-end entre los fotomultiplicadores (PMTs). Para
alcanzar una buena resolución angular es necesario minimizar la incertidumbre en la resolución temporal relativa a ≈ 0.5 ns. Existen varias técnicas en ANTARES para realizar calibración
temporal, entre las principales está la calibración con balizas ópticas (optical beacons, OBs).
2. Métodos experimentales
El sistema de OBs se compone de dos
tipos de fuentes de luz pulsadas: tipo LED y
tipo láser. Hay cuatro LED beacons en cada
una de las doce líneas del detector, que contiene 36 LEDs azules (470 nm) alojados en
un contenedor cilíndrico transparente, y
dos laser beacons al final de la parte inferior
de dos de las líneas centrales, con emisión
de luz verde (532 nm). Para determinar
los time-offsets y posibles desviaciones de
los valores medidos previamente en el laboratorio, es importante proporcionar un
tiempo basado en el tiempo de llegada de
los primeros fotones (early photons) a los
PMTs. El efecto de retraso de los fotones se
debe al régimen de alta luz en el que opera Figura 2. Distribución de offsets relativos en pares
el OB [2]. Estos análisis requieren evitar los de OMs medidos en laboratorio (línea oscura) e
efectos del early photon y el scattering en in-situ (línea clara).
una ventana de tiempo.
Los LED beacons también permiten estudiar otro importante efecto para controlar los sistemáticos del detector: las propiedades ópticas del agua (longitud de absorción y dispersión).
Iluminando los PMTs a lo largo de una misma línea se puede medir la carga y el tiempo de
las señales recibidas por estos y estudiar su dependencia con la distancia. Además, se puede
estudiar su evolución a largo plazo, ya que se llevan haciendo estos runs de calibración una
vez por semana desde hace dos años.
257
Simposio de Física de Altas Energías y Física Teórica
3. Resultados y discusión
Para verificar la validez de un conjunto
de time offsets, se ha calculado la diferencias de tiempo por pares de OMs en el mismo piso (Figura 1). Estas diferencias deberían ser próximas a cero, dado que los PMTs
dentro de un mismo piso están a la misma
distancia de la fuente. Se ha comprobado
que la dispersión típica en estas diferencias pasa de ser RMS = 0.85 ns (cuando se
usan los offsets medidos en el laboratorio)
a RMS = 0,40 ns (cuando se usan las correcciones medidas in-situ). En un 15% de los
casos estas correcciones son mayores de
1 ns, lo que demuestra que esta calibración
es necesaria para garantizar una buena re- Figura 2. Evolución en λ usando OBs de L4.
solución angular.
La determinación de las longitudes de absorción y dispersión es una tarea compleja porque ambos efectos están operando simultáneamente en las distribuciones de carga y tiempo
medidas [3]. Por otro lado, son un input importante para la simulación Monte Carlo. Combinando runs a distintas intensidades se ha podido estimar un valor de 60 ± 3 m para la longitud
de absorción y de 50 ± 10 m para la longitud de dispersión. Repitiendo sistemáticamente las
estimaciones para λ a lo largo del tiempo pueden observarse comportamientos como los de la
Figura 2 donde λ fluctúa entre 45 m y 55 m aproximadamente. Nótese que λ es una variable
que incluye efectos de λscat y λabs, pero que permite estimar los efectos sistemáticos asociados a
la propagación de la luz en el agua. La influencia de canales muertos en el detector es una de
las posibles causas de la fluctuación de λ al no colectarse toda la carga en algún OM, influyendo en la estimación de λ. Es necesario igualmente verificar la evolución de la eficiencia de los
PMTs en el tiempo, envejecimiento de PMTs, sedimentación en OMs, etc. Estas estimaciones
pueden llegar a establecer las incertidumbres que se tienen en los métodos de cálculo para λ
de tal forma que puedan compararse más precisamente con la simulación.
4. Conclusiones
El sistema de calibración basado en balizas ópticas permite una resolución temporal relativa del orden de 1 ns, necesaria para conseguir la excelente resolución angular esperada para
ANTARES. Por otro lado, el sistema de LED beacons también permite estimar la longitud de
absorción y dispersión (λabs = 60 ± 3 m y λscat = 50 ± 10 m). La estabilidad de la medida de estos
parámetros permite también estimar los efectos sistemáticos asociados, fundamentalmente
cuando se comparan los datos con la simulación Monte Carlo.
Referencias
[1] J.P Gómez et al., cf. proceedings de esta conferencia.
[2]F. Salesa-Greus. Integration and first results of the Optical Beacon Calibration System of the ANTARES Neutrino telescope. Diploma thesis, Universidad de Valencia, September 2006.
[3]J.A. Aguilar et al. Transmission of light in deep sea water at the site of the ANTARES Neutrino telescope. Astropart. Phys. 23 (2005) 131-155.
258
XXXII Reunión Bienal de la Real Sociedad Española de Física
Caracterización de detectores de silicio de tipo P irradiados y
medidos con el sistema ALIBAVA
M. Miñano, R. Marco, U. Soldevila
Instituto de Física Corpuscular, (CSIC-UVEG), 46071, Valencia; [email protected]
1. Introducción
El experimento ATLAS, situado en el acelerador LHC del CERN está dotado con un sistema muy preciso de reconstrucción de trazas. Los detectores microstrip de este sistema están
fabricados en silicio FZ P-sobre-N. Se estima que esta tecnología puede resistir los daños causados por la radiación acumulada durante 10 años de operación del LHC a una luminosidad
máxima de 1034 cm-2s-1. Un aumento en la luminosidad de un orden de magnitud (1035 cm-2s-1)
implica sustituir los sistemas de reconstrucción de trazas de los experimentos del LHC. Esta
segunda fase de operación del acelerador se le conoce con el nombre de Super-LHC. La dosis
esperada para los detectores de trazas en la parte más interna de ATLAS bajo estas condiciones es 1016 neutrones equivalentes de 1MeV cm-2 acumulada durante los 5 años de operación
previstos. Desde hace ya unos años se está desarrollando una tecnología de detectores de
silicio capaces de soportar altas dosis de radiación como las que se esperan en el Super-LHC.
Las excelentes propiedades que han mostrado los detectores N-sobre-P en investigaciones
previas [1] respecto a detectores P-sobre-N hacen de ellos una opción muy adecuada para
experimentos en entornos de radiación muy elevados.
2. Detectores y método experimental
Detectores test de microstrips de tipo Hamamatsu N-sobre-P han sido usados para este
trabajo. Los detectores han sido procesados por HPK. Tienen una dimensión de 1x1 cm2 y
un grosor de 320±15 µm. Están formados por 128 strips aislados entre sí y un substrato FZ
con una resistividad superior a 4KΩcm. Estos prototipos han sido irradiados con protones
y neutrones a diferentes dosis hasta 1015 cm-2. Posteriormente, se han realizado medidas de
eficiencia de recolección de carga iluminando los detectores con una fuente láser. Las medidas
han sido calibradas comparándolas con los datos tomados con una fuente radiactiva (90Sr).
Para la realización de las medidas se ha usado el novedoso sistema de adquisición ALIBAVA
[2]. Es un sistema compacto y portátil que contiene dos chips de lectura (Beetle chip) para
adquirir las señales de los detectores y que funciona a una velocidad de lectura adecuada
para el LHC.
3. Resultados y conclusiones
La figura 1 muestra la carga recogida frente al voltaje de alimentación del detector para
cada detector irradiado con protones. Se muestra también las curvas para dos detectores no
irradiados como referencia. De igual manera, la figura 2 muestra las curvas de carga recogida
frente al voltaje de alimentación para los detectores irradiados con neutrones e igualmente
para dos detectores no irradiados.
Las dosis aplicadas son 214, 514 y 1015 neq 1MeV cm-2. Para cada tipo de irradiación y cada
tipo de dosis se han medido dos detectores cuya diferencia está en el tipo de aislamiento entre
las microbandas: P-stop y la combinación P-stop+P-spray [3].
A la vista de los resultados, se observa que la radiación con neutrones produce un daño
259
Simposio de Física de Altas Energías y Física Teórica
mayor sobre los detectores. Con las dosis más bajas de protones se llega a un plateau de carga,
lo que indica que se ha alcanzado el voltaje de desertización completa. Respecto, a los dos
métodos de aislamiento, las medidas son compatibles. De cualquier manera, los detectores
muestran una muy buena operación; incluso a la dosis más alta de neutrones, los detectores
funcionan eficientemente. Por ejemplo, la señal generada a 600V es de 10000 electrones. Estos
detectores pueden resistir las altas dosis de radiación y seguir dando una señal de tamaño
adecuado, luego podrán ser utilizados para los sistemas de reconstrucción de trazas de los
experimentos del Super-LHC.
Figura 1. Carga recogida vs Voltaje aplicado a los detectores irradiados con protones.
Figura 2. Carga recogida vs Voltaje aplicado a los detectores irradiados con neutrones.
Referencias
[1]“First results on the charge collection properties of segmented detectors made with p-type bulk
silicon”, G. Casse, et al., Nucl. Instr. and Meth. A 487 (2002) 465.
[2]“A portable readout system for microstrip silicon sensors (ALIBAVA)”, Marco-Hernández,R. et al.
IEEE, Transaction on Nuclear Science. Aceptado para su publicación.
[3]“p-Bulk silicon microstrip sensors and irradiation”, Y.Unno et al. . Nucl. Instr. and Meth. A 579 (2007)
614–622.
260
XXXII Reunión Bienal de la Real Sociedad Española de Física
Alineamiento del detector de trazas de ATLAS: método
del algoritmo Globa χ2
R. Moles-Valls, V. Lacuesta y C. Escobar
IFIC(CSIC-Univ. de Valéncia). Nuevos Edificios de Investigación, Paterna. Apdo22085,E46071, València.
[email protected].
El LHC (Large Hadron Collider) es el colisionador hadrónico situado en el CERN. Este colisionador trabajará a una luminosidad de 1034cm-2s-1 y permitirá alcanzar energías de 14 TeV
en centro de masas. El LHC guía dos haces de protones en sentidos opuestos que chocan en
los puntos donde se encuentran los detectores. ATLAS es uno de los cuatro grandes detectores
integrados en el LHC. El ID (Detector Interno) es el detector mas cercano al haz de protones. Se
encarga de la medida del momento de las partículas cargadas y de la reconstrucción de vértices primarios y secundarios. El ID está formado por tres subsistemas, de dentro hacia fuera:
detector de Pixeles, formado por 1744 módulos pixeles con una resolución intrínseca de 15 μm
en Rz y 115 μm en z, SCT (SemiConductor Tracker) con 4088 módulos micro-bandas de silicio y
una resolución intrínseca de 23 μm en la dirección Rz y 580 μm en la dirección z y TRT (Transition Radiation Tracker) formado por 992 módulos con una resolución de 130 μm en Rz [1].
Un aspecto muy importante para el buen funcionamiento de los detectores es el alineamiento. El alineamiento presenta diferentes pasos (mediciones mecánicas durante el ensamblaje y la integración de los detectores, sistema láser de medición, etc), por último se utilizan
los algoritmos de reconstrucción con trazas, los cuales permiten corregir las desviaciones de
los detectores respecto a su posición nominal con una alta precisión. Como requisito del alineamiento del ID es necesario que las constantes de alineamiento (correcciones a las posiciones nominales de los módulos) no degraden los parámetros de las trazas más de un 20%. Para
ello las correcciones de alineamiento deben de ser conocidas con una precisión de 7 μm para
los Pixels y 12 μm para el SCT, ambas en la dirección Rz.
Se han implementado diferentes algoritmos para el alineamiento del ID. Todos ellos están
integrados dentro del software de ATLAS, Athena. El Globalχ2 [2] es uno de los algoritmos de
alineamiento utilizados para los detectores Pixel y SCT. Este algoritmo se basa en la minimización de un χ2 cuya expresión general viene dada por la ecuación (1).
|2 =
! r T ^r, ah V - 1 r ^r, ah
tranzas
(1)
donde r son los residuos (distancia entre el punto medido y el punto extrapolado de la traza)
y V la matriz de covariancias. En la expresión (1) podemos ver que los residuos dependen de
los parámetros de las trazas (π) y de los parámetros de alineamiento (a). En ATLAS los parámetros de la traza son cinco: d0 y z0, parámetros de impacto transversal y longitudinal; z0, ángulo
azimutal; cosθ, coseno del ángulo polar y q/p inversa del momento de las partículas cargadas.
Los parámetros de alineamiento corresponden a 3 translaciones (Tx,Ty,Tz) y 3 rotaciones de
Cardano (Rx,Ry,Rz). El procedimiento general del método Globalχ2 puede verse en la fig. 1. Para
calcular la minimización del χ2 respecto a los parámetros de alineamiento necesitamos obtener
las derivadas de los residuos respecto a los parámetros de las trazas. El Globalχ2 considera estas
derivadas no nulas y las introduce como paso intermedio al ajuste de los parámetros de alineamiento (diferencia mas significativa respecto al resto de algoritmos de alineamiento del ID),
lo que permite introducir las correlaciones entre módulos. La solución del sistema conlleva la
inversión de una matriz M, que incluye las derivadas de los residuos respecto a los parámetros
261
Simposio de Física de Altas Energías y Física Teórica
de alineamiento y por ende los de las trazas. El sistema de silicio está formado por 5832 módulos, cada uno de estos tiene 6 grados de libertad. Por tanto, la matriz tiene una dimensión de
35kx35k y además por construcción es bastante densa. La inversión de la matriz de este tamaño
presenta un desafío numérico, ya que no solo se requiere exactitud y precisión sino que además
la rapidez es fundamental. Los requisitos de memoria y de tiempo de CPU son enormes. Finalmente obtenemos las correcciones a los parámetros de alineamiento. Este algoritmo se ejecuta
iterativamente hasta la convergencia de las constantes de alineamiento.
Figura 1. Esquema del algoritmo de alineamiento Globalχ2.
El algoritmo Globalχ2 permite introducir restricciones externas como términos aditivos a
la definición del χ2. Podemos limitar los parámetros de las trazas, los parámetros de alineamiento y los parámetros del vértice. Como caso particular la ecuación 2 muestra un termino
de penalización para los parámetros de alineamiento.
|2 =
! r T ^r, ah V - 1 r ^r, ah + R T ^ah G - 1 R ^ah
tranzas
(2)
R es el nuevo vector de residuos que contiene información extra de los parámetros de alineamiento y G la matriz de covariacias de este vector. Este procedimiento puede utilizarse para
relacionar el movimiento de los módulos o constreñirlos a lo que se ha medido durante la fase
de ensamblaje. Se está trabajando en su implementación.
El algoritmo Globalχ2 ha sido testeado utilizando tanto datos simulados como con datos
reales de rayos cósmicos. Los diferentes tests han mostrado que el algoritmo funciona y por
tanto el Globalχ2 ha sido incluido como algoritmo de los detectores de silicio dentro de la cadena general de alineamiento del ID. Esta cadena se muestra en la fig 2.
Figura 2. Cadena de alineamiento del ID.
262
XXXII Reunión Bienal de la Real Sociedad Española de Física
Durante el 2008 se han realizado los ejercicios FDR (Full Dress Rehearsal) para testear la
cadena offline en la toma de datos. El alineamiento forma parte de la cadena y debe proporcionar unas constantes de alineamiento actualizadas cada 24 horas. Para ello se ha desarrollado un software común que conecta todos los pasos de una forma óptima y automática. Estos
ejercicios han permitido determinar que la cadena de alineamiento del ID está lista para las
primeras colisiones y además los rayos cósmicos tomados durante el 2008 han permitido alinear el detector interno de ATLAS con datos reales.
Referencias
[1] G Aad et al(The ATLAS Collaboration ), JINST 3 (2008).
[2] Brückman, P; Hicheur, A; Haywood, S J., CERN-ATL-INDET-PUB-2005-002 (2005).
263
Simposio de Física de Altas Energías y Física Teórica
Tecnología DEPFET: Detectores de píxeles activos
para futuros colisionadores
C. Mariñas
IFIC, CSIC-UVEG. Apdo. 22085. Valencia. Spain; [email protected].
La colaboración DEPFET trabaja en el desarrollo de
detectores de vértices y trazas para futuros colisionadores e+e-. Las excelentes características de esta tecnología
(buena relación señal-ruido y resolución espacial, mínimo material), hacen de ella un excelente candidato para
afrontar los exigentes requisitos que se imponen sobre los
futuros detectores.
El concepto DEPFET fue introducido por primera
vez en el año 1987 [1]. La última generación de sensores
DEPFET, sensores monolíticos producidos en tecnología
MOS, ha sido realizada en diferentes formas y tamaños
de píxel, adaptados a una variedad de aplicaciones tanto
Figura 1. Pixel DEPFET.
para astronomía de rayos X en misiones espaciales, como
de imagen médica y detectores de trazas y vértices para futuros colisionadores e+e- (ILC,
SuperBelle) [2].
Los detectores de vértices y trazas de los futuros colisionadores requieren una excelente
reconstrucción de vértices y una eficiente identificación de quarks con sabores pesados utilizando para ello trazas de bajo momento. Estas exigencias hacen que los detectores hayan
de tener una alta granularidad, rápida lectura, poca cantidad de material y bajo consumo y
disipación de potencia, características que han demostrado tener los diversos prototipos DEPFET testados
hasta el momento.
En los detectores DEPFET (Figura 1) cada píxel se
compone de un transistor MOSFET, con un implante
de tipo-n adicional bajo la puerta de dicho transistor
(puerta interna), que se integra en un sustrato de silicio totalmente desertizado. En esta tecnología de
píxeles activos, la primera etapa de amplificación se
encuentra integrada en el propio sensor. Cuando una
partícula cruza el detector, se crean en el sustrato pares Figura 2. Sensor DEPFET (centro, abaelectrón-hueco. Los electrones derivan hacia la puerta jo) ensamblado en híbrido. Los Switchers
interna, donde se recolectan; en este momento, la car- (Clear y Gate) son visibles a ambos lados
del sensor y el chip de lectura (CURO)
ga recogida cambia el potencial de la puerta interna y
en la parte superior.
la corriente del transistor se regula. El píxel proporciona, de esta forma, una corriente que es proporcional al
número de electrones recolectados en la puerta interna del transistor. Una vez que se ha leído
la señal de cada píxel, la carga ha de ser eliminada de la puerta interna; para ello, se aplica
periódicamente un voltaje positivo a un contacto de CLEAR, situado en la periferia de cada
uno de los transistores.
Para realizar este mecanismo de lectura de la señal y limpieza de las cargas acumuladas
en la puerta interna, es necesaria la utilización de dos chips auxiliares denominados Switchers
264
XXXII Reunión Bienal de la Real Sociedad Española de Física
(Gate hace la lectura y Clear el borrado) y un chip
de lectura, denominado CURO (Figura 2). El proceso de operación del sistema es el denominado rolling
shutter y el método de lectura de los píxeles se realiza
mediante la técnica del Correlated Double Sampling
(CDS), que permite eliminar así el offset y el ruído de
reset del píxel.
En agosto del año 2008, se llevaron a cabo, en el
complejo de aceleradores del CERN, las pruebas en
haz de un conjunto de estos detectores DEPFET, utilizando para ello, piones de 120 GeV/c. Dichos módulos se caracterizan eléctricamente, en los diversos Figura 3. Montaje experimental del teleinstitutos que componen la colaboración, antes de scopio DEPFET.
llevarlos al haz, utilizando para ello fuentes radioactivas y láseres. Esta caracterización eléctrica persigue
la optimización de cada uno de los voltajes de funcionamiento del detector. El montaje experimental
(Figura 3) está compuesto por un telescopio formado
por 4 brazos de matrices DEPFET (128x64 píxeles de
tamaño 32x24 μm2 y 450 μm de espesor) y dos módulos de test (denominados DUT, con 128x64 píxeles
de 32x24 μm2 y 24x24 μm2 respectivamente y 450 μm
de espesor, y uno de ellos montado sobre un eje rotativo), situados en el centro del telescopio. El sistema Figura 4. Señal recolectada en clússe complementa con dos centelleadores en los extre- ter 3x3 para incidencia normal de π de
mos utilizados para dar el trigger. Todo el sistema se 120 GeV/c.
controla remotamente y la sincronización de todos
los elementos se realiza mediante un módulo de lógica
(denominado TLU).
Los estudios realizados durante el período de test
en haz incluyen barridos de los distintos voltajes del
detector, barridos en ángulo de incidencia y en la energía del haz, y alta estadística. Los datos obtenidos (20
millones de eventos) fueron procesados utilizando un
software de análisis desarrollado por la colaboración
EUDET. Se calcula mediante este procedimiento la señal recogida en los clústeres (previa corrección de los
pedestales y del ruido en modo común).
En la Figura 4 puede observarse la señal recogida en
un clúster 3x3 para el DUT de píxeles 24x24 μm2. Para
este sensor, la carga recogida es 1700 ADU (Unidades Figura 5. Distribución de residuos para
de ADC) que, con un ruido de 12.5 ADU, ofrecen una la dirección Y de uno de los DUT’s.
relación señal ruido (SNR) de 135.
v 2Total = v 2Telescopio + v 2Intrinseca +
Una vez que las posiciones de los clústeres son co2
nocidas (utilizando el método del centro de gravedad + v m.s.
y la corrección-η), se procede al alineamiento de los
detectores utilizando un algoritmo estándard, denominado Millipede. Finalmente, la posición de la partícula en el DUT se predice utilizando para
ello la extrapolación de la traza conseguida mediante el ajuste a los hits en los planos del
telescopio.
265
Las distribuciones de residuos (diferencia entre la posición extrapolada de la traza y el hit
en el sensor) típicas de este tipo de detectores DEPFET puede verse en la Figura 5. La anchura
de la distribución es la suma cuadrática de las contribuciones debidas a la resolución intrínseca del detector, a la del telescopio y la contribución debida al multiple-scattering. Típicamente
los residuos preliminares obtenidos arrojan valores de resolución espacial por debajo de las
2 μm.
Los últimos detectores DEPFET (6 matrices de 128x64 pixeles funcionando conjuntamente) testados en haz en el CERN han demostrado poseer unas características excelentes, como
bajo ruído, gran recolección de carga y excelente resolución espacial.
Referencias
[1] J. Kemmer, G. Lutz, New detector concepts, Nucl. Inst. Meth. A253 (1987) 365-377.
[2]G. Aarons et al., International Linear Collider Reference Design Report, ILC-REPORT-2007-1, DESY07-046 (April 2007).
XXXII Reunión Bienal de la Real Sociedad Española de Física
Calibración fina del Calorímetro Electromagnético de LHCb
A. Puig y R. Graciani
Departamento de Estructura y Constiuyentes de la Materia, Universitat de Barcelona, 08028 Barcelona
El experimento LHCb, el más pequeño de los 4 experimentos principales del LHC (Ginebra, Suiza), está dedicado a la búsqueda de nueva física a través del estudio de la violación CP
y las desintegraciones raras de los hadrones B [1].
Posee un calorímetro formado por diversas capas: la más cercana al punto de interacción
es el Scintillator Pad Detector (SPD), un detector de centelleo cuya misión es diferenciar entre
partículas cargadas y neutras; a continuación, tras una capa de plomo, se encuentra el Single Layer Preshower Detector (PS), encargado de la diferenciación de electrones y hadrones,
así como de la corrección de energía de aquellas cascadas electromagnéticas que hayan empezado antes del calorímetro; posteriormente encontramos el Calorímetro Electromagnético
(ECAL), principalmente utilizado para la medida de la energía de electrones y fotones y la
reconstrucción de π0, y, finalmente, el Calorímetro Hadrónico (HCAL), cuya tarea consiste en
medir la energía y proporcionar información para el trigger de π, K y otros hadrones. Cada
una de estas capas está dividida en celdas en el plano perpendicular al haz, permitiendo
obtener información detallada sobre la posición de las partículas incidentes. La granularidad
de SPD, ECAL y PS es la misma, con un total de 6016 celdas, mientras que el HCAL posee un
total de 1488 [2].
La tarea de calibrar el calorímetro, es decir, encontrar una relación entre la energía reconstruida por el mismo y la energía real depositada, debe ser realizada celda a celda. Para
el ECAL, la primera calibración hasta una precisión ~4%, se realizará mediante méto-dos de
energy flow [3]. A partir de este nivel de precisión, los métodos para la calibración fina dependen del rango de energías, asumiendo linealidad allí donde fuese necesario. A baja energía, la
calibración puede ser realizada mediante el estudio de las deposiciones energéticas (clusters)
provenientes de la desintegración π0 → γγ [4], cuando ambos fotones se encuentran diferenciados en el calorímetro. Entonces, la masa reconstruida viene dada por la siguiente fórmula
(asumiendo el PS calibrado):
2
m reco
, r = 2 _a1 EECAL, 1 + bEPS, 1i _a2 EECAL, 2 + bEPS, 2i _1 - cos {12i (1)
0
donde αi es la constante de calibración correspondiente a la celda del cluster i y β es una constante multiplicativa a la energía del PS que tiene en cuenta la diferencia de material muerto
entre ECAL y PS. El objetivo de la calibración es, pues, encontrar el valor de estas constantes
con la máxima precisión.
Para hacerlo, el primer paso consiste en obtener una selección de candidatos a π0 lo más
pura posible. Para ello, se obtienen candidatos a fotón aplicando cortes en aislamiento y ET en
los clusters, y se pide que no haya señal en el SPD en la región de 3x3 celdas alrededor de la
celda central del cluster. A continuación estos candidatos a fotón son combinados entre ellos
y se aplican cortes extras en la ET de la combinación. La muestra resultante presenta la distribución de masa reconstruida que se puede ver en con trazo negro en la fig. 1 (αi = 1 y β = 11).
Esta muestra presenta un significativo fondo combinatorio que dificulta el correcto ajuste
gaussiano del pico de masa. El proceso habitual de calibración [5] consiste en ajustar el fondo
con un polinomio, encontrar la posición del pico y efectuar un proceso iterativo ajustando las
constantes de calibración según la distancia del pico a la masa real del π0.
267
Simposio de Física de Altas Energías y Física Teórica
Este proceso presenta generalmente
una buena convergencia, pero, al ser iterativo, tiene como inconvenientes la existencia de fluctuaciones alrededor del resultado correcto y una cierta lentitud. Lo que
se pretende con este trabajo es mejorar el
método iterativo con un método basado
en la minimización de la suma de distancias de la masa reconstruida para cada uno
de los candidatos a π0 a la masa real de la
partícula. Para ello resulta completamente
imprescindible ser capaz de modelizar el
fondo combinatorio, para así poder sustraerlo al obtener el valor de la función a
minimizar.
El proceso para generar el fondo com- Figura 1. Distribución de masa reconstruida para
binatorio es el siguiente: se genera una la señal (histograma superior) y el fondo generado
nueva selección de candidatos a fotón co- (histograma inferior).
giendo la muestra seleccionada y realizando una simetría central de las posiciones de cada uno de estos candidatos a fotón; a continuación se combina la muestra original con la muestra invertida y se aplican los mismos cortes
que en la selección de señal. De esta forma se obtiene una muestra (fig. 1, histograma inferior)
que simula el fondo combinatorio con un factor 2 respecto a la selección de datos reales; por
lo tanto, cada combinación de esta segunda selección tiene un peso 0.5. La muestra generada
se puede restar a la selección sobre datos reales, quedando únicamente el pico de masa correspondiente al π0 (fig. 2).
Una vez generado el fondo, se pueden obtener las constantes de calibración mediante la
minimización de la siguiente función:
d _ai, bi = ! mr - mreco, r _ai, bi - 1 ! mr - mreco, brackground _ai, bi (2)
2
0
0
0
Es conveniente realizar algunas iteraciones del procedimiento, reclusterizando y volviendo a aplicar las selecciones, para asegurar que la influencia de cada celda sobre las celdas
vecinas ha sido tenida en cuenta.
La correcta calibración del ECAL es
crucial para asegurar el buen funcionamiento de todas aquellas actividades que
requieren la medida de la energía de las
partículas que se generen en el experimento LHCb, especialmente trigger y desintegraciones radiativas. Hemos visto como
la calibración fina a bajas energías puede
ser realizada mediante el estudio de desintegraciones π0 → γγ. Tras una selección
de clusters candidatos a ser fotones, éstos
se combinan para obtener candidatos a π0.
Este proceso provoca la aparición de un
fondo de carácter combinatorio, lo cual
representa un problema al realizar el ajus- Figura 1. Pico de masa tras la sustracción del fondo.
te de la masa del π0. Para solucionar este
268
XXXII Reunión Bienal de la Real Sociedad Española de Física
problema se ha presentado un método capaz de simular, a partir de los mismos datos, el
mencionado fondo, abriendo las puertas a un proceso de calibración basado en técnicas de
minimización, mucho más favorables que aquellas basadas en la corrección iterativa de los
factores de calibración.
A.Puig agradece la financiación de la beca FPU del MICINN.
Referencias
[1] S. Amato et al. LHCb Technical Proposal. CERN-LHCC-98-04, 1998.
[2] S. Amato et al. LHCb Calorimeters. Technical Design Report. CERN-LHCC-2000-0036, 2000.
[3] I. Belyaev, K.Voronchev. Energy flow calibration of LHCb ECAL. LHCb 2006-051, 2006.
[4] O. Igonkina et al. Online π0 calibration of ECAL. HERA-B/00-103, 2000.
[5]S. Barsuk et al. The roadmap towards the first measurements with the radiative decays of beauty
hadrons at LHCb, 2009.
269
Simposio de Física de Altas Energías y Física Teórica
Estudio de eventos tt en el canal de desintegración dileptónico
con leptón τ utilizando el detector ATLAS
S. Cabrera Urbán y M. T. Pérez García-Estañ
IFIC-Instituto de Física Corpuscular (Centro mixto CSIC-U. Valencia), Edificio de Institutos de Investigación, Apartado de Correos 22085, E-46071 Valencia; [email protected].
El estudio de procesos conocidos del Modelo Estándar: W → τ + ν, Z → ττ y producción de
pares de quark top con leptones tau en el estado final permitirá poner a punto las técnicas de
reconstrucción e identificación de desintegraciones hadrónicas de leptones tau utilizando la
primera muestra de datos de colisiones protón-protón producidas por el LHC y recogidas con
el detector ATLAS. Estos primeros estudios permitirán en la colaboración ATLAS entender
las eficiencias de identificación de dichos leptones así como los factores de rechazo de fondos
instrumentales que falsifican la señal de una desintegración hadrónica del τ, principalmente
jets producidos por la hadronización de quarks y gluones. Posteriormente, dichas técnicas de
reconstrucción e identificación de leptones τ se utilizarán para la búsqueda y descubrimiento
de nueva física como bosones de Higgs o Supersimetría (SUSY) [1]. En el contexto del Modelo Estándar, los procesos ttH → ttττ y qqH → qqττ contribuyen de manera importante a la
sensitividad del experimento ATLAS para el descubrimiento del bosón de Higgs en el rango
de masas de 110-140 GeV. Más allá del Modelo Estándar, en el contexto del modelo MSSM
(Minimal Supersymmetric Standard Model), el potencial de descubrimiento radica en la observación de Higgs neutros (A/H → ττ) y cargados (H+ → τν) en el rango de masas elevadas
del bosón de Higgs 110-450 [2].
En la presente contribución presentamos un estudio de viabilidad del análisis del siguiente canal top-anti top:
ttr " bW _l + ol i bW _ x had + ol i " l + x had + 2jet + ET
l: = e, n
donde ET (missing ET) es la energía faltante en el plano trasnverso debida a la presencia de
neutrinos. Este canal es importante por su contribución a la medida de sección eficaz de producción de pares de quark top, proporcionando una medida con una muestra independiente
a la correspondiente a los canales dileptónico _ttr " bW _l + ol i bW _l + ol i l: = e, ni y
semileptónico _ttr " bW _l + ol i bW _ qqr + ol i l: = e, ni . También es un fondo importante que afecta a las señales de nueva física mencionadas.
La reconstrucción de leptones τ se centra en los canales hadrónicos, ya que es difícil distinguir los modos leptónicos (τ → e/µ νeντ) de electrones y muones primarios procedentes
directamente de desintegraciones de bosones W → e/µ+νe/µ y Z → ee,µµ. Desde el punto de
vista de la detección los modos hadrónicos se clasifican en el single-prong (1 pión cargado) y
el modo three-prong (3 piones cargados). Los jets producidos por la desintegración hadrónica
de un τ se pueden identificar a través de la presencia de depósitos de energía localizados en
los calorímetros (cúmulos) con un número pequeño de trazas cargadas asociadas. Para llevar
a cabo esta reconstrucción e identificación en el software offline de ATLAS se implementaron
dos algoritmos [1,2,3] complementarios: (a) TauRec: a partir de cúmulos reconstruidos en
los calorímetros hadrónico y electromagnético, asocia un candidato a jet de taus a cada uno
y después calibra la energía del mismo mediante variables de identificación que construye a
partir de la información del detector interno de trazas y el calorímetro. (b) Tau1p3p: a partir
de grupos de trazas colimadas altamente energéticas, crea un candidato a jet de tau y luego
calibra su energía utilizando los calorímetros.
270
XXXII Reunión Bienal de la Real Sociedad Española de Física
Los fondos físicos que afectan al canal en estudio tienen igual estado final en el detector
que la señal y se reducen mediante la aplicación de criterios cinemáticos y angulares. El fondo
físico dominante es Z →ττ + 2jets:
z + 2p " xx + 2p " l + ol + o x + x had + 2p " l + x had +
+ 2jets + ET l: = e, n
Los fondos instrumentales son procesos que, aun teniendo un estado final distinto, producen una señal idéntica en el detector. Estos últimos se reducen aplicando criterios de identificación propios del leptón τ. El fondo instrumental predominante es el de W + jets:
W + 3p " l + ol + 3jets ! l + 2jets + ET + x had
l: = e, n
Otros fondos que hemos considerado han sido Wbb (1 e/µ + MissingEt + 2 b-jets + 1 quarkgluon-jet) y Single Top (Wt: W(→e/μ/+τ,ν),t→W(→qq´)b; s-channel: [t→W(→e/μ+ν)b]b; tchannel: [t→W(→e/μ+ν)b]b,q´), donde podemos tener tanto taus reales como taus falsamente
identificados.
Para realizar el análisis y discriminar la señal de los fondos se ha requerido un leptón
aislado (e o μ) con alto momento transverso (pT > 20 GeV) (que será utilizado en el trigger del experimento para recoger la muestra de señal), un leptón τ (pT > 15 GeV) reconstruido e identificado, jets producidos por la fragmentación y hadronización de un quark b
y que denominaremos b-jets, una deposición total de energía transversa en el calorímetro
superior a 250 GeV (debido a la elevada masa del quark top) y energía transversa perdida
(ETmiss > 25 GeV). Para suprimir los fondos procedentes de eventos W + jets y Z + jets se ha
requerido la existencia de dos jets con alta energía transversa (ET1 > 50 GeV y ET2 > 35 GeV)
[1,2]. Adicionalmente se ha aplicado un algoritmo de identificación de b-jets; dicho algoritmo
se denomina b-tagging y utiliza información de vértices secundarios y parámetros de impacto
de las trazas pertenecientes a dicho jet. También se ha utilizado reconstrucción de la masa del
bosón Z para discriminar el fondo Z → ττ + ≥ 2jets y se ha aplicado el criterio de cargas opuestas entre los leptones e/mu y tau por la neutralidad de carga del proceso del estado final.
Los resultados de estos análisis con muestras de Monte Carlo simuladas a 14 TeV y una
luminosidad integrada de 100 pb-1 muestran un número de eventos esperado de 55 ± 2 en
el canal e-τ con una relación señal/fondo (S:B) de 1:1.6 (<1) antes de aplicar btagging. Tras
el btagging el número de eventos esperado disminuye a 44 ± 2 pero el cociente S:B mejora a
1:0.8 (>1). En el canal μ-τ se esperan 84 ± 3 eventos con un cociente S:B de 1:0.6 (>1) sin aplicar
btagging. Tras aplicar btagging el número de eventos esperado disminuye a 68 ±3 y el cociente S:B mejora a 1:0.32. Los fondos dominantes en ambos canales son debidos a procesos
W + jets y, en menor medida, a procesos Single Top.
A la vista de los nuevos planes para el comienzo del LHC4, estamos realizando estudios
de viabilidad de este canal a una energía en centro de masas de √s = 10 TeV (teniendo en
cuenta las nuevas secciones eficaces de producción para señal y fondos), y utilizando el nuevo algoritmo combinado de reconstrucción de leptones tau, que explota la información de
ambos algoritmos (TauRec y Tau1p3p). En este tipo de reconstrucción se ejecuta el algoritmo
Tau1p3p sobre trazas que tengan un momento transverso Pt > 6 GeV. A continuación se busca
un cúmulo (Et > 10 GeV) en un cono de radio 0.2 alrededor de la misma traza; si se encuentra
dicho cono se ejecuta el algoritmo TauRec también. Sobre los cúmulos restantes se ejecuta
únicamente el algoritmo TauRec. De este modo, las dos técnicas se ponen a disposición dentro
del mismo evento de manera conjunta, optimizando su utilización.
En los nuevos análisis se utilizan también muestras combinadas de señal y fondo, que
emulan los datos reales que se obtendrán con el detector. Esto permitirá desarrollar métodos
271
Simposio de Física de Altas Energías y Física Teórica
experimentales basados en datos reales para la determinación de los fondos instrumentales
orientados a la realización del análisis con la primera muestra de datos de ATLAS.
Agradecimientos: Queremos expresar nuestro agradecimiento a los grupos de trabajo de
la colaboración ATLAS dedicados a la Física del quark Top y a la reconstrucción e identificación de leptones tau. Dña Teresa Pérez García-Estañ está contratada por una beca F.P.I adscrita
al projecto FPA2006-03081 concedida por el Ministerio de Ciencia e Innovación.
Referencias
[1]Atlas Collaboration, “Expected Performance of the ATLAS Experiment: Detector, Trigger and Physics”. CERN-OPEN-2008-020.
[2]Atlas Collaboration, “Identification of τ hadronic decays with ATLAS detector”. ATL-PHYSINT-2008-003.
[3]The ATLAS Collaboration, G. Aad et al., The ATLAS Experiment at the CERN Large Hadron Collider, JINST 3 (2008) S08003.
[4] http://press.web.cern.ch/press/PressReleases/Releases2009/PR01.09E.html.
272
XXXII Reunión Bienal de la Real Sociedad Española de Física
Reconstrucción de la masa del quark top en el canal
semi-leptónico usando el algoritmo Globalχ2
C. Escobar, M. Moreno, R. Moles Valls y V. Lacuesta
Instituto de Física Corpuscular (IFIC), UV-CSIC, Apdo. E-46071 Valencia; [email protected].
El Large Hadron Collider (LHC) situado en el CERN (Ginebra, Suiza) hará colisionar dos
haces de protones alcanzando una energía en centro de masas de 14 TeV y una luminosidad
de 1034 cm-2 s-1. El experimento ATLAS (A Toroidal LHC Apparatus) situado en uno de los puntos de colisión del anillo del LHC ha sido diseñado para realizar medidas de precisión de
observables del Standard Model (SM), para buscar el bosón de Higgs y para buscar física más
allá del SM, como pueden ser las Teorías Supersimétricas entre otras.
Dada la escala de energía del LHC, éste será una factoría de quarks top, estimándose ~8·106
pares top-antitop por experimento y por año (10 fb-1/año). Por otro lado, el quark top, descubierto por el experimento CDF en Fermilab en 1995, es la partícula fundamental más pesada
del ME y está altamente relacionada con la rotura de simetría electrodébil y por lo tanto con el
hipotético bosón de Higgs. Además, es imprescindible un alto conocimiento experimental de
la física del top para justificar descubrimientos de nueva física. Todo esto, unido al potencial
de ATLAS, constituyen la motivación de este trabajo, en el que se pre-senta un método novel,
conocido como Globalχ2, para medir la masa del quark top usando los primeros datos que
producirá el LHC (del orden de 1 fb-1). El principal objetivo es, así pues, reproducir y alcanzar
los resultados de [1] utilizando este nuevo método, valorando su potencial y eficacia.
Se estima que la sección eficaz total de producción de los pares top-antitop en el LHC será de
unos 833 pb, lo que permitirá con tan solo 1 fb-1 de datos poder realizar las primeras medidas de la
masa del quark top donde el error estará ya dominado por las incertidumbres sistemáticas, siendo
estas del orden del GeV. Además, con una ≈ 2.1 GeV (un orden de magnitud por encima de la
constante de QCD, ΛQCD), el quark top tiene una vida media tal que se desintegra antes de hadronizar y lo hace casi exclusivamente (99.9%) a través del canal t → Wb. Después, dependiendo del
modo de desintegración del bosón W, se pueden dividir los eventos top-antitop en tres canales:
• Todo hadrónico (BR ≈ 44%): los dos W → jj (6 jets en el estado final, de los cuales 4 son
jets ligeros y 2 provienen de los quarks b de la desintegración del top).
• Todo leptónico (BR ≈ 11%): los dos W → lν (2 jets que vienen de los dos quarks b, un
leptón aislado y energía perdida por el neutrino en el estado final).
• Semi-leptónico (BR ≈ 45%): un W → jj y un W → lν (4 jets, siendo dos de los jets ligeros,
un leptón y energía perdida en el estado final).
De los tres, el canal más prometedor es el semi-leptónico debido a su mejor balance entre
su alto Branching Ratio (BR) y su relación señal/ruido, ya que el leptón aislado en el estado final permite descartar eficientemente el fondo QCD. Esto justifica que éste sea el canal elegido
para realizar nuestro análisis, que estará basado en simulación MonteCarlo.
Para realizar las medidas de la masa del quark top se propone el algoritmo citado anteriormente, el cual esta basado en el método de mínimos cuadrados. Este método parte de una
función χ2 como la presentada en (1) y minimiza este χ2, primero, con respecto los parámetros
del W y después respecto los parámetros del top. De este modo, se tienen dos ajustes anidados
y donde el primero, donde se determinan los parámetros del W, introduce correlaciones en el
segundo, donde se determinan los parámetros del top, estando entre ellos la masa del top.
273
Simposio de Física de Altas Energías y Física Teórica
!
|2 =
jets + l
+f
f
f
M jjb - M top
H
PDG
v top
H
2
2
2
M - M PDG
E im - E if
M
M PDG
p + f jj PDGW p + f lo -PDGW p +
vE
CW
CW
i
2
p +f
f
Mlob - M top
L
PDG
v top
L
p
(1)
En el primer término del χ , E es la energía reconstruida y E es E = αiE por lo que el parámetro del ajuste es αi, siendo un factor conocido como Jet Energy Scale (JES) y que per-mite realizar una calibración in-situ de los jets ligeros, pesados y del leptón por separado. Los cuatro últimos términos del χ2 constituyen limitaciones cinemáticas basadas en la topología de los eventos
considerados (canal semi-leptónico). De estos términos los dos primeros restringen los dos jets
ligeros por un lado y el leptón más el neutrino por otro a que reconstruyan la masa del bosón W
y los dos últimos términos limitan los dos jets ligeros más el b hadrónico por un lado y el leptón,
más el neutrino más el b leptónico por otro para que reconstruyan la masa del quark top.
2
m
i
f
i
f
i
m
i
Figura 1. Masa invariante del par de jets ligeros Figura 2. Masa del W hadrónico después de la
antes de la minimización del χ2 para eventos con minimización del χ2 para eventos con más de 2
solo 2 jets ligeros.
jets ligeros.
En este análisis se seleccionan eventos en los que
existan al menos 2 jets ligeros, 2 jets pesados (con
identificación de b) y 1 leptón (que además deberá
de ser e o µ). En eventos en los que existan más de 2
jets ligeros, se minimiza los dos primeros términos
del χ2 definido en (1) para todas las combinaciones
de parejas de jets ligeros existentes, eligiéndose
como candidatos la pareja que den el χ2 más bajo.
En todos los casos se compara con el truth y si no
cumplen se marcan
DR =
# 0.25
_z reco - ztruthi + _i reco - itruthi 2 #
2
como Combinatorial Background.
274
Figura 3. Masa del quark top después de la
minimización del χ2.
XXXII Reunión Bienal de la Real Sociedad Española de Física
La figura 1 muestra la masa invariante de la pareja de jets ligeros para eventos en los que
únicamente hay 2 de estos jets ligeros. La figura 2 muestra la masa invariante de estos jets
ligeros después de la minimización del χ2 para estos mismos eventos.
La figura 3 muestra la distribución de la masa del top después de la minimización
del χ2 de la expresión (1) con respecto los parámetros del top. Ajustando dicha distribución a una gausiana más un polinomio de grado 3, obtenemos Mtop = (172.9 ± 0.4) GeV/c2 y
σtop = (13.6 ± 0.4) GeV/c2, donde la incertidumbre es únicamente estadística.
Este trabajo introduce un método novel (Globalχ2), para la medida de la masa del top,
presentándose los resultados preliminares obtenidos, siendo estos satisfactorios.
Referencias
[1]G. Aad et al. (The ATLAS Collaboration), Expected Performance of the ATLAS Experiment – Detector, Trigger and Physics, arXiv 0901.0512 (2009).
275
Simposio de Física de Altas Energías y Física Teórica
Un bosón de Higgs no estándar en el LHC
Roberto Barceló1 y Manuel Masip2
CAFPE y Departamento de Física Teórica y del Cosmos, Universidad de Granada, 18071, Granada,
España.
1
[email protected].
2
[email protected].
El objetivo central del colisionador LHC del CERN es el estudio de la naturaleza del sector
escalar del modelo estándar (ME). Dicho sector explica la rotura de simetría observada en las
interacciones electrodébiles, es responsable de la masa de los fermiones e implica la existencia
del bosón de Higgs a energías accesibles a este experimento. Un análisis de los acoplamientos
del Higgs a los campos gauge y de materia debería además ofrecer indicios claros de como se
completa el ME a escalas de energía más altas. En particular, sus acoplamientos al quark top
parecen ser los más prometedores en la búsqueda de nueva física.
En este trabajo nos centramos en el estudio de los modelos de Little Higgs [1], donde el
Higgs aparece como un boson de Goldstone de una simetría global aproximada. Mostramos
que en esos modelos el bosón de Higgs físico no es un doblete de SU(2)_L puro, sino que
aparece mezclado con un singlete. Como consecuencia, sus acoplamientos al quark top y a los
bosones de gauge aparecen suprimidos respecto de los valores estándar. Esos acoplamientos
anómalos y la presencia de un quark T de masa por debajo de 1 TeV son dos peculiaridades
genéricas de cualquier modelo de Little Higgs [2,3].
Posteriormente analizamos en detalle un escenario particular conocido como el modelo
Simplest [3]. Un análisis del potencial efectivo a 1 loop muestra que en su formulación usual
no ofrece una rotura de simetría electrodébil y una masa del Higgs de acuerdo con los límites
experimentales. Mostramos que, sin embargo, una reformulación basada en simetrías de sabor aproximadas (en lugar de la llamada rotura colectiva) sí que permite construir un marco
consistente con los datos actuales. Ello convierte el modelo en una posibilidad para explicar
posible fenomenología no estándar en el LHC.
Referencias
[1] M. Scmaltz, JHEP 0408 (2004) 056.
[2] R. Barcelo, M. Masip y M. Moreno Torres, Nucl. Phys. B 782 (2007) 159 [arXiv:hepph/0701040].
[3] R. Barcelo y M. Masip, Phys. Rev. D 78 095012 (2008), arXiv:0809.3124[hep-ph].
276
XXXII Reunión Bienal de la Real Sociedad Española de Física
Beyond special-relativistic quantum field theory
from symplectic deformation in field space
Diego Mazón
Departamento de Física Teórica, Universidad de Zaragoza, 50009 Zaragoza, [email protected]
Distintas propuestas para una teoría de gravedad cuántica consideran que relatividad especial no es una simetría fundamental. En realidad, ya al considerar la interacción gravitatoria
desde un punto de vista de clásico, la relatividad especial y la simetría Poincaré quedan relegadas a simetrías locales del espacio tangente, esto es, una simetría local de los observadores
en caída libre.
En la literatura se han considerado diferentes alternativas para ir más allá de una teoría
cuántica de campos invariante Poincaré (RQFT) en un espacio-tiempo plano, i.e., que no toma
en consideración los efectos clásicos de la interacción gravitatoria, como por ejemplo, en el
marco de teorías efectivas donde se incluyen orden a orden operadores que violan invariancia
Poincaré o en el de teorías de campos sobre geometrías no conmutativas. Nosotros en este
trabajo consideraremos otra propuesta, la llamada teoría cuántica de campos no canónicos
(QTNCF) en la cual, a partir de un hamiltoniano formalmente idéntico al relativista se introduce una deformación en la estructura simpléctica a través de considerar relaciones de
conmutación a tiempos iguales no canónicas entre los grados de libertad que aparecen en el
hamiltoniano. Consideraremos la deformación más general que preserva invariancia rotacional espacial, traslacional espacio-temporal, U(1) rígida (no gauge) en el espacio interno,
localidad y que recupere RQFT a bajas energías:
H=
# 6 P + P + dU + dU + m 2 U + U@ d 3 x
8 U ^ xh, U + ^ yhB = id 3 ^ x - yh
8 U ^ xh, P + ^ yhB = id 3 ^ x - yh
8 P ^ xh, P + ^ yhB = 0
(1)
Esta teoría de campos puede representarse en un espacio de Fock convencional [1] en el
cual hay dos excitaciones distintas, debido a la presencia de θ en las relaciones de conmutación se rompe la simetría partícula-antipartícula, con relaciones de dispersión no invariantes
frente a transformaciones convencionales de Lorentz:
H=
d3p
8 Ea ^ ph a p + a p + Eb ^ ph b p + b p B
2rh 3 2~ p
#^
(2)
Con el fin de establecer la formulación de integral de camino de Feynman de la QTNCF [2]
es pertinente tener en cuenta que debido a que Φ y Φ+ son campos que no conmutan a tiempos
iguales no es posible construir una base de autoestados de ambos operadores. Sin embargo,
sí es posible construir una base de autoestados de los operadores Π y Π+ de la imagen de
Heissenberg:
277
Simposio de Física de Altas Energías y Física Teórica
P ^t, xh r ^ xh, t = r ^ xh r ^ xh, t
P + ^t, xh r ^ xh, t = r + ^ xh r ^ xh, t
(3)
Así, repitiendo cuidadosamente la deducción estándar [3], se llega a la formulación de
integral de camino de la teoría no canónica:
# 7d{A exp i >{ ) >- 1 +2 itj2t + d 2 - m 2H {H
2
0, t " 3 0, t " - 3 =
La presencia del inverso de una derivada temporal en la acción no es debida a una nolocalidad temporal de la teoría, de hecho la teoría obedece una ecuación del movimiento
de segundo orden, sino un reflejo de estarla expresando en variables que no son canónicas.
A partir de la expresión podemos hallar el valor esperado en el vacío del producto de dos
campos ordenados temporalmente, reproduciendo el resultado obtenido en [1] a partir del
formalismo algebraico de operadores creación y aniquilación.
A partir de un cambio de variables podemos relacionar los modos φ(k) con k0 = ≥ υ-1 con los
de un campo escalar χ(k) de una teoría relativista. De esta forma, introduciendo un término de
interacción (χ* χ)2 encontraremos una forma de expresar las funciones de n-puntos completamente conectadas de la teoría del campo no canónico en interacción a partir de las relativistas,
probando así la renormalizabilidad perturbativa de la teoría [2].
Sin embargo, dado que hemos introducido la interacción a nivel de los campos χ, no tenemos forma de relacionar las funciones de n-puntos obtenidas a partir de la integral funcional
con valores esperados en el vacío de un producto de operadores cuánticos ordenados temporalmente, no siendo clara la interpretación física de la teoría ni la unitariedad de la matriz S
obtenida a partir de la integral funcional.
Referencias
[1] J. M. Carmona, J. L. Cortés, J. Gamboa, F. Mendez. JHEP 0303:058, 2003.
[2] J. M. Carmona, J. L. Cortés, J. Induráin, D. Mazón. Enviado para su publicación.
[3] S. Weinberg. The Quantum Theory of Fields, Vol 1. Cambridge University Press.
278
XXXII Reunión Bienal de la Real Sociedad Española de Física
Viscosidad sobre entropía y transiciones de fase
A. Dobado, F. J. Llanes-Estrada y Juan M. Torres-Rincon
Departamento de Física Teórica I, Universidad Complutense de Madrid, 28040 Madrid.
En varias ramas de la física se trabaja con la noción de “fluido perfecto”. Un parámetro
físico que determina cómo de perfecto es un gas o un líquido es el número de KSS, igual a la
relación entre la viscosidad de cizalla del fluido y su densidad de entropía, η / S. En base a
una conjetura que relaciona teorías de campo conformes con teorías de gravedad en espacios
AdS [1] se ha propuesto que el número de KSS no puede ser tan pequeño como se quiera,
cumpliendo para cualquier sistema que
h
$ ' ,
s
4 rk B
donde ħ es la constante reducida de Planck y kB es la constante de Boltzmann. Se propone así
la inexistencia de un fluido verdaderamente “perfecto” con entropía finita. Asímismo, en los
últimos años, se ha venido mostrando que para una gran clase de sistemas físicos, este parámetro alcanza su valor mínimo en torno a las posibles transiciones de fase y puntos críticos
del sistema. Por ejemplo, en el caso del agua, η / S alcanza su valor mínimo en la temperatura
de transición de fase líquido-gas. Nuestro estudio pretende determinar si el comportamiento
de η / S es realmente universal y si resulta posible identificar una transición de fase arbitraria
en función de los valores extremos de este parámetro.
Los fluidos usuales como el Argón poseen este valor mínimo en la temperatura de transición de fase (ya sea ésta última de primer orden, de segundo orden (en el punto crítico) o una
transición suave o “crossover”). No hay
una demostración teórica general de este
comportamiento. Para comprenderlo,
calculamos aquí el valor del número de
KSS en el modelo sigma lineal a gran N.
Este modelo describe en buena aproximación la dinámica de más baja energía
de la Cromodinámica Cuántica, en sus
grados de libertad más relevantes, los
piones. El coeficiente de viscosidad de
cizalla es calculado en la aproximación
de Chapman-Enskog para resolver la
ecuación de transporte cuántica linealizada. El diagrama de fases del modelo
se determina con el formalismo de Matsubara a temperatura finita y determinando los extremos del potencial efecti- Figura 1. Viscosidad/entropía en función de la tempevo (al integrar de la teoría los grados de ratura para el modelo sigma lineal a gran N.
libertad de Goldstone) en función de los
parámetros de la misma tales como temperatura, masa del pión y masa renormalizada del Higgs (MR en la Figura 1).
De la teoría de fenómenos críticos dinámicos, sabemos que en el punto crítico del sistema
líquido-gas la viscosidad (y por tanto, el coeficiente de KSS ya que la densidad de entropía se
279
Simposio de Física de Altas Energías y Física Teórica
mantiene finita) diverge como una ley
de potencias en la temperatura:
h c h m T - Tc
s = s 0
Tc
- xh
El exponente crítico xη , 0.042
toma el mismo valor para cualquier
sistema perteneciente al denominado
modelo H (transiciones líquido-gas,
sistemas fluidos binarios, etc). Sin
embargo, esta divergencia no resulta
ser estrictamente “universal” ya que
la viscosidad no diverge en otros modelos, como por ejemplo el modelo F
al que pertenece la transición de fase
superfluida del Helio-4.
Figura 2. Número de KSS para el Helio-4 a baja presión.
A modo de ejemplo representamos
Datos experimentales. La línea discontinua es orientaen la Figura 2 el resultado experimentiva.
tal de la dependencia de η / S (medida
en unidades naturales, ħ = kB = c= 1) en
el Helio-4 en función de la temperatura a una presión externa de 0.01 MPa. Al aumentar T, las
regiones que aparecen se corresponden respectivamente con la fase de He-II (fase superfluida), He-I (fase líquida no superfluida) y Helio-4 gaseoso. Se observa que en torno a cualquiera
de las dos transiciones de fase, η / S alcanza su valor mínimo produciéndose un salto finito,
indicando (como se describe con detalle en [2] y [3]) que se trata de transiciones de fase de
primer orden.
Este comportamiento sorprendente y, al parecer, universal (continuamos trabajando en
la obtención de un resultado general en el marco del formalismo de Ginzburg-Landau y del
grupo de renormalización dinámico) podría servir de observable para determinar los puntos
críticos de un sistema [3] y [4], y en concreto, la localización aproximada de la transición de
fase desde la materia hadrónica a altas temperatura y densidad bariónica hacia el denominado “plasma de quarks y gluones” que se estudiará en un futuro en el experimento ALICE del
CERN y FAIR en Darmstadt.
Agradecemos a la organización de la XXXII Bienal de la Real Sociedad Española de Física
la posibilidad brindada para presentar este trabajo, así como la financiación de los proyectos
FPA 2008-00592/FPA y FIS2008-01323.
Referencias
[1]
[2]
[3]
[4]
280
P. Kovtun, D.T. Son, A. O. Starinets, Phys. Rev. Lett. 94, 111601 (2005).
L. P. Csernai, J. I. Kapusta, L. D. McLerran, Phys. Rev. Lett. 97, 152303 (2006).
A. Dobado, F. J. Llanes-Estrada, J. M. Torres-Rincon, Phys. Rev. D 79, 014002 (2009).
A. Dobado, F. J. Llanes-Estrada, J. M. Torres-Rincon, AIP Conf.Proc. 1116, 421 (2009).
XXXII Reunión Bienal de la Real Sociedad Española de Física
Álgebra de Poincaré de la Cromodinámica Cuántica
María Gómez Rocha, Felipe J. Llanes-Estrada1y Selym Villalba Chávez2
1
2
Departamento de Física Teórica I, Universidad Complutense de Madrid, 28040 Madrid.
Theoretical Physics Department, Karl-Franzens Universität Graz, A8010 Graz Austria.
La Cromodinámica Cuántica (QCD) está bien establecida como la teoría de las interacciones nucleares fuertes. Paradójicamente sin embargo sus predicciones mejor establecidas lo
han sido en regímenes de la Física de Altas Energías donde las interacciones son débiles, y la
teoría de perturbaciones no se puede aplicar para los problemas de mayor interés cuando la
teoría es fuertemente acoplada.
Una alternativa es emplear el método variacional. Para ello es conveniente emplear una
formulación Hamiltoniana en términos de los grados de libertad físicos solamente (quarks y
gluones transversales), lo que se consigue en el gauge de Coulomb. Numerosos estudios se
han dedicado a obtener resultados aproximados en modelos en este contexto [1], y se está
progresando mucho en la comprensión del Hamiltoniano en sí [2].
Sin embargo, la formulación Hamiltoniana presenta el inconveniente de que, aún siendo invariante Lorentz [3], no es manifiestamente covariante, de modo que para emplear las
funciones de onda que resultan de diagonalizar HQCD en otro sistema de referencia, haya que
emplear el operador de Impulso (o Boost) de Lorentz. Estos operadores han sido construídos
para la teoría de Yang-Mills pura [4] y aquí extendemos la construcción al caso de la Cromodinámica cuántica completa incluyendo quarks, y proporcionamos un segundo modo de
construir los operadores, más moderno y basado en la integral de camino.
También examinamos el álgebra de Poincaré en electrodinámica cuántica (QED), tomando
como ejemplo el átomo de Hidrógeno.
Como posible aplicación examinemos el caso del factor de forma elástico electromagnético
para un blanco compuesto como puede ser el pión en QCD o el átomo de Hidrógeno en QED
(siendo el blanco es escalar, debe pensarse en para-Hidrógeno).
Con normalización no relativista, el factor de forma F(q2) viene definido por el elemento
de matriz <p'|Ω†-jOΩ+|p> = 1/2(EE')-1/2 (p+p')μ F(q2), donde aparece la función de onda del blanco en dos sistemas de referencia con velocidad diferente. Ω†- y Ω+ son operadores de Möller.
Tomando p = (M,0), |p> es simplemente dada por la diagonalización del Hamiltoniano, Sin
embargo <p'| requiere el cambio a otro sistema de referencia:
<p'| = <p| e-iKφ
donde φ es la rapidez que proporciona la velocidad del blanco después del impulso,
υ = tanhφ.
Si expandimos en q2 (ó υ2), tomamos como operador de impulso el de Galileo K = Mr, y
enviamos la masa del blanco a infinito, obtenemos el resultado usual para la expansión del
factor de forma en términos de los momentos de la distribución de la carga del blanco
F(q2) = Q + 1/3! q2 <r2> + 1/5! q4 <r4> + ...
Sin embargo, empleando el operador de impulso de Lorentz, sólo el primer momento
coincide con el límite no relativista, F(0) = <p|j0|p>. Los siguientes momentos presentan correcciones debidas a la contracción de Lorentz de la función de onda, a las posibles rotaciones
de Wigner de los espines de los componentes del blanco, su retroceso, y a la creación de
nuevas partículas por el operador de impulso. Por ejemplo, para el radio cuadrático medio,
<p|r2|p> = 6F'(0), obtenemos fácilmente
281
Simposio de Física de Altas Energías y Física Teórica
F'(0) = F(0) / 2M2 + (1/2M2) <p|(Kz)2 Ω† - j0 Ω+|p>
y para la curvatura del factor de forma, que en el caso del pión está siendo objeto de numerosos estudios de actualidad [5], y cuya interpretación no relativista es el radio cuártico medio,
una expresión análoga
F''(0) = (1/12M4) <p|(Kz)4 2 Ω† - j0 Ω+|p> + (7/6M2) F'(0) – (25/48 M4)F(0)/24
que muestra la necesidad de estudiar los elementos de matriz del operador de impulso si las
medidas experimentales del factor de forma han de ser interpretadas en términos de la función de onda del blanco en un contexto relativista.
Por último, desarrollamos las reglas de Feynman necesarias para evaluar estos elementos
de matriz en QED donde la teoría de perturbaciones es válida.
Agradecemos la oportunidad de discutir este tema en la XXXII Bienal de la Real Sociedad
Española de Física, así como financiación de los proyectos FPA 2008-00592/FPA y FIS200801323. María Gómez Rocha presentará el trabajo aquí resumido a la Universidad Complutense de Madrid para la obtención del título de Máster en Física Fundamental.
Referencias
[1]
[2]
[3]
[4]
[5]
282
Ignacio General, Stephen Cotanch y Felipe Llanes-Estrada, EPJC51:347 (2007).
Selym Villalba-Chávez, Reinhard Alkofer y Kai Schwenzer, arXiv:0807.2146.
Julian Schwinger, Phys. Rev. 127: 324-330 (1962).
P. Besting y D. Schütte, Phys. Rev. D42:594-601 (1990).
Feng-Kun Guo et al, arXiv:0812.3270.
XXXII Reunión Bienal de la Real Sociedad Española de Física
Violación de sabor leptónico en modelos de Little Higgs
F. del Águila, J. I. Illana y M. D. Jenkins
Departamento de Física Teórica y del Cosmos, Universidad de Granada.
El modelo estándar de partículas elementales, tal y como está formulado en la actualidad,
sufre de ciertas inconsistencias teóricas que nos obligan a buscar teorías más fundamentales
que resuelvan estos problemas. En el núcleo de estos problemas está el bosón de Higgs, la única pieza del modelo estándar que no se ha observado experimentalmente hasta el momento
cuya detección de espera que sea posible en el nuevo acelerador de partículas LHC (CERN).
Uno de los principales problemas del modelo estándar concierne a la masa del bosón de
Higgs. Mientras que las medidas experimentales actuales parecen indicar que la masa del
Higgs debe ser del orden de la escala electro-débil (aprox. 120-160 GeV), el modelo estándar
predice correcciones cuadráticas a esta masa dependientes de la escala de cutoff del modelo,
esto es, la escala a partir de la cual deja de ser válida la teoría efectiva. Si el modelo estándar
fuera válido hasta la escala de Planck (donde tiene necesariamente que dejar de ser válido ya
que no incluye las interacciones gravitatorios), los parámetros del modelo tendrían que estar
ajustados de forma que se produjeran unas cancelaciones antinaturales para mantener a la
masa del Higgs en la escala electrodébil. Esto, aunque posible, es teóricamente insatisfactorio
y constituye el denominado problema de las Jerarquías.
Las soluciones al problema de las Jerarquías suelen ser reducir el cutoff del modelo estándar e introducir algún tipo de nueva física a la escala del TeV. Existen múltiples modelos
propuestos que permiten resolver problema y se espera que los nuevos experimentos nos
permitan aclarar cuál de ellos es correcto.
Además de las búsquedas directas del Higgs (LHC, LEP2, Tevatron), los modelos de nueva física se pueden contrastar de maneras indirectas calculando, para procesos conocidos, las
diferencias que introducirían estos modelos con respecto al modelo estándar. Un tipo de procesos que se utiliza son los procesos de violación de sabor (en los que hay transiciones entre
distintas familias), los cuales están suprimidos en el modelo estándar. En el sector leptónico,
las violaciones de sabor son extremadamente pequeñas siendo las predicciones de las fracciones de desintegración de procesos como μ → eγ y μ → eee del orden de 10-53-10-54.
En nuestro trabajo tratamos dos modelos de Little Higgs. Los modelos de Little Higgs son
una familia de teorías efectivas que son capaces de elevar el cutoff hasta la escala de 10 TeV
donde habría que completar el modelo con alguna otra teoría. La ventaja de esto es que las
restricciones experimentales sobre nueva física son más leves a esta escala que a la escala del
TeV. Estos modelos consiguen eliminar las correcciones cuadráticas a la masa del Higgs haciendo que éste sea un pseudo-bosón de Goldstone de una nueva simetría global rota. Esto lo
protege de estas correcciones cuadráticas a nivel de 1 loop.
Hay bastante libertad en estos modelos en qué tipo de simetría se introduce y como se reobtiene el modelo estándar a partir de las nuevas simetrías. En nuestro trabajo hemos tratado
el SLH (Simplest Little Higgs) y LHT (Littlest Higgs with T-Parity). El primero pretende introducir el nuevo modelo de la forma más sencilla posible y tiene la desventaja de que permite
mezclas entre el sector ligero y el nuevo sector pesado. Esto puede producir cierta tensión
con los límites experimentales. El segundo modelo introduce un sector pesado más complejo
y una simetría tipo paridad bajo la cual las nuevas partículas son impares y las partículas del
modelo estándar son pares. Esto suprime las mezclas entre el nuevo sector pesado y el sector
ligero y reduce la tensión con las medidas experimentales. Por otra parte, los modelos de Little Higgs introducen nuevas mezclas en el sector leptónico y pueden producir contribuciones
283
Simposio de Física de Altas Energías y Física Teórica
mucho mayores que las del modelo estándar a los procesos μ → eγ y μ → eee a las que serían
sensibles experimentos actuales. Esto permitiría excluir zonas del espacio de parámetros de
estos modelos y comprobar la naturalidad de la teoría.
Nuestro trabajo involucra primeramente obtener todas las reglas de Feynman necesarias
para los procesos en cuestión. Obtenemos por otra parte las contribuciones de los diagramas genéricos a los vértices [VFF] y [FFFF] que necesitamos para μ → eγ y μ → eee. Hay que
notar que las contribuciones dominantes están a nivel de 1-loop ya que a nivel árbol están
prohibidos. Finalmente introducimos las reglas en las expresiones genéricas para obtener las
anchuras finales.
Los resultados indican que para valores naturales de los nuevos parámetros, los dos modelos de Little Higgs requieren un ajuste fino de las nuevas matrices de mezcla para mantenerse dentro de los límites experimentales actuales. Alternativamente, sería posible elevar la
nueva escala pesada hasta cumplir los límites pero esto tampoco es natural. Concluimos por
tanto que los límites actuales sobre procesos de violación de sabor leptónico desfavorecen este
tipo de modelos.
Figura 1. Curvas de nivel de B(μ → eγ) < 1.2 # 10-11 en el plano (δ, sin 2θ) para ỹ = 0.25, 1, 4 (izquierda, centro, derecha) y f = 0.5, 1, 2, 3, 4 TeV (de abajo hacia arriba).
Referencias
[1] F. del Aguila, J.I. Illana, M.D. Jenkins, JHEP 01(2009)080, arXiv:0811.2891v3.
[2] N. Arkani, A.G. Cohen, H. Georgi, Phys. Lett B 513 (2001) 232.
284
Descargar