Está en la página 1de 46

Facultad

de
Ciencias

Estudio de muones desplazados en el LHC


(Study of displaced muons at the LHC)

Trabajo de Fin de Grado


para acceder al

GRADO EN FÍSICA

Autor: Sergio Blanco Fernández

Director: Jónatan Piedra Gómez

Co-Director: Alicia Calderón Tazón

07 - 2020
Resumen

En un futuro cercano, uno de los principales retos de experimentos como CMS será conseguir una
mejora de la calidad de las detecciones de partículas desplazadas del vértice primario para tratar de
encontrar nueva física. En concreto, los muones son candidatos especialmente importantes de estu-
dio. Por esto, se ha realizado un análisis de la reconstrucción de estas partículas cuando se producen
en un vértice secundario, desplazado del punto principal de la colisión de los haces de protones.
Se han utilizado simulaciones de desintegraciones de bosones de Higgs más allá del modelo estándar
de la física de partículas para estudiar dos tipos de reconstrucciones, estándar y desplazadas. De esta
forma, se ha observado que, a pesar de estar mucho más desarrolladas, las reconstrucciones estándar
no generan buenos resultados en los procesos con partículas desplazadas. La eficiencia y la resolución
empeoran en gran medida cuando se aumenta la vida media de las muestras estudiadas.
En cambio, las reconstrucciones desplazadas consiguen una mejora de la eficiencia muy importante
en comparación con las anteriores, aunque en el caso de las trazas displaced standalone lo hacen a
cambio de una resolución en momento transverso demasiado alta.
En resumen, en los próximos años con el aumento de la luminosidad y energía del LHC será necesario
potenciar el desarrollo y la utilización de las reconstrucciones desplazadas para conseguir resultados
eficaces en la búsqueda de nueva física.

Abstract
In the near future, one of the main challenge of experiments as CMS will be to achieve a better
quality in the detection of particles displaced from the primary vertex in order to find new physics.
Specifically, muons are important candidates of study. Thus, it has been made an analysis of the
reconstruction of these particles when they are produced by a second vertex displaced from the first
one.
Simulations of beyond standard model Higgs bosons has been used to study two types of recons-
tructions, standard and displaced. In that way, we have observed that, despite of been much more
developed, the standard reconstruction don’t generate good results in the processes that involve dis-
placed particles. The efficiency and resolution are worse in samples with higger lifetimes.
By contrast, the displaced reconstructions achieve an important raise of the efficiency compared with
the other ones, although in the case of displaced standalone tracks the resolution are too high.
In summary, in the next years more development and employment of the displaced reconstructions
will be need because of the increase of the energy and luminosity in the LHC if we want to get results
in the search of new physics.

2
Índice general

Resumen 2

Introducción 4

1. Modelo estándar de la física de partículas 5


1.1. El comienzo de la física de partículas . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2. El modelo estándar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3. Limites del modelo estándar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.4. Extensiones del modelo estándar y particulas Long-Lived . . . . . . . . . . . . . . . 11

2. Dispositivo experimental 13
2.1. Large Hadron Collider . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. CMS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.2.1. Detector de trazas (Tracker) . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.2. ECAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.2.3. HCAL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.4. Sistema de muones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.2.5. Trigger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.3. HL-LHC y CMS Phase II . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19

3. Adquisición, procesado y análisis de datos 21


3.1. Formatos y procesado previos al análisis . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2. Centros de computación-Tier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3. Reconstrucción de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.3.1. Reconstrucción de muones . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
3.4. Simulación de eventos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

4. Resultados y análisis 28
4.1. Estrategia de análisis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2. Caracterización de las muestras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.3. Resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.1. Eficiencia de reconstrucción . . . . . . . . . . . . . . . . . . . . . . . . . . 33
4.3.2. Resolución en pT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
4.3.3. Masa invariante y búsqueda del bosón de Higgs . . . . . . . . . . . . . . . . 39
4.4. Discusión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42

Conclusión 43

Bibliografía 43

3
Introducción

Nos encontramos en un momento único de la historia de la física. La globalización y la mejora


en las comunicaciones han transformado la manera de hacer ciencia hasta el punto de que ya no
se concibe la idea del científico que trabaja en solitario en su laboratorio. Se han consolidado las
grandes colaboraciones internacionales y, gracias al avance a pasos agigantados de la tecnología, se
han ido sucediendo importantes descubrimientos que hace unas pocas décadas parecían imposibles.
En concreto, la física de partículas ha avanzado enormemente en menos de un siglo, prueba de ello
es el gran triunfo que ha supuesto la confirmación de muchas de las hipótesis del modelo estándar.
La ultima, el bosón de Higgs.
Aun así, todavía queda mucho camino por recorrer. Se prevé que la mejora y la actualización de los
experimentos actuales de física de partículas vengan de la mano de nuevos resultados que cambien
nuestra forma de entender el universo.
En el futuro, el aumento de la energía y la luminosidad de los aceleradores permitirá explorar con
mayor precisión la física del modelo estándar, en concreto el bosón de Higgs, y a la vez producirá
el descubrimiento de nueva física. Varios modelos teóricos que van más allá del modelo estándar,
como la supersimetría o los modelos de materia oscura, postulan la existencia de partículas, aun
desconocidas, que poseen un tiempo de vida largo antes de desintegrarse.
Para detectar partículas con largas vidas medias se deben identificar leptones desplazados del vértice
de colisión en los aceleradores de partículas pero, antes, se debe estudiar la reconstrucción de este tipo
de leptones. Por ello, este trabajo tiene como objetivo proporcionar un análisis sobre la reconstrucción
de muones desplazados del vértice de colisión en el experimento CMS (Compact Muon Solenoid)
utilizando simulaciones que permiten reproducir fielmente las condiciones que se dan en el LHC
(Large Hadron Collider).
El trabajo se ha estructurado en cuatro capítulos. El primero tiene como propósito introducir teórica-
mente el modelo estándar, así como dar un breve contexto teórico e histórico al experimento CMS y
exponer las principales lineas de investigación actuales en el campo de la física de partículas.
El segundo capitulo se centra en el detector de partículas CMS. En él, se realiza una descripción
detallada de todas las partes que lo componen así como su funcionamiento. Seguidamente, el ter-
cer capitulo se focaliza en el tratamiento de los datos, explicando como es la reconstrucción de las
partículas previa al análisis físico.
Por ultimo, el cuarto capitulo contiene el análisis y los resultados. Aquí, se explicará como se ha
llevado a cabo el trabajo, se realizará una caracterización de las muestras que se han analizado y se
presentaran los resultados de la eficiencia y la resolución de los muones desplazados.

4
Capítulo 1

Modelo estándar de la física de partículas

Hoy en día, sabemos que la materia que conforma el universo que conocemos esta compuesta por
partículas elementales como los electrones o los quarks. El modelo estándar es una teoría física
que clasifica estas partículas y sus interacciones fundamentales(fuerte, débil, electromagnética y
gravitatoria)[1]. Este modelo ha sido verificado experimentalmente en multitud de ocasiones con
una precisión extraordinaria, por lo que supone uno de los grandes éxitos de la física moderna.

Para tratar de dar un poco de contexto al momento actual en este campo de la física, en la siguiente
sección se realiza una pequeña introducción histórica sobre la evolución de la física de partículas.
Después, se explicará el modelo estándar y, finalmente, se describirán algunas de las limitaciones
actuales de esta teoría así como algunas hipótesis que extienden los modelos actuales.

1.1. El comienzo de la física de partículas


La historia de la física de partículas podría remontarse a la antigua Grecia, en la que algunos filóso-
fos, sin ningún tipo de evidencia ni nada que se pareciese al método científico, argumentaban que la
materia se constituía por pequeñas piezas indivisibles a las que llamaban átomos. Desde ese momen-
to, la ciencia fue avanzando con mayor o menor dificultad y se desarrollaron la mecánica clásica, la
gravitación, el electromagnetismo, etc.

No fue hasta finales de siglo XIX cuando se produce lo que se podría considerar verdaderamente
el inicio de la física de partículas, el descubrimiento del electrón [2]. Hasta entonces, se pensaba
en el átomo como un ente indivisible, como creían los griegos. El experimento de rayos catódicos
de Thomson no solo demostró la existencia de los electrones como una partícula subatómica sino
que, además, abrió la puerta al futuro estudio del átomo, su estructura y su estrecha relación con la
química.

Entrado el siglo XX, se descubrió la siguiente partícula subatómica, el protón. El famoso experimento
de Rutherford eliminó la idea de Thomson de que el átomo estaba formado por una gran densidad de
carga positiva con electrones incrustados, coloquialmente conocido como el modelo del pan de pasas.
Los resultados de Rutherford indicaban que la mayor parte del átomo debía estar vacío, este factor
unido a la concepción del electrón como un corpúsculo hizo que se imitara el modelo planetario a la
hora de explicar la estructura atómica. [3]

El modelo planetario intentaba explicar el átomo como un sistema solar en el que el sol eran los
protones y los planetas los electrones, de forma que las órbitas se mantenían debido a la atracción
eléctrica entre las cargas opuestas. Este pensamiento no tardó mucho tiempo en abandonarse, ya que
caía en varios errores de planteamiento que no se podían explicar de forma clásica. Por ejemplo, si
los electrones orbitan un núcleo significa que están acelerados, lo que, según las leyes de Maxwell,

5
6 CAPÍTULO 1. MODELO ESTÁNDAR DE LA FÍSICA DE PARTÍCULAS

provocaría la emisión de radiación electromagnética y la posterior perdida de energía hasta preci-


pitarse al núcleo. Únicamente el posterior desarrollo de la mecánica cuántica consiguió explicar de
forma satisfactoria el átomo y su estructura.
Antiguamente, al no disponer de los grandes aceleradores y detectores actuales, la única fuente de
partículas subatómicas aceleradas eran los rayos cósmicos, por lo que los primeros experimentos
consistieron en la detección de partículas procedentes de la interacción de esta radiación al entrar en
la atmósfera. Estos experimentos se realizaban a grandes altitudes y se utilizaban cámaras de niebla
y fuertes campos magnéticos para detectar las trazas de las partículas y clasificarlas [4].
En 1932 se produce el siguiente descubrimiento experimental de una nueva partícula fundamental,
el positrón o antielectrón. En este caso no se trata de una nueva partícula sino la anti-partícula del
electrón.

Figura 1.1: Traza original descubierta por Carl D. Anderson. [5]

Carl D. Anderson descubre una traza en su cámara de niebla que corresponde a una partícula con
masa similar al electrón pero con carga eléctrica positiva [6], en la Figura 1.1 puede verse la fotografía
original. Rápidamente, este hallazgo se asocia con la partícula que predijo Dirac al interpretar las
soluciones con energía negativa de su famosa ecuación [1].
El descubrimiento no solo supone la confirmación de las propuestas de Dirac sino el primer indicio
de la existencia de antimateria.
En adelante, se sucedieron más experimentos con rayos cósmicos, en 1955 ya se habían encontrado
más de 10 nuevas partículas. La primera fue el muon, en 1936. En aquel momento se desconocía
pero, con el tiempo, se fueron estudiando las propiedades de estos corpúsculos y se descubrió que la
gran mayoría de ellos no eran partículas elementales, eran piones, kaones, mesones, etc.
Aun así, el desarrollo completo de este campo vino de la mano de la construcción de los primeros
aceleradores de partículas. Ya en la década de 1920 se trató de diseñar el primer acelerador lineal, sin
embargo, hubo que esperar otros 10 años para conseguir uno funcional. Estos primeros acelerado-
res se utilizaron principalmente para continuar estudios como los de Rutherford sobre la estructura
nuclear, ya que la energía aun era demasiado baja comparada a los rayos cósmicos.
Más adelante, en 1934 en Berkely se construyó el primer ciclotrón, se trataba de una especie de
acelerador con un diseño un poco más cercano a los actuales, ya que se utilizaba un campo magnético
para acelerar protones en dos semicircunferencias. De todas formas, la energía que se consiguió con
este diseño no fue ni mucho menos relativista, era del orden del MeV1 , de tal manera que, como se ha
explicado, la fuente principal de conocimiento seguían siendo los rayos cósmicos. Posteriormente, la
1
El electronvoltio(eV) es la unidad de energía habitual en física de partículas. 1 MeV = 106 eV → 1 eV = 1.602177 ·
10−19 J
CAPÍTULO 1. MODELO ESTÁNDAR DE LA FÍSICA DE PARTÍCULAS 7

tecnología fue evolucionando y, con ella, los aceleradores; de los ciclotrones se pasó a los betatrones
y de los betatrones a los sincrociclotrones.

Estos últimos se pusieron en marcha en la década de


1940, poco después apareció una variante de los mis-
mos, el sincrotrón. Con él, la energía aumentó consi-
derablemente, hasta los 350 MeV, y se comenzaron a
descubrir y clasificar nuevas partículas. [4]

A partir de los años 50 empezaron los grandes pro-


yectos y colaboraciones, que produjeron una nueva
oleada de resultados, como el descubrimiento del an-
tiprotón y el antineutrón en 1954. También en ese año
se fundó el CERN, la Organización Europea para la
Investigación Nuclear que trataba de impulsar la in-
vestigación científica en física de altas energías en
Europa tras la segunda guerra mundial. Figura 1.2: Ciclotrón de Berkeley.

En los años posteriores, la investigación con acele-


radores queda completamente consolidada y se suce-
den los descubrimientos. Cabe destacar el descubrimiento de los quarks y la estructura de los ha-
drones o el descubrimiento del lepton τ entre otros muchos. En los años 70 se descubren tambien el
quark b y se evidencia la existencia de gluones como responsables de las interacciones fuertes. En
esta etapa cobraron gran importancia los aceleradores que se construyen en el SLAC(Standford Na-
cional Accelerator Centre), donde se produjeron algunos de los descubrimientos que se mencionan
anteriormente [7].

Un tiempo después, en 1982 y 1983 se observan en el CERN los portadores de la interacción débil,
los bosones W ± y el boson Z 0 . La fuerza débil es una de las cuatro interacciones fundamentales,
responsable de fenómenos como las desintegraciones nucleares, en la Sección 1.2 se explica con más
detalle que es un bosón y cual es su función en la interacción debil.

Por su importante contribución al descubrimiento de estos bosones, en 1984 se galardona al direc-


tor del CERN, Carlo Rubbia, con el premio Nobel. En 1989 se construye un nuevo acelerador de
partículas en Ginebra, el LEP. Este acelerador de partículas del CERN se construyó para estudiar la
producción de W ± y Z 0 y es el predecesor del LHC (Large Hadron Collider), el acelerador principal
del CERN en la actualidad. Es más, el tunel circular donde se encuentra el LHC es el mismo que
usaba LEP, únicamente se sustituyeron los aceleradores consiguiendo aumentar la energía desde 209
GeV hasta 7 TeV, lo que permite encontrar partículas más pesadas. Más adelante, en la Sección 2.1
se comentarán las características del LHC.

A pesar de las dimensiones del LEP, desde 1983 hasta la puesta en marcha del LHC el acelerador
más potente del mundo fue el Tevatron de Fermilab, en Chicago. Allí se produjeron contribuciones
cruciales para completar el modelo estandar como el descubrimiento del quark top y el neutrino
tauónico [8].

Es necesario destacar en este repaso histórico el último gran descubrimiento de la física de partículas,
el bosón de Higgs, que fue anunciado en el 2012 por los detectores CMS y ATLAS del CERN [9, 10].

Como es evidente, la investigación en este campo ha evolucionado mucho desde el descubrimiento


del electrón. Todos los conocimientos experimentales que se han adquirido a lo largo del siglo pasado
y el principio de este han servido para desarrollar teorías físicas que dieran sentido al comportamiento
de las partículas elementales. Inicialmente, el estudio de las interacciones fundamentales se dividió
en cuatro campos que se corresponden con las fuerzas fundamentales: fuerte, débil, electromagnética
y gravitatoria.
8 CAPÍTULO 1. MODELO ESTÁNDAR DE LA FÍSICA DE PARTÍCULAS

Con el tiempo, las interacciones débil y electromagnética se unificaron en lo que se denomina teoría
electrodébil. Todas ellas, salvo la gravitatoria, están recogidas en el modelo estándar, protagonista de
la siguiente sección.

1.2. El modelo estándar


El modelo estándar de la física de partículas es una teoría científica que clasifica y describe las
partículas fundamentales y sus interacciones. A pesar de algunas limitaciones, que se comentarán
mas adelante, supone uno de los mayores éxitos de la física moderna ya que la concordancia con los
resultados experimentales es extremadamente precisa [11].

En mecánica clásica, la fuerza que sufren dos cuerpos, por ejemplo la fuerza eléctrica, se explica
a través del concepto de campo. La presencia de dos cargas eléctricas modifica las propiedades del
campo electromagnético que las rodea y se genera una fuerza atractiva o repulsiva entre ellas, es fácil
imaginar este proceso visualizando la famosa imagen de limaduras de hierro alrededor de dos polos
cargados, véase la Figura 1.3.

Figura 1.3: Limaduras de hierro alrededor de un imán.

En cambio, el modelo estándar es una teórica cuántica, relativista de campos, cuyas interacciones se
explican mediante la teoría QFT(Quantum Field Theory).

En QFT la fuerza entre dos electrones se entiende mediante el intercambio de partículas virtuales
(bosones), en este ejemplo fotones, las partículas portadoras de la radiación electromagnética. La
creación de partículas virtuales como forma de transmisión de una fuerza a priori parece que viole la
conservación de masa y energía pero está permitido por el principio de incertidumbre [1].

De esta forma, el modelo estándar divide las partículas en dos grandes grupos: fermiones y bosones.
Los fermiones son las partículas que conforman la materia del universo y siguen la estadística de
Fermi. En cambio, los bosones son los portadores de las fuerzas fundamentales y siguen la estadística
de Bose-Einstein. Así, la interacción entre dos o más fermiones se produce mediante el intercambio
de bosones.

A su vez, los fermiones se dividen en quarks y leptones. La diferencia entre estos grupos radica
principalmente en que los quarks están afectados por las fuerzas fuerte, débil y electromagnética
y se unen para formar hadrones, mientras que los leptones solo sufren la interacción débil y elec-
tromagnética. Los bosones se pueden dividir en grupos en función de la interacción de la que son
responsables.

Los leptones también tienen otra subdivisión interna en función del sabor leptónico y su carga eléc-
trica. Existen tres leptones cargados eléctricamente, cada uno con un sabor leptónico, el electrón, el
muón y el tauón. Los neutrinos son leptones neutros y muy ligeros, que únicamente interactúan a
CAPÍTULO 1. MODELO ESTÁNDAR DE LA FÍSICA DE PARTÍCULAS 9

través de la fuerza débil. Hay tres tipos, uno por cada leptón principal, como puede verse en la Figura
1.4.

Además, las partículas del modelo estándar se clasifican en tres familias o generaciones en función
de su masa. En la primera se encuentran el electrón, los quarks up y down y el neutrino electrónico.
En la segunda, el muon, los quarks charm y strange y el neutrino muonico. Por último, la tercer esta
constituida por los quarks top y bottom, el tauón y el neutrino tauónico. Cabe destacar que la única
familia con partículas estables y que forman la materia es la primera. La razón de esta división es
aun un misterio.

La simetría juega un papel muy importante en el modelo estándar ya que cada fuerza se relaciona con
un grupo algebraico de la teoría de grupos que genera los campos. Esto esta íntimamente relacionado
con el teorema de Noether, que afirma que toda simetría en la descripción matemática de un sistema
físico produce la conservación de una magnitud.

Figura 1.4: Modelo estándar de la física de partículas. [14]

La fuerza electromagnética esta mediada por fotones, que tienen masa nula lo que hace que el alcance
de esta fuerza sea infinito. Afecta a todas las partículas con carga eléctrica. La teoría QED(Quantum
Electrodynamics) es la que describe el electromagnetismo en el contexto de la mecánica cuántica de
campos.

La interacción débil es la causa de fenómenos como las desintegraciones nucleares. Puede estar
mediada por tres bosones, W ± o Z 0 y es la única fuerza que afecta a todos los fermiones, pero tiene
un alcance muy limitado, del orden de 10−18 m.

La interacción fuerte es la responsable de la cohesión del núcleo atómico y los hadrones. La partícula
mediadora es el gluon, de masa nula, a pesar de lo cual tiene un alcance limitado a aproximadamente
el radio del núcleo atómico(10−15 m). Al igual que el electromagnetismo afecta únicamente a partí-
culas con carga eléctrica, la interacción fuerte solo afecta a quarks y gluones, ya que son las únicas
partículas con carga de color. El concepto de carga de color se introduce en la teoría QCD (Quan-
tum Chromodynamics), existen tres sabores de carga asociados con los colores RGB (Red, Blue and
Green) de tal manera que los quarks se unen para formar hadrones con carga de color neutra.
10 CAPÍTULO 1. MODELO ESTÁNDAR DE LA FÍSICA DE PARTÍCULAS

Existe un último campo escalar que se encarga de dotar de masa a los fermiones (salvo a los neutri-
nos) y los bosones W ± y Z 0 , este campo está mediado por el bosón de Higgs. El descubrimiento del
bosón de Higgs por los experimentos CMS y ATLAS del CERN es el último gran hallazgo de este
campo ya que supone una nueva confirmación del modelo estándar y la existencia del mecanismo de
Higgs para dotar de masa a las partículas a través de la rotura espontánea de la simetría gauge.
A pesar de que la fuerza gravitatoria es una interacción fundamental, no esta incluida en el modelo
estándar. Es más, hoy en día no existe ninguna teoría cuántica de campos que describa esta interac-
ción.

1.3. Limites del modelo estándar


Como se ha observado en la sección anterior, el modelo estándar es una teorías en el marco de QFT
que consigue explicar las interacciones fundamentales de las partículas. Sin embargo, existen aun
cuestiones por resolver como por ejemplo conseguir una teoría cuántica de la gravedad.
La interacción gravitatoria es extremadamente débil, del orden de 10−37 veces más débil que la
fuerza fuerte. Por ello, la fuerza gravitatoria que sufren las partículas fundamentales a escala atómica
es imperceptible con los detectores actuales y, a menudo, se desprecia. Solo notamos sus efectos a
gran escala, por ejemplo a escala planetaria, porque siempre es atractiva y tiene alcance infinito.
Al igual que con el resto de interacciones, se ha postulado la existencia del gravitón, un bosón tal
que su intercambio resulta en una fuerza gravitatoria, sin embargo, se trata de un mero planteamiento
teórico ya que la posibilidad de una confirmación experimental es muy remota.
Otra de las grandes cuestiones es la materia oscura. Hay muchas observaciones que predicen su
existencia, la primera de ellas fue la rotación de las galaxias. Existe un tipo de galaxias denominadas
galaxias espirales en la que hay un núcleo con una mayor densidad de estrellas y dos o más brazos
espirales alrededor. Al igual que en el sistema solar, el efecto gravitatorio debería hacer que las
estrellas que conforman los brazos espirales, fuera del núcleo, roten respecto del núcleo más masivo
de forma que cuanto mayor sea la distancia desde el centro de la galaxia menor debe ser la velocidad
de rotación [15].
Sin embargo esto no ocurre, las observaciones astronómicas muestran que la velocidad de rotación
no cae con el radio sino que parece más o menos constante. Una solución hasta el momento es
la existencia de un halo de materia rodeando la galaxia que no podemos detectar, la materia oscura.
Además, los cálculos del modelo cosmológico evidencian la existencia de una fracción mucho mayor
de materia que la que podemos observar en el universo, mientras que un 5 % es materia bariónica
se calcula que el 23 % de la materia-energía del universo es materia oscura. Se cree que la materia
oscura puede estar formada por un nuevo tipo de partículas aun no descubierto.
A partir del modelo ΛCDM (Λ-Cold Dark Matter) cosmológico se predice que la materia oscura debe
estar formada por partículas masivas, que interaccionen únicamente de forma débil y, además, posean
una masa del orden del GeV-TeV. Inicialmente se pensó en los neutrinos, muy ligeros y neutros, como
candidatos pero experimentos más recientes [16] ponen como limite superior a su masa 1 eV, por lo
que quedan descartados.
Por otra parte, el hecho de que los neutrinos posean masa supone otro problema. El modelo estándar
predijo inicialmente que los neutrinos no tenían masa pero los experimentos de neutrinos solares,
como el SuperKamiokande[17] o el SNO[18], demostraron la oscilación de sabores leptónicos. Es
decir, en su trayectoria desde el sol a la tierra los neutrinos van cambiando entre neutrinos electróni-
cos, muónicos o tauónicos. Este cambio de sabor solo es posible si los neutrinos tienen masa.
Esto enlaza con otra cuestión abierta en torno a los neutrinos, si son partículas de Dirac o Majorana.
Las partículas de Dirac son aquellas que poseen una antipartícula, como los electrones o los muones,
mientras que las de Majorana son su propia antipartícula. Si los neutrinos fueran partículas de Dirac
CAPÍTULO 1. MODELO ESTÁNDAR DE LA FÍSICA DE PARTÍCULAS 11

el modelo estándar podría explicar de una forma más o menos satisfactoria la adquisición de masa
pero no si se tratan de partículas de Majorana. Aun así, se cree que en ambos casos es necesario
recurrir a extensiones del modelo estándar para dotar de masa a los neutrinos[19].
La simetría en las propiedades de la materia-antimateria es otra incógnita a resolver. Sabemos que
el universo está compuesto de materia pero en sus orígenes las proporciones de materia y antimateria
debían ser similares, por lo que debe existir alguna rotura de simetría que provocara la existencia de
una mayor cantidad de materia durante la evolución del universo.
Finalmente, el hecho de que existan tres generaciones de fermiones en función de su masa y el
gran numero de parámetros libres, en el modelo estándar hay 25 parámetros que deben medirse
experimentalmente, dan pie a la posibilidad de nueva física que permita explicar esta clasificación.

1.4. Extensiones del modelo estándar y particulas Long-Lived


El modelo estándar no es una teoría completamente cerrada, gran parte de los problemas que se
han expuesto en la sección anterior pueden resolverse satisfactoriamente mediante extensiones a
la teoría original, lo que habitualmente se llama teorías BSM (Beyond Standard Model). Existen
muchas teorías de este tipo, algunas de las más extendidas son las teorías supersimétricas o SUSY,
los modelos de materia oscura o las GUT (Grand Unification Theory).
Por ejemplo, la supersimetría consiste en una extensión del modelo estándar que predice la existencia
de un gran número de nuevas partículas aun por descubrir [20]. Estas teorías introducen una nueva
simetría denominada R-parity de forma que los fermiones y bosones del modelo estándar tienen
PR = +1 y a cada una de estas partículas le corresponde una sparticle, partícula supersimétrica, con
PR = −1.

Figura 1.5: Partículas elementales del modelo estándar (izquierda) y superpartners (derecha) de
SUSY. [21]

En el modelo estándar, el campo de Higgs esta formado por un solo doblete escalar complejo. En
cambio, en muchas extensiones del modelo estándar, incluidos algunos modelos supersimétricos, es
necesaria la existencia de más de un doblete que represente el campo de Higgs. Las teorías con dos
dobletes (2HDM) [22] predicen la existencia de más de un boson de Higgs a bajas energías con masas
diferentes de 125 GeV.
Esto se relaciona con el trabajo porque las muestras que se han analizado son simulaciones de BSMH
(Beyond Standard Model Higgs), es decir, desintegraciones de bosones de Higgs más allá del modelo
estándar. Se han elegido estos procesos porque producen partículas con una larga vida media, objeto
de estudio de este análisis.
Una partícula con alta vida media, o Long-Lived particle (LL), es aquella que tarda bastante tiempo
12 CAPÍTULO 1. MODELO ESTÁNDAR DE LA FÍSICA DE PARTÍCULAS

en decaer, recorriendo varios milímetros, incluso centímetros o metros, antes de desintegrarse en


otros corpúsculos.
Su proceso de producción en los aceleradores es muy simple. Producto de la colisión se generan una
inmensa cantidad de partículas que salen despedidas en multitud de direcciones, pueden ser leptones,
fotones, bosones o hadrones. En su mayoría, las partículas que no son elementales tienen una vida
media muy corta y apenas llegan a recorrer un milímetro antes de desintegrarse de nuevo.
Hoy en día se detectan habitualmente partículas con larga vida media en detectores como CMS. Sin
embargo, hasta ahora no se trataban de nueva física sino de piones, kaones u otros hadrones que
suelen desintegrarse en los calorímetros(ver Sección 2.2.2).

Figura 1.6: Esquema de las posibles desintegraciones de partículas con larga vida media en experi-
mentos como CMS.

En cuanto a las partículas LL fuera del modelo estándar, es posible clasificarlas en función del re-
sultado de su desintegración, como puede verse en la Figura 1.6. Si la desintegración se produce a
fotones, puede ser di-fotón o single-fotón. Tambien es posible una desintegración a hadrones, gene-
rando, por ejemplo, piones o jets. Los jets son cascadas de hadrones y otras partículas que se generan
en un proceso denominado hadronización por la propiedad de confinamiento de color, los quarks no
pueden estar libres en la naturaleza.
Otra de las formas más habituales es la desintegración a leptones, como mounes. Puede ser semi-
leptónico, produciendo a la vez un leptón y un hadrón; leptónico, a partir de un par leptón-antileptón,
o flavored leptonic decay, a leptones con diferentes sabores.
En concreto, este trabajo estudia la detección de muones desplazados, por lo que se estudian muestras
que se desintegren por el canal leptónico.
Capítulo 2

Dispositivo experimental

En este trabajo se han analizado datos pertenecientes, exclusivamente, al experimento CMS del
CERN. El capítulo se va a introducir con una descripción del acelerador de partículas LHC y, poste-
riormente, se detallará la estructura y funcionamiento del detector CMS.

2.1. Large Hadron Collider


El LHC (Large Hadron Collider) o, en castellano, gran colisionador de hadrones es un acelerador
de partículas circular situado en Ginebra, Suiza. Fue construido por el CERN y en la actualidad es
el mayor acelerador del mundo, ya que consiste en un anillo de 27 km de longitud construido en el
túnel del antiguo experimento LEP (Large Electron-Positron collider). En el LHC están repartidos
cuatro experimentos principales: ATLAS, CMS, ALICE y LHCb [23].
Los experimentos ATLAS y CMS son detectores gemelos que se encargan de un estudio amplio y
más general de los procesos que ocurren en las colisiones. En cambio, ALICE y LHCb son más
específicos, ALICE investiga colisiones con iones de plomo para estudiar las interacciones nucleares
y LHCb se centra en las propiedades del quark b. Salvo ALICE, el resto de detectores normalmente

funcionan mediante colisiones protón-protón a s = 13 TeV. Esta magnitud es la energía total en el
sistema de referencia de centro de masas de la colisión.
Desde su construcción, el LHC ha ido aumentando su energía y luminosidad haciendo paradas pe-
riódicas de la actividad para llevar a cabo modificaciones y reparar o sustituir las piezas dañadas por

la radiación. Se puso en marcha en 2010 a s = 7 TeV y continuó su actividad hasta el 2012, este
periodo de tiempo se denominó Run 1. Al terminar el Run 1 el LHC consiguió aumentar su energía
a 8 TeV y alcanzó una luminosidad integrada de 25 fb−1 .
La luminosidad instantánea de un acelerador es una magnitud importante que da cuenta de la cantidad
de colisiones que se producen por segundo y cm2 . A mayor luminosidad mayor numero de eventos,
pero también se produce un aumento del ruido. La luminosidad integrada representa la cantidad de
colisiones por unidad de superficie durante un cierto periodo de tiempo, habitualmente cuando se
habla de la luminosidad de un acelerador se refiere a un año o un periodo de actividad concreto.
El pile-up es otra magnitud que se utiliza para caracterizar los aceleradores. Tiene una estrecha
relación con la luminosidad en el sentido que da cuenta del numero de colisiones que se producen
cada vez que se cruzan los haces de protones. Durante el Run 1 el pile-up fue de 20, lo que quiere
decir que se ocurrían 20 sucesos simultáneamente.
Después del Run 1 hubo un periodo de parada de 3 años, hasta 2015. En ese momento comenzó

el Run 2, que alcanzó los s = 13 TeV y una luminosidad integrada total de 137 fb−1 en los
experimentos ATLAS y CMS. Desde el 2018 hasta el presente el LHC ha vuelto a interrumpir su

13
14 CAPÍTULO 2. DISPOSITIVO EXPERIMENTAL

actividad con vistas a que en 2022 comience a funcionar a 13 TeV, con posibilidad de aumentar a 14
TeV, y una luminosidad bastante superior a la anterior, en lo que será el Run 3.
Durante los periodos de actividad, las partículas circulan en haces de unos 109 protones por tubos
enfriados a una temperatura de 1.9 K con un enorme vacío[24]. Estos haces son acelerados por
campos magnéticos generados por imanes superconductores, de forma que los haces, separados unos
de otros por tiempos del orden de los nanosegundos, alcanzan velocidades cercanas a la de la luz y
después son colimados y colisionan en los puntos donde se encuentran los detectores.

Figura 2.1: Sistema de aceleradores del CERN y LHC, donde se encuentran los cuatro detectores
principales.

Como puede verse en la Figura 2.1, el LHC no solo esta compuesto del anillo principal, sino que
utiliza una gran cantidad de aceleradores menores para su puesta en marcha. Los anillos más peque-
ños normalmente son antiguos aceleradores que no son capaces de alcanzar una gran energía, los
protones van pasando de uno a otro según se van acelerando hasta que llegan al anillo principal.

2.2. CMS
El detector CMS (Compact Muon Solenoid) es un detector de partículas cilíndrico que se encuentra
en el acelerador LHC. Es gemelo (no son realmente iguales) del detector ATLAS (A Toroidal LHC
ApparatuS) en el sentido de que estudian los mismos fenómenos y se utilizan para tener dos análisis
comparables de los resultados. Este trabajo, sin embargo, se centra en CMS.
Al igual que ATLAS, tiene varios propósitos de estudio, pero principalmente se construyeron para
obtener resultados experimentales relacionados con el bosón de Higgs y la rotura de simetría electro-
débil. El descubrimiento del bosón de Higgs se anunció en 2012 por estos experimentos [9, 10] pero
no significó el final del proyecto, los estudios aún continúan junto con la búsqueda de nueva física
como podrían ser las partículas supersimétricas.
CMS es un detector cilíndrico de 21.5 m de largo, 14.5 m de diámetro y un peso de 12500 toneladas.
Se diseñó de tal manera que está compuesto por cuatro capas de subdetectores diseñados para detectar
diferentes tipos de partículas elementales. Los subdetectores se van sucediendo desde el eje central,
donde colisionan los haces de protones, hacia el exterior del cilindro. De dentro a fuera son: el
detector de trazas, el calorímetro electromagnético (ECAL), el calorímetro hadrónico (HCAL) y las
cámaras de muones.[25]
CAPÍTULO 2. DISPOSITIVO EXPERIMENTAL 15

Por otra parte, entre el HCAL y las cámaras de muones está situado el imán superconductor, una
bobina hecha de un metal superconductor que debe estar enfriada a temperaturas de 4.5 K y consigue
campos magnéticos en el interior del orden de 4 T. El campo es lo suficientemente potente para que
las trazas de las partículas cargadas que viajan desde el punto de colisión hacia el exterior se curven,
con lo que es posible realizar una medida del momento y la carga eléctrica de la partícula.

Figura 2.2: Esquema interno del detector CMS del CERN [25].

Figura 2.3: Distribución espacial de todas las capas y subdetectores que forman CMS.

Antes de continuar con una descripción más detallada del sistema de detectores de CMS es necesario
revisar el sistema de coordenadas que se utiliza, así como explicar el significado de la magnitud η, la
pseodurrapidez.
La mejor manera de cubrir todo el espacio sería tener un detector esférico, sin embargo, la disposición
del haz de protones hace que esto no sea posible y se recurra a un cilindro compuesto de una parte
central y dos tapas.
Tomando como origen del sistema de coordenadas el centro del detector, el eje z siempre será el eje
16 CAPÍTULO 2. DISPOSITIVO EXPERIMENTAL

que corta las caras circulares de CMS por el centro, con la misma dirección que los haces de protones.
En un sistema cartesiano, el eje x apunta hacia el centro del LHC y, como es lógico, el eje y apunta
hacia la superficie formando 90o con los ejes x y z. También es habitual utilizar coordenadas polares
en las que se utiliza el eje z, el radio r medido desde el origen y el ángulo azimutal φ, que tiene su
origen en el eje x cartesiano. Otra posibilidad, incluyendo el ángulo polar θ, es utilizar coordenadas
esféricas. Este ángulo se mide desde el eje z hacia la sección transversal.

Una variable que aparecerá de forma recurrente en este análisis es la pseudorrapidez. Esta magnitud
se define como η = −ln(tan(θ/2)) y da cuenta de la inclinación de las partículas con respecto al eje
z, de forma que una partícula con η = 0 tiene una dirección perpendicular al eje z mientras que una
con un alto valor es paralela a la dirección del haz.

En las siguientes subsecciones se realiza una descripción de los subdetectores que conforman el
experimento CMS y su función específica.

2.2.1. Detector de trazas (Tracker)


El Tracker es la primera capa que rodea al punto de colisión de los protones, es cilíndrica, con unas
dimensiones de 5.8 m de largo y 2.5 m de diámetro. Está diseñado para detectar trazas de casi todo
tipo de partículas con carga eléctrica y tener una gran resolución espacial y, al mismo tiempo, debe
ser robusto ya que al encontrarse tan cerca de las colisiones recibe una gran cantidad de radiación.

Está dividido en dos partes, una formada por píxeles de silicio, el Pixel Detector y otra formada por
tiras, el Silicon Strip, también de silicio. Esta ultima parte se divide a su vez en un barril y dos tapas.
El barril es la parte central del detector que cubre la zona de |η| < 1 y donde los píxeles se sitúan
rodeando al eje z, mientras que en las tapas los detectores se orientan de forma perpendicular al eje
del haz. Esta distinción puede observarse en la Figura 2.4.

El detector de píxeles es la parte interior del tracker y está constituido por 1440 píxeles de silicio
repartidos entre el barril y las tapas. Por otra parte, el Silicon Strip es la parte exterior, constituida
por 15148 láminas de silicio de diferentes dimensiones.

En cualquier caso, en ambas partes se utilizan detec-


tores de estado solido basados en uniones de semi-
conductores pn, en este caso silicio. El detector fun-
ciona de la siguiente forma, se dopan láminas de si-
licio de dos formas diferentes, una que produzca un
exceso de electrones y otra que produzca huecos y se
unen, haciendo que entre ellas haya una capa neutra
en la que existe una diferencia de potencial. Cuando
una partícula cargada atraviesa el detector, se ionizan
algunos átomos de la parte central, produciendo hue- Figura 2.4: Esquema del tracker en el que se
cos y electrones que se mueven hacia polos contrarios distinguen la parte central y las tapas del de-
y generan una corriente [26]. tector.

2.2.2. ECAL
El calorímetro electromagnético es la siguiente capa por orden ascendente, rodeando al Tracker.
El ECAL se divide en dos partes, el barril y las tapas, compuestas en ambos casos por cristales
ortoédricos de tungstato, P bW O4 , de alta densidad.

El barril esta constituido por 61200 cristales de 230 mm de largo y 26x26 mm2 de sección transversal
en la cara exterior y 22x22 mm2 en la cara interior. En cada tapa hay 7324 cristales de 220 mm de
largo y una sección transversal de 28.6x28.6 y 30x30 mm2 .
CAPÍTULO 2. DISPOSITIVO EXPERIMENTAL 17

Figura 2.5: Centelleador de tungstato usado en el ECAL y una de las tapas del subdetector, en la que
se puede observar la disposición de los cristales [25].

Los cristales actúan como centelleadores y fotodetectores así que son capaces de detectar partículas
cargadas y fotones. El calorímetro esta diseñado de tal forma que este tipo de partículas van perdiendo
energía a medida que atraviesan el subdetector hasta que los electrones y fotones son completamente
absorbidos. Únicamente son capaces de atravesarlo los hadrones (más pesados que los electrones), los
muones y los neutrinos. Estos últimos pueden atravesar fácilmente todas las capas sin ser detectados
ya que solo interaccionan de forma débil y son muy ligeros.
Una de las principales funciones de los calorímetros es medir la energía depositada por las partí-
culas cargadas cuando lo atraviesan, ya que de esta manera es posible distinguir si alguna partícula
detectada por las siguientes estaciones se ha formado en el vértice principal o por la desintegración
de una partícula secundaria en los calorímetros. Esto toma una gran importancia para el siguiente
subdetector porque la desintegración de hadrones habitualmente produce muones que son detectados
por el sistema de muones, la última capa de detectores.

2.2.3. HCAL
El calorímetro hadrónico es el subdetector que se encuentra entre el ECAL y el solenoide super-
conductor. Su objetivo es medir la energía de los hadrones (cargados o neutros) u otras partículas a
medida que se desintegran hasta que son absorbidas, a excepción de los muones, que son capaces de
atravesar esta capa para llegar a las cámaras de muones.
Al igual que el resto de subdetectores, está dividido en dos partes principales: el barril hadrónico (HB)
y las tapas laterales (HE). Está diseñado de tal manera que intercala capas de material absorbente,
en este caso latón, con centelleadores conectados a fibras ópticas. Así, cuando un hadrón atraviesa
el calorímetro se producen colisiones con los núcleos del absorbente desencadenando una cascada
hadrónica. Las partículas producidas en la cascada excitan los átomos de los centelleadores, que
emiten luz al desexcitarse que es recogida por la fibra ópticas.
Además, el HCAL está compuesto de otras dos partes más alejadas del HB y las HE, el HF (Forward
Calorimeter) y el HO (Outer Calorimeter).

2.2.4. Sistema de muones


El sistema de muones es la última capa de detectores de CMS. Una gran cantidad de procesos im-
portantes decaen a leptones, lo que hace que su identificación y una buena medida del momento sea
crucial para el experimento CMS.
Los muones no pierden tanta energía como los electrones por radiación de frenado y no son absorbi-
dos en los calorímetros, lo que hace que mayoritariamente sean estas partículas las que llegan hasta
los detectores exteriores y se pueda conseguir una alta eficiencia en su identificación.
18 CAPÍTULO 2. DISPOSITIVO EXPERIMENTAL

Figura 2.6: Izquierda, distribución espacial de las partes de calorímetro hadrónico. Derecha, Foto-
grafía de una de las tapas del calorímetro (HE) [25].

En su mayoría, la tecnología de detección que se usa en esta parte son detectores gaseosos. Estos
dispositivos consisten en una cámara en la que se encuentra un gas, a menudo un gas noble, junto
con un ánodo y un cátodo separados una cierta distancia. Cuando una partícula atraviesa el gas, este
se ioniza, produciendo un movimiento de cargas hacia los polos que se traduce en una corriente. El
sistema de muones combina tres tipos de detectores gaseosos, cada uno con una función especifica.

Figura 2.7: Esquema de un detector DT del sistema de muones. En este caso el ánodo está formado
por un cable en el centro de la cámara de gas y el cátodo en las paredes. [25]

El barril es la parte central del cilindro (|η| < 1), donde se encuentran los detectores de deriva o DT
(Drift tubes). Estos detectores están repartidos en 4 estaciones con 60 tubos en las 3 primeras y 70
en la última. Las estaciones están numeradas en función de su posición con respecto al centro del
detector. Los DT están compuestos de argón(85 %) y oxígeno(15 %) y se encuentran dispuestos de
tal forma que proporcionen una buena resolución espacial en tres dimensiones.
En las tapas se encuentran los detectores de tiras catódicas o CSC (Cathode Strip Chambers). Hay 4
estaciones de CSCs en cada tapa, orientadas de forma perpendicular al haz de protones para obtener
una buena resolución de la posición de los hits en el plano transversal. Además, la composición del
gas es diferente a la de los DT, 40 % Ar, 50 % CO2 y 10 % CF4 , lo que le confiere una gran rapidez
de respuesta y resistencia a la radiación frente a una ligeramente peor resolución espacial comparada
a los DTs.
El último tipo de detectores que conforma las cámaras de muones son los RPCs (Resistive Plate
Chambers), compuestos por un 95 % de C2 H2 F4 y un 5 % de metilpropano. Como puede verse en la
Figura 2.3, se encuentran tanto en el barril como en las tapas, intercalados a los DTs y CSCs. Debido
a que proporcionan una buena resolución espacial y una respuesta muy rápida, de aproximadamente
1 ns, se utilizan como una fuente de información importante para el Trigger, que se explica en la
siguiente subsección.
CAPÍTULO 2. DISPOSITIVO EXPERIMENTAL 19

2.2.5. Trigger
Como se ha explicado anteriormente, por el LHC circulan haces de 109 protones separados por un
tiempo de 25-50 ns, lo que significa que a una luminosidad de 2 · 1034 cm−2 s−1 se producen 40
colisiones simultáneas por cada paso de los haces de protones, el pile-up. El principal problema de
un pile-up alto se encuentra en la reconstrucción, ya que es necesario distinguir 40 sucesos diferentes
cuyos resultados están mezclados, pero también supone un problema que se deben recopilar datos de
600 millones de colisiones por segundo [27].
La cantidad de información generada supera en gran medida a la que es posible almacenar y procesar,
es necesario un sistema que seleccione los eventos que son interesantes desde un punto de vista físico,
esto es el Trigger [25].
EL proceso de selección está dividido en dos pasos, primero el Level-1 Trigger o L1 y, después, el
High-Level Trigger o HLT. En conjunto, están diseñados para reducir el número de eventos en un
ratio de 105 aproximadamente [28].
El trigger L1 es el primer filtro que se realiza a los eventos. Se trata de un sistema electrónico
complejo que recoge información de dos partes del detector, los calorímetros y el sistema de muones,
y decide qué eventos pasan a la segunda fase, el HLT. En este caso, un conjunto de CPUs tienen
acceso a todos los datos recogidos por CMS y es un software informático el que analiza cada suceso
y decide cuáles con almacenados y cuáles no.

Figura 2.8: Esquema del procesado de datos en el Level-1 trigger [25].

El HLT reconstruye los objetos paso a paso y va aplicando filtros sucesivamente, de forma que si un
evento no pasa uno de los filtros se deja de procesar ese suceso con la finalidad de tener la máxima
velocidad posible de procesado en todo momento.

2.3. HL-LHC y CMS Phase II


El HL-LHC(High Luminosity LHC) es la siguiente mejora proyectada para el acelerador principal
del CERN, en la que se pretende conseguir un aumento muy significativo de la luminosidad. Tras el
periodo actual de parada y mejora de los experimentos se pretende que en 2021 o 2022 comience el
Run 3, en el que se tomarán nuevas medidas a 14 TeV durante tres años aproximadamente.
Pasados esos tres años volverá a repetirse el periodo de parada habitual aunque, en este caso, se
procederá a la instalación del HL-LHC. De esta forma, sobre el 2026 comenzará el Run 4, en el que

la energía se mantendrá a s = 14 TeV pero la luminosidad instantánea aumentará progresivamente
desde valores de 5 · 1034 cm−2 s−1 inicialmente hasta los 7.5 · 1034 cm−2 s−1 al final. Esto supone
aumentar más del triple la luminosidad en la última etapa y alcanzar una luminosidad integrada de
300 f b−1 al año y 3000 f b−1 en total [29].
20 CAPÍTULO 2. DISPOSITIVO EXPERIMENTAL

Figura 2.9: Calendario y estrategia del LHC para el futuro.[29]

El aumento del número de colisiones provocará a su vez un aumento considerable del pile-up, que
pasará del valor actual de 40 a 200 colisiones simultáneas. Para seguir teniendo una buena detección
CMS llevará a cabo una mejora completa para prepararse para la Fase 2.
Una de las partes más importantes a mejorar con el aumento del pile-up es el trigger, ya que el número
de eventos detectados y la radiación serán mucho mayores. Por ello, los detectores de las cámaras de
muones van a reemplazarse por otros que utilizan la tecnología GEM (gas electron multiplier) [30],
una mejora de los detectores gaseosos que proporciona una mayor rapidez y tolerancia a la radiación.
Además, el calorímetro electrónico va a enfriarse a temperaturas aun menores y se van a actualizar
los sistemas electrónicos conectados a los cristales de tungstato y en el calorímetro hadrónico se
sustituirán los fotodiodos por fotomultiplicadores de silicio.
Por otra parte, el Tracker es la parte más cercana al haz de protones por lo que será completamente
remodelado. Se aumentarán sus dimensiones, de forma que su primera capa se sitúe a tan solo unos
centímetros del eje del haz y la última supere el metro de diámetro. También se incluirán más píxeles
para tener una mejor resolución y se reorientarán algunos de forma perpendicular al radio [31].

Figura 2.10: Comparativa de la estructura del tracker en la Fase 1 (izquierda) frente a la mejora
prevista en la Fase 2 (derecha).
Capítulo 3

Adquisición, procesado y análisis de


datos

La complejidad de CMS, tanto por la gran cantidad de subdetectores como por su tamaño y el gran
volumen de datos que recoge en cada colisión hacen necesaria una extensa red de CPUs que sean
capaces de recopilar, procesar y analizar la información de las colisiones en todo momento.
En los siguientes apartados se va a explicar, por una parte cómo es el funcionamiento de la red de
servidores que se utilizan y, por otra, cómo es la evolución de los datos, desde las señales electrónicas
en los detectores hasta la reconstrucción de objetos físicos con los que realizar un análisis.
Después, en la sección 3.3 se describirá el funcionamiento de los algoritmos de reconstrucción e
identificación de muones, ya que son los objetos utilizados en este análisis. Finalmente, se comentará
brevemente la importancia de las simulaciones en CMS.

3.1. Formatos y procesado previos al análisis


Cuando una partícula, por ejemplo un muón, atraviesa el detector CMS va produciendo hits en el
detector de trazas y en las cámaras de muones hasta que atraviesa la última capa. Denominamos hit
(“golpe") a las detecciones individuales que se van produciendo tras el paso del muon, un conjunto
de hits unidos forman la traza de la partícula, su trayectoria. Los algoritmos de reconstrucción se
encargan de diferenciar que hits pertenecen a cada traza.
Estos hits, la información individual de cada píxel, lámina o subdetector es la primera información
que se tiene de un evento, sin embargo, esos datos no son útiles para realizar un análisis de un proceso.
Para poder estudiar una muestra se necesita llevar a cabo un proceso en el que se reconstruyen la
trazas de las partículas a partir de estos puntos y, así, se pueden identificar distintos objetos físicos
(electrones, muones, hadrones, ...).
Durante el procesado y almacenamiento de datos se va pasando por varios formatos digitales [32].
El primer formato es el RAW, que contiene información directa de los detectores una vez se ha
filtrado por el trigger. A partir de este formato se reconstruyen las trazas, los vértices y se identifican
las partículas de cada evento. Tras la reconstrucción estos objetos se guardan en el formato que
llamamos RECO.
El formato RECO puede utilizarse en los análisis pero contiene una cantidad muy elevada de infor-
mación, lo que hace que los ficheros sean demasiado pesados. Esto se debe a que almacena parte de
la información del formato anterior para permitir una posible segunda reconstrucción de las trazas.
Para conseguir ficheros más ligeros se aplican filtrados posteriores de forma que aparece el formato
AOD.

21
22 CAPÍTULO 3. ADQUISICIÓN, PROCESADO Y ANÁLISIS DE DATOS

El AOD es una selección de RECO en la que se guardan los objetos necesarios para realizar el análisis
físico de un evento y las variables calculadas a partir de la reconstrucción de las trazas.
El miniAOD va un paso más allá, es una selección de AOD que almacenan únicamente las clases
indispensables para el análisis. Ofrece la ventaja de ser mucho más ligero que los formatos ante-
riores, en torno a un 10 % del tamaño de un fichero AOD, lo que facilita el análisis. Por contra, la
información que contiene es limitada. Por ejemplo, las reconstrucciones de muones desplazados, que
se comentarán más adelante, no aparecen en miniAOD [33].
Por ultimo, el formato nanoAOD se ha desarrollado con el objetivo de reducir aun más el tamaño de
los ficheros, es en torno a 20 veces más ligero que miniAOD [34].
Para ofrecer una idea de la necesidad de trabajar con formatos cada vez más ligeros, un fichero RAW
ocupa aproximadamente 1Mb y al pasar a RECO sube a 3Mb. Después, el AOD ocupa entre 400-500
kB, miniAOD sobre 35-60 kB y, por último, nanoAOD esta alrededor de 1 kB. Durante el Run 1 solo
se utilizaba el formato AOD y se recogieron del orden de 20 petabytes de datos.

3.2. Centros de computación-Tier


Para poder afrontar el procesado y análisis de la gran cantidad de datos que se generan durante los
periodos de actividad de CMS es necesario dividir el procesado en diferentes etapas, de forma que
son diferentes centros de computación los que se encargan de cada etapa. Estos centros se van a
denominar Tier-0, Tier-1 o Tier-2 en función de la tarea que realicen [35, 36].
Los servidores Tier-0 se encuentran en el CERN, se encargan del primer tratamiento de la informa-
ción de los detectores para producir las muestras en formato RAW y RECO. Una vez almacenadas,
estas muestras son transferidas a los Tier-1, 7 centros de computación ubicados en algunos países co-
laboradores de CMS. Entre otras funciones, los Tier-1 almacenan la colección completa de muestras
en AOD y parte de las RAW y RECO, que pueden ser re-reconstruidas ahí.
Los Tier-2 son los centros de computación más pequeños que pertenecen a las instituciones que
participan en el experimento. Los centros nacionales les proporcionan las muestras para que sean
estos últimos los que se encarguen del análisis final.

Figura 3.1: Esquema que muestra la relación entre centros de computación Tier-0, Tier-1 y Tier-2
[35].

3.3. Reconstrucción de eventos


La reconstrucción de eventos es el proceso por el que se toman los hits y demás datos disponibles
de todos los detectores para calcular y ajustar las trayectorias de las partículas mediante un complejo
algoritmo basado en el Filtro de Kalman [37].
CAPÍTULO 3. ADQUISICIÓN, PROCESADO Y ANÁLISIS DE DATOS 23

En una colisión protón-protón pueden generarse una gran variedad de partículas, sin embargo, casi
todas ellas son inestables, de forma que la gran mayoría de procesos acaban desintegrándose en lep-
tones, fotones o unos pocos hadrones que son detectados por CMS. Por ello, se necesita un algoritmo
que sea capaz de distinguir e identificar las trayectorias de estas partículas. En la Figura 3.2 puede
verse un ejemplo de las trazas que dejan diferentes tipos de partículas.

Figura 3.2: Esquema en el que se muestra un corte transversal de CMS con las trazas de diferentes
partículas.

El software de reconstrucción, llamado CFT(Combinatorial Track Finder), es una parte crucial en


el experimento CMS, por lo que debe tener una alta eficiencia y rapidez. La idea general del fun-
cionamiento es que primero se reconstruyan las trazas de las partículas más fáciles de reconocer,
por ejemplo aquellas con un alto momento. Después, los hits que se han utilizado para las trazas
anteriores se eliminan con lo que se consigue simplificar el calculo de las siguientes.

La reconstrucción de los vértices se hace antes y de forma independiente a la de las trazas, un algo-
ritmo rápido realiza esta tarea utilizando exclusivamente datos del Pixel Detector.

Para reconstruir cada traza se siguen varios pasos[38, 39]. Primero, se hace lo que se denomina Seed
Generation, se toman unos pocos hits del detector central de trazas y se simula una trayectoria. En
este paso se utilizan preferiblemente medidas del Inner tracker, ya que tiene una gran densidad de
píxeles que miden la posición en 3 dimensiones con una mayor precisión que el resto de detectores.

El siguiente paso es el Track finding. En este punto se realiza un ajuste progresivo de la traza me-
diante un algoritmo iterativo de tipo Filtro de Kalman. El software va analizando capa a capa que
hits son compatibles con la trayectoria. Si un hit resulta compatible, esta se actualiza añadiendo la
información proporcionada por el nuevo punto y teniendo en cuenta la cantidad de materia que se ha
atravesado y la energía perdida por ello.

Tras esto se realiza el Track-fitting. Esto consiste en un reajuste completo de la trayectoria tenien-
do en cuenta la incertidumbre de cada hit y las inhomogeneidades del campo magnético. En este
caso se utiliza un propagador Runge-Kutta[38], un método numérico de resolución de ecuaciones
diferenciales, para ajustar la trayectoria de un hit al siguiente.

Por ultimo, se realiza una selección de las trazas reconstruidas eliminando aquellas que no cumplen
ciertos parámetros de calidad como, por ejemplo, tener un número de hits demasiado pequeño o χ2
muy alto. La magnitud χ2 es una variable estadística que se utiliza para medir la calidad de un ajuste.
Los criterios de selección pueden variar dependiendo de lo que se necesite de cara al análisis.
24 CAPÍTULO 3. ADQUISICIÓN, PROCESADO Y ANÁLISIS DE DATOS

3.3.1. Reconstrucción de muones


Los muones son el objeto de estudio en este análisis, por lo que esta sección va a centrarse en la
reconstrucción de las trazas de este tipo de partículas.
Primero, se van a explicar cuáles son los tipos de reconstrucciones que se utilizan normalmente
en CMS, que denominamos estándar. Después, se comentan algunas identificaciones habituales que
se utilizan para hacer selecciones en los análisis con muones y, por último, se introducirán las re-
construcciones de muones desplazados, desarrolladas para el estudio de muones generados por la
desintegración de partículas con largas vidas medias.
Los munoes estándar[40, 41] albergan tres tipos de reconstrucciones en función de la parte del de-
tector que se utilice:
Tracker muons. Se trata de muones cuya traza se reconstruye a partir de hits procedentes del
tracker. Se toma cualquier traza cuyo pT > 0.5 GeV y p > 25 GeV1 y se procede como se
ha explicado en la sección anterior. Para confirmar que se trate de un muón, la trayectoria que
se obtiene se extrapola hasta el sistema de muones y se buscan segmentos cuyos puntos sean
compatibles con la misma basandose en la distancia y el parametro χ2 .
Standalone muons. Los standalone muons son aquellos muones cuya traza ha sido recons-
truida utilizando únicamente los detectores del sistema de muones, la ultima capa del detector
CMS. Por contra a los anteriores, para generar la traza se comienza con algunos puntos de
los DT o CSC y se construye la trayectoria completa a partir de datos de los tres tipos de
detectores(DT, CSC y RPC).
Global muons. Como indica su nombre, este tipo de reconstrucción utiliza ambos detectores,
el tracker y el sistema de muones. En este caso la construcción de la traza se hace buscando
trazas tracker que sean compatibles con cada traza standalone. Una vez que se encuentran dos
trazas compatibles se realiza un reajuste con todos los puntos disponibles y se construye una
nueva trayectoria completa.

Figura 3.3: Imagen de la reconstrucción de las trazas de dos muones atravesando el detector
CMS.[40]

Los muones con un momento transverso muy bajo, pT . 10 GeV, normalmente son absorbidos,
puede ocurrir en los calorímetros, antes de llegar a las últimas capas del sistema de muones por lo
1
Aquí, p representa el momento lineal del muon y pT es su proyección en el plano transverso, xy.
CAPÍTULO 3. ADQUISICIÓN, PROCESADO Y ANÁLISIS DE DATOS 25

que solo dejan algunos hits en las primeras estaciones, lo que hace que la reconstrucción standalone
falle. En ese caso los tracker muon proporcionan una mayor eficiencia.

Esto afecta también a los Global muon, que mejoran en gran medida su resolución cuando aumenta
el momento transverso y se consiguen suficientes hits en las cámaras de muones.

De forma adicional a las reconstrucciones Tracker y Glo-


bal, existen identificaciones [40] que se pueden aplicar pa-
ra mejorar la calidad de las trazas a cambio de una pequeña
pérdida de eficiencia. Estas identificaciones funcionan co-
mo filtros con criterios de selección basados en variables
relacionadas, o no, con la reconstrucción de los muones.

Algunas de estas variables, y otras importantes, son el ais-


lamiento, la magnitud χ2 o el parámetro de impacto entre
otras. El aislamiento, I, se define como la energía deposi-
tada en los calorímetros que provenga del vértice princi-
pal de la colisión
p y que esté dentro de un cono a distan-
cia ∆R = ∆φ + ∆θ2 alrededor de la trayectoria de
2

una partícula. Para calcularla, se suma la energía alrede-


dor del muon, tanto del tracker como de los calorímetros
y se divide por pT para tener una variable independiente Figura 3.4: Dibujo que representa el
del momento del muón. cono que se toma para medir el aisla-
miento de los muones.
El aislamiento se mide en unidades de pT del muon y per-
mite distinguir si ha sido producido mediante la desinte-
gración de una partícula secundaria o un jet. Por otra parte,
el parámetro χ2 es una variable relacionada con la calidad de la reconstrucción de la traza. El paráme-
tro de impacto, dxy o dz , es la distancia más cercana del vértice primario a la trayectoria extrapolada.

A continuación se presentan algunas de las identificaciones más importantes:

Loose muon. Es la identificación menos restrictiva. Únicamente exige que el muón esté aislado,
es decir, que la energía (ET ) depositada en los calorímetros y la suma de todos los momentos
transversos dentro de un cono con ∆R < 0.3 no sea superior al 10 % del pT del muón.

Medium muon. Esta identificación aplica los mismos criterios que los muones Loose, añadien-
do que la traza perteneciente a la parte interior del Tracker debe tener hits en, al menos, el 80 %
de los píxeles que atraviese y la magnitud χ2 debe ser menor que 20.

Soft muon. Solo se aplica a Tracker muons, normalmente para conseguir una alta pureza en
muones con un momento trasverso bajo. Exige, aparte de los criterios Loose, que haya por lo
menos 6 hits en las láminas del tracker interno, uno en los píxeles y una distancia máxima del
parámetro de impacto de |dxy | < 0.3 cm y |dz | < 20 cm respecto al vértice primario.

Tight muon. Tiene restricciones que aseguran que el muón no sea fruto de una desintegración
hadrónico en los calorímetros. Al igual que los Soft muon, exige 6 láminas y un píxel del
tracker como mínimo, pero en este caso la reconstrucción debe ser Global. Adicionalmente,
es necesario que χ2 < 10 y la trayectoria sea compatible con el vértice primario, tal que
dxy < 0.2 cm y dz < 0.5 cm.

High momentum muon. Está especialmente diseñada para muones con un alto momento trans-
verso, pT > 200 GeV. También exige que la reconstrucción sea Global, con 6 hits en las
láminas y uno en los píxeles del tracker. Para tratar de corregir los fallos en la selección cuan-
do los muones pierden energía por radiación de frenado en la estructura metálica que rodea las
cámaras de muones se elimina cualquier requisito relacionado con χ2 . En cambio, se aplica
26 CAPÍTULO 3. ADQUISICIÓN, PROCESADO Y ANÁLISIS DE DATOS

que la resolución mínima del momento transverso sea σ(pT )/pT < 30 %, donde σ(pT ) es la
desviación estándar.
Por otra parte, enlazando de nuevo con el objetivo de este trabajo, se ha estudiado otra colección que
adapta las reconstrucciones estándar a casos en los que los muones se producen por el decaimiento
de una partícula en un vértice secundario alejado del primario. Se trata de la colección displaced,
formada por:
Displaced standalone muon. Al igual que la reconstrucción standalone, utiliza únicamente el
sistema de muones. La diferencia radica en que en este caso no hay ningún tipo de inclusión
del vértice en la traza.
Displaced global muon. Los muones displaced global reconstruyen la traza con información
del Tracker y el sistema de muones al mismo tiempo, igual que su homólogo de la colección
estándar. Pero en este caso tampoco se incluye el vértice en la reconstrucción.

3.4. Simulación de eventos


La generación y estudio de eventos simulados mediante algoritmos de Monte Carlo es una parte
imprescindible del experimento CMS, compartiendo dos objetivos principales. Por una parte, cuan-
do se trabaja con datos reales las simulaciones permiten comparar los resultados obtenidos con las
predicciones teóricas correspondientes. Por otra, las simulaciones teóricas nos permiten estudiar el
comportamiento de los detectores en el futuro, por ejemplo a energías mayores que las actuales o con
nuevos diseños, y en procesos físicos concretos de forma que sea posible establecer una estrategia
de actuación en base a los resultados obtenidos. El objetivo de este trabajo es el segundo, no se ha
trabajado con datos reales.
El método de Monte Carlo consiste en un algoritmo aleatorio que se utiliza habitualmente en compu-
tación para simular procesos probabilísticos. Los programas de simulación de eventos utilizan la
teoría de perturbaciones para hacer cálculos detallados de las secciones eficaces de la colisión y re-
producir las partículas resultantes. La teoría de perturbaciones implica que hay infinitos ordenes de
magnitud que contribuyen a un proceso pero, a menudo, solo es necesario calcular unos pocos ter-
minos. A modo de ejemplo, en las Figuras 3.5 y 3.6 aparecen los diagramas de Feynman de primer y
segundo orden de un fenómeno de scattering electrón-positrón.

Figura 3.5: Ejemplo de diagrama de Feynman de primer orden u orden fundamental.

Figura 3.6: Ejemplo de diagramas de Feynman de segundo orden.


CAPÍTULO 3. ADQUISICIÓN, PROCESADO Y ANÁLISIS DE DATOS 27

En función del número de perturbaciones que se utilicen en los cálculos las simulaciones pueden ser
LO(Leading Order) es el nivel fundamental, n = 0; el siguiente es NLO(next-to-leading-order) y,
sucesivamente, NNLO(next-to-next-to-leading-order) [42, 43].
El paquete de software Pythia [44] es un ejemplo de programa de simulación de eventos completos
por el que, además, fueron generadas las muestras que se utilizan en este trabajo. Estos programas
no solo generan partículas resultantes de la colisión en una muestra similar a la que se obtendría a
partir de una detección, sino que reproducen todas las condiciones necesarias de pile up, luminosidad,
energía de centro de masa, etc.
Una vez que se ha generado un evento debe reproducirse también la detección por CMS. Todas las
propiedades de los detectores, como la geometría, la sensibilidad o la respuesta electrónica, deben
ser incluidas en otro software que garantice una simulación fiel de la detección. Otros paquetes se
encargan de esta tarea, Geant4 [45] es uno de ellos.
Capítulo 4

Resultados y análisis

A lo largo del siguiente capítulo se van a presentar los resultados obtenidos del estudio de muones
desplazados en el experimento CMS basados en simulaciones de Monte Carlo. Primero, se van a in-
troducir algunas variables importantes y se va a explicar brevemente cómo se ha realizado el análisis.
Después, se mostraran gráficas de la vida media de las muestras y las distribuciones en momento y,
por último, se presentarán y discutirán los resultados.

4.1. Estrategia de análisis


Para llevar a cabo este trabajo se ha implementado un código [46] basado en los lenguajes de progra-
mación C++, Python y ROOT que permite abrir ficheros AOD, leer millones de sucesos de distintas
muestras, seleccionar los eventos interesantes para el análisis, emparejar los muones reconstruidos y
generados y calcular una serie de variables relacionadas con los diferentes algoritmos de reconstruc-
ción de la traza. A partir de esto, se han generado histogramas con los resultados obtenidos.
El análisis de datos reales y simulados no se realiza de la misma forma. Como se ha visto ante-
riormente, los ficheros AOD estructuran su información en clases que representan diferentes entes
físicos y almacenan información de los detectores. Por ejemplo, la clase Muon recoge los datos de
todos los muones reconstruidos a partir de hits en el detector. En el caso de simulaciones, además,
hay una clase que almacena toda la información de las partículas generadas (clase GenParticles), es
decir, esta clase guarda los datos de la simulación, qué partículas se han producido, sus trazas, su
carga eléctrica, etc.
De esta forma, para cada partícula se tiene la traza original, que se encuentra en la clase GenParticles,
y otra que puede, o no, reconstruirse a partir de los datos proporcionados por el detector como si de
una detección real se tratase. Así, la estrategia para realizar el análisis de la detección y reconstrucción
en CMS se basa en comparar las trazas reconstruidas con las simuladas.
En concreto, se ha estudiado la eficiencia de reconstrucción de diferentes algoritmos disponibles en
CMS y la resolución del momento asignado con cada algoritmo. En este trabajo, la eficiencia de
reconstrucción se ha definido como el cociente entre el número total de muones reconstruidos y el
número total de muones generados. Aquí, un muón solo se considera reconstruido si su traza coincide
con una simulada.
Para emparejar los muones generados y reconstruidos se calcula una magnitud denominada ∆R. Se
utiliza esta magnitud porque representa la distancia angular entre dos trayectorias y es invariante
Lorentz para partículas sin masa. Se define como:

p
∆R = δφ2 + δη 2 δφ = φreco − φgen δη = ηreco − ηgen (4.1)

28
CAPÍTULO 4. RESULTADOS Y ANÁLISIS 29

Los subíndices reco o gen indican si las magnitudes, como φ, se obtienen a partir de la traza de
muones reconstruidos o por la información almacenada en la clase GenParticles.
Dado que se conoce la trayectoria de cada muón generado, lo que se hace es buscar un muón recons-
truido cuya trayectoria este dentro de un cono de distancia ∆R respecto de él. Así, un valor bajo de
∆R, idealmente 0, implica que las trazas son coincidentes y el muón reconstruido es el mismo que
el generado. Si los muones reco y gen coinciden, se añaden los datos de ese muón a los histogramas.
La selección que se ha aplicado para considerar un par de muones reco-gen ha sido ∆R < 0.3, el
valor habitual que se utiliza en los análisis de muones en CMS.
La resolución se define como:

( pqT )reco − ( pqT )gen


resolución = (4.2)
( pqT )gen

donde q es la carga eléctrica y pT es el momento transverso.


Los vértices primarios son los puntos de colisión de los haces de protones de donde parten los flu-
jos de partículas. Se reconstruyen a partir de datos del Tracker y se utilizan para calcular algunas
variables importantes en el análisis.
Por último, además de las condiciones que impone cada reconstrucción, se ha exigido que todos
los muones del análisis tengan un momento transverso mayor que 10 GeV y una pseudorrapidez
|η| < 2.4. Estas selecciones son muy comunes en los estudios con muones, ya que aquellos con un
momento muy bajo prácticamente no producen hits en el sistema de muones y la geometría de CMS
hace que la reconstrucción empeore a altos valores de la pseudorrapidez.

4.2. Caracterización de las muestras


Como se ha comentado a lo largo de este trabajo, no se han estudiado datos reales sino que se ha
realizado un análisis de simulaciones de partículas desplazadas. Antes de continuar con los resultados
es necesario hacer una descripción de las 3 muestras analizadas.

Figura 4.1: Diagrama de Feynman de la reacción que se simula en las muestras de BSMH.

Las simulaciones se han generado para el Run 2, en concreto para las condiciones de luminosidad,
energía y pile-up de 2016. Esto es, una luminosidad instantánea de 2 · 1034 cm−2 s−1 , una energía de

centro de masas de s = 13 TeV y un pile-up de 20 aproximadamente.
Se trata de simulaciones de BSMH (Beyond Standard Model Higgs). Como se explicó en la Sección
1.4, algunas extensiones del modelo estándar predicen la existencia de más bosones de Higgs con
masas diferentes de 125 GeV [22]. En este caso particular, el modelo predice un bosón de Higgs
con una masa de 400 GeV que se desintegra en dos bosones escalares de 50 GeV de masa que a su
vez se desintegran en leptones, véase la Figura 4.1. En cada muestra los bosones intermedios tienen
30 CAPÍTULO 4. RESULTADOS Y ANÁLISIS

una vida media diferente para poder estudiar de manera apropiada los efectos de un mayor o menor
desplazamiento respecto al vértice primario. En la Figura 4.2 se compara la vida media de las tres
muestras, 4, 40 y 400 mm. A menudo la vida media se expresa como la distancia que recorre la
partícula en ese tiempo, cτ 1 .

Figura 4.2: Histograma, normalizado, que representa el número de partículas generadas en la simu-
lación frente a la distancia radial r desde el vértice primario.

En la siguiente imagen, Figura 4.3, puede verse también cuál es la distribución del momento trans-
verso de los muones generados en todo el conjunto de muestras. Puede verse que la estadística no es
muy elevada a altos valores del momento transverso, la distribución no empieza en 0 debido a que se
exige que sea mayor que 10 GeV.

Figura 4.3: Distribución normalizada del momento transverso de muones generados en el conjunto
de muestras estudiadas.

Anteriormente, en la sección 4.1 se ha comentado la importancia de la magnitud ∆R para comparar


las trazas de las partículas generadas y reconstruidas. Las gráficas de la Figura 4.4 son histogramas,
normalizados, en los que se representa el número de sucesos en función del valor mínimo de ∆R
que se encuentra entre un muón generado y los reconstruidos. Se ve cómo 0.3 es un valor suficiente
para distinguir dos trazas coincidentes ya que la mayor parte de los sucesos se encuentran a valores
menores.
Por último, los nombres completos de las muestras de MC (Monte Carlo) que se han estudiado son:
1
La distancia que recorre una partícula se calcula como la velocidad de la luz, c, multiplicada por su vida media, τ .
CAPÍTULO 4. RESULTADOS Y ANÁLISIS 31

Figura 4.4: Distribuciones en ∆R del conjunto de muestras estudiadas. Cada gráfica corresponde a
un algoritmo de reconstrucción diferente.
32 CAPÍTULO 4. RESULTADOS Y ANÁLISIS

H2ToLLPXToLeptons_MH_400_MX_50_ctau_400mm_TuneCP2_13TeV_pythia8_80X_13082019-
1313
H2ToLLPXToLeptons_MH_400_MX_50_ctau_40mm_TuneCP2_13TeV_pythia8_80X_13082019-
1313
H2ToLLPXToLeptons_MH_400_MX_50_ctau_4mm_TuneCP2_13TeV_pythia8_80X_13082019-
1313
CAPÍTULO 4. RESULTADOS Y ANÁLISIS 33

4.3. Resultados
A continuación se van a presentar los resultados de la eficiencia de reconstrucción, la resolución de
la medida del momento y la masa invariante para las reconstrucciones que se han estudiado.

4.3.1. Eficiencia de reconstrucción


Primero, en la Figura 4.5 es posible ver tres gráficas que muestran la eficiencia en función de la
distancia en el plano transverso xy y en el eje z, respectivamente. Se han representado en función
de los diferentes algoritmos de reconstrucción explicados en la Sección 3.3.1. El comportamiento
de la eficiencia está, en su mayor parte, condicionado por la geometría de los subdetectores. En
concreto, las reconstrucciones tracker, global y displaced global están limitadas por las dimensiones
del Tracker.
Como puede verse, la eficiencia depende de la vida media de las muestras, es decir, del desplaza-
miento de los muones. Esto es así porque al aumentar la vida media aumenta la distancia a la que se
produce el vértice secundario. En la Figura 2.3 se observa que si esta distancia es mayor que unos
pocos centímetros, los muones se generan dentro del Tracker, lo que implica que el número de hits
que dejan a su paso es menor, ya que atraviesa menos capas y, por tanto, su reconstrucción empeora.
Así, los muones con un desplazamiento vxy del orden del tamaño del Tracker apenas dejan hits en
este detector y muchos no son identificados. Este es el motivo de la caída de la eficiencia de los
muones tracker en las gráficas de la Figura 4.5. Los muones global utilizan la reconstrucción de los
tracker y los standalone por lo que su eficiencia está lastrada por la de los Tracker.
Los displaced global mejoran algo el problema de la caída de la eficiencia, pero al utilizar hits del
tracker es imposible que su eficiencia sea mayor que cero a partir del metro de distancia transversal.
En cuanto a los muones standalone, la eficiencia es buena incluso con desplazamientos de algunas
decenas de centímetros. Únicamente cuando la distancia supera los 50 cm, aproximadamente, su
reconstrucción empieza a fallar por culpa de la inclusión del vértice primario en la traza. Los muo-
nes displaced standalone dan una buena solución a este problema, ya que el comportamiento de su
eficiencia es casi plano con respecto al desplazamiento. Por contra, más adelante se verá que la bue-
na eficiencia se obtiene a costa de una mala resolución, ya que el número de hits que utiliza en la
reconstrucción es menor.
Los bajos resultados que se observan en la gráfica de la eficiencia en función de vz correspondiente
a la muestra cτ = 400 mm se deben, precisamente, a que aunque se represente la distancia en el eje
z los muones también tienen un gran desplazamiento en vxy , lo que empeora la reconstrucción. Esto
puede comprobarse en la Figura 4.6, donde se representan en una gráfica en dos dimensiones vxy y
vz conjuntamente.
En la Figura 4.7 se recoge el resultado conjunto para las tres muestras de la eficiencia en función del
desplazamiento.
34 CAPÍTULO 4. RESULTADOS Y ANÁLISIS

Figura 4.5: Eficiencia en la reconstrucción en función de la distancia vxy y vz . De arriba a abajo,


cτ = 4 mm, cτ = 40 mm, cτ = 400 mm.
CAPÍTULO 4. RESULTADOS Y ANÁLISIS 35

Figura 4.6: Eficiencia en la reconstrucción de muones respecto del desplazamiento en xy y en z.


Reconstrucción global, de izquierda a derecha: cτ = 4 mm, cτ = 40 mm, cτ = 400 mm.

Figura 4.7: Eficiencia en la reconstrucción en función de las distancias vxy (izquierda) y vz (derecha).
Resultado de las tres muestras en conjunto.

Las siguientes gráficas, Figura 4.8, representan la eficiencia en función de la pseudorrapidez y el


momento en el plano transverso. Se han representado seis figuras, una por cada muestra. En general,
se observa el mismo fenómeno que en las gráficas anteriores, las que se corresponden con muestras
con desplazamientos mayores tienen una menor eficiencia.
Además, en las figuras que representan la pseudorrapidez se ve cómo el diseño de CMS afecta a la
reconstrucción. La zona de |η| < 1 se corresponde con el barril y la zona 1 < |η| < 2.4 es la zona
de detección de las tapas. Las caídas de la eficiencia ocurren porque hay zonas en las que no hay
detectores, como en la unión de las tapas y el barril.
Por otra parte, en las gráficas del momento transverso se observa que la eficiencia cae bastante para
los muones standalone a pT < 100 GeV en la muestra de cτ = 400 mm. Esto se debe, sobretodo,
a que los muones con una energía muy baja son absorbidos rápidamente y solo dejan hits en las
primeras estaciones del sistema de muones. El motivo por el que no ocurre para los muones displaced
standalone se debe, probablemente, a que la inclusión del vértice hace que falle el ajuste de la traza.
36 CAPÍTULO 4. RESULTADOS Y ANÁLISIS

Figura 4.8: Eficiencia en la reconstrucción en función de la pseudorrapidez (izquierda) y el momento


transverso (derecha). De arriba a abajo, cτ = 4 mm, cτ = 40 mm y cτ = 400 mm.
CAPÍTULO 4. RESULTADOS Y ANÁLISIS 37

4.3.2. Resolución en pT
Se ha comparado la resolución del momento transverso, Ecuación 4.2, que se obtiene para cada tipo
de reconstrucción. Para ello, se han realizado varios histogramas en los que se representa el número
de muones reconstruidos en función de esta variable. Además, en este caso las gráficas se han pintado
en seis intervalos de pT : 10-60, 60-90, 90-130, 130-170, 170-250 y 250-500 GeV.
En este trabajo solo se han presentado gráficas del primer intervalo debido a que el resto no aportan
nuevos resultados y tienen una menor estadística. El resultado de la resolución en momento transver-
so es una curva que posteriormente se ha ajustado a una gaussiana de la que se ha obtenido el valor
medio y la anchura.
En la Figura 4.10 se ha pintado conjuntamente la resolución de todos los tipos de reconstrucciones
estudiados para poder comparar los resultados. Como puede verse, las reconstrucciones tracker y
global tienen una resolución mucho mejor que los standalone y, de la misma forma, los displaced
global superan en gran medida a los displaced standalone, que son los que peor resolución tienen.
Esto puede comprobarse en las gráficas que muestran los resultados del ajuste, los muones standalone
y displaced standalone tienen una anchura muy grande.
La alta resolución de los standalone, desplazados y estándar, se debe precisamente a que solo usan
el sistema de muones. El tracker es el subdetector más granular, es decir, es el que tiene un mayor
numero de detectores individuales por unidad de volumen, lo que le confiere una gran resolución
en la reconstrucción. Por contra, las cámaras de muones están formadas por detectores gaseosos
más voluminosos y no tienen un campo magnético tan homogéneo, ya que se encuentran fuera del
solenoide superconductor.
En términos del desplazamiento, a bajo vxy la reconstrucción displaced global tiene un resultado muy
bueno, ya que la resolución es similar a la de las trazas tracker y global. En cambio, las displaced
standalone tienen una resolución extremadamente pequeña, peor incluso que las standalone.
A medida que aumenta el desplazamiento, fallan las reconstrucciones estándar y parece que los dis-
placed standalone y displaced global mejoren. Realmente, lo que ocurre es que las reconstrucciones
displaced mantienen resultados similares mientras que las resoluciones de las colecciones estándar
empeoran, lo que hace que los displaced sean mejores en comparación.
Para poder comparar la resolución de los muones standalone y displaced standalone, en la Figura 4.9
se han representado las resoluciones para las tres muestras, cτ = 4 mm, cτ = 40 mm y cτ = 400
mm.

Figura 4.9: Resolución en momento para las reconstrucciones standalone (negro) y displaced standa-
lone (amarillo). De izquierda a derecha, cτ = 4 mm, cτ = 40 mm y cτ = 400 mm. Las gráficas se
han representado en tres intervalos de pT .
38 CAPÍTULO 4. RESULTADOS Y ANÁLISIS

Figura 4.10: Resolución en momento transverso de las diferentes reconstrucciones. A la izquierda,


de arriba a abajo: cτ = 4 mm, cτ = 40 mm y cτ = 400 mm. A la derecha, de arriba a abajo:
resolución de todas las muestras conjuntas, valor medio del ajuste gaussiano para cada intervalo de
pT y anchura de la gaussiana para cada intervalo en pT .
CAPÍTULO 4. RESULTADOS Y ANÁLISIS 39

4.3.3. Masa invariante y búsqueda del bosón de Higgs


Para comprobar el resultado de las diferentes reconstrucciones en un análisis con muones desplaza-
dos, se ha representado la masa invariante de los pares de muones. Con ello, se consigue observar la
resonancia que se produce en la masa de 50 GeV del bosón intermedio (H → aa → llll).
Ahora bien, los bosones intermedios no tienen por qué desintegrarse exclusivamente en muones o
puede ocurrir que no se consiga detectar alguno de ellos, lo que provoca que realmente se recons-
truyan 0, 1, 2, 3 ó 4 muones. En la Figura 4.11 se muestra un histograma del número de muones
reconstruidos por cada evento.

Figura 4.11: Número de muones reconstruidos por suceso.

Para los casos en los que el número de muones es cero o uno no es posible calcular la masa invariante
y en los casos con dos muones es simple, ya que solo puede haber una masa invariante.
En cambio, cuando hay tres muones se debe hacer una selección. Se toman las dos combinaciones
muón-antimuón y se calculan las masas invariantes. Después, se elige como correcta la combinación
cuya masa invariante este más cerca de 50 GeV. En el caso con cuatro muones ocurre lo mismo, solo
que hay más combinaciones posibles.
Los resultados de la Figura 4.12 muestran como, al aumentar la vida media de las muestras, empeora
tanto la reconstrucción como el calculo de la masa invariante y, por tanto, la resonancia se observa
peor en el caso de cτ = 400 mm.
Esto mismo se observa en las gráficas de la Figura 4.13, donde se ha representado la masa invariante
en los casos con cuatro muones reconstruidos para tratar de observar la resonancia a 400 GeV. Como
puede verse, la estadística es mucho menor que en los casos con dos muones y se aprecia mucho
mejor como se vuelve más complicado obtener una buena reconstrucción a alto desplazamiento.
40 CAPÍTULO 4. RESULTADOS Y ANÁLISIS

Figura 4.12: Masa invariante de los pares de muones reconstruidos. De arriba a abajo, muestras con
cτ = 4 mm, cτ = 40 mm y cτ = 400 mm. De izquierda a derecha, reconstrucciones tracker,
standalone y global.
CAPÍTULO 4. RESULTADOS Y ANÁLISIS 41

Figura 4.13: Masa invariante en los casos con cuatro de muones reconstruidos. De arriba a abajo,
muestras con cτ = 4 mm, cτ = 40 mm y cτ = 400 mm. De izquierda a derecha, reconstrucciones
tracker, standalone y global.
42 CAPÍTULO 4. RESULTADOS Y ANÁLISIS

4.4. Discusión
Como se ha visto en los resultados presentados en la sección anterior, las reconstrucciones estándar
están completamente desarrolladas para el estudio de muones sin desplazamiento y son menos apro-
piadas para el análisis de muestras con grandes desplazamientos. Prueba de ello es que la eficiencia
de los muones estándar superan el 95 % para distancias de vxy < 1 cm.
También se puede afirmar que la reconstrucción displaced global proporciona una buena eficiencia de
reconstrucción y resolución de momento transverso en comparación a las reconstrucciones estándar.
A bajo desplazamiento, iguala los resultados de los muones tracker y global y, en cuanto aumenta el
desplazamiento más de unos pocos centímetros, las supera en más de un 10 % de eficiencia. Además,
su resolución mantiene un resultado aceptable en todo el rango de pT para los diferentes desplaza-
mientos. Únicamente a distancias vxy ≈ 0.9 m, cerca del limite de detección del tracker, la eficiencia
se reduce considerablemente.
Por otra parte, los displaced standalone no dan buenos resultados a bajo desplazamiento. La inclusión
del vértice primario en la traza hace que los standalone proporcionen una reconstrucción mejor,
con mayor eficiencia y resolución. Pero este mismo motivo hace que a grandes desplazamientos la
eficiencia de la reconstrucción displaced se mantenga plana mientras que la de los standalone cae
progresivamente. Por ello, y por la baja resolución que tienen, los displaced standalone solo son
útiles para reconstrucciones en las que el desplazamiento sea muy grande, del orden de 50 cm.
La colección displaced debe desarrollarse en mayor profundidad para proporcionar valores de efi-
ciencia que sean todavía mayores, ya que se prevé una búsqueda intensiva de partículas con larga
vida media en el futuro. Tal vez la inclusión de identificaciones como las que se pueden aplicar a las
reconstrucciones estándar sean útiles para la investigación en partículas desplazadas.
En cuanto a los resultados proporcionados en la Sección 4.3.3, se ve como la reconstrucción que
mejores resultados proporciona de cara a un análisis de búsqueda de nueva física, como la búsqueda
del higgs, es la reconstrucción global. En el tracker se detectan una gran cantidad de partículas que
no tienen por qué ser muones lo que aumenta la probabilidad de fallo en la identificación y, por ello,
no se observa el pico a 400 GeV. Por otra parte, en los muones standalone se observa la existencia
de la resonancia, pero para mejorar los resultados se requiere utilizar las dos trazas conjuntamente,
tracker y standalone, mediante la reconstrucción global.
Aun así, las actualizaciones que se van a realizar en los detectores de CMS de cara al Phase 2, por
ejemplo un aumento del Tracker, probablemente mejoren los resultados que se han presentado en
este trabajo, consiguiendo una mayor capacidad de detección de partículas desplazadas que la se
tiene actualmente.
Conclusión

Se ha trabajado con datos del experimento CMS y el LHC en condiciones de 2016, a una energía de
13 TeV y una luminosidad de 2 · 1034 cm−2 s−1 . En concreto, se han estudiado las reconstrucciones
de muones desplazados del vértice primario a través de simulaciones de desintegraciones de bosones
de higgs mas allá del modelo estándar.
En relación con los objetivos principales de este trabajo, se ha conseguido realizar una buena carac-
terización de las muestras, se han estudiado las eficiencias y las resoluciones en función de diversos
parámetros, se ha estudiado la masa invariante y se ha logrado obtener una conclusión sobre los
beneficios, y algunas desventajas, de utilizar las reconstrucciones de muones desplazados.
Por un lado, se ha conseguido comprobar que la reconstrucción global es la más indicada de cara a
un análisis de búsqueda de bosones de higgs exóticos.
En otro sentido, actualmente el uso de las reconstrucciones de la colección de muones desplazados
es limitado. Prueba de ello es que esta colección no esta incluida en los formatos miniAOD y pos-
teriores, para utilizarla es necesario hacer el análisis con archivos en AOD. Esto es así porque hasta
ahora solo se han detectado partículas desplazadas dentro del modelo estándar, como los mesones
con quarks b, pero los nuevos modelos teóricos predicen la existencia de partículas con grandes vidas
medias fuera del modelo estándar, lo que hace que sea necesario intensificar la búsqueda y desarrollar
aun más este tipo de reconstrucciones.
De lo contrario, se estará desaprovechando enormemente una vía de investigación que es posible que
proporcione grandes descubrimientos en el futuro que pueden mejorar nuestra forma de entender el
universo.

43
Bibliografía

[1] M. Thomson, Modern particle physics. Cambridge University press, 2013.

[2] J.J. Thomson, “Nobel lecture. nobelprize.org. nobel media ab 2020..”


https://www.nobelprize.org/prizes/physics/1906/thomson/lecture/, Thu. 25 Jun 2020.

[3] G. Maltese, “Particles of man (part i),” Lettera Matematica, vol. 1, 10 2013.

[4] E. M. Henley and S. D. Ellis, 100 Years Of Subatomic Physics. World Scientific Publishing
Company, 2013-06-26.

[5] “Wikipedia, the free encyclopedia: Positron.” https://es.wikipedia.org/wiki/Positron, Fecha de


consulta: 9-06-2020.

[6] Carl D. Anderson, “Nobel lecture. nobelprize.org. nobel media ab 2020..”


https://www.nobelprize.org/prizes/physics/1936/anderson/lecture/, Thu. 25 Jun 2020.

[7] G. Maltese, “Particles of man (part ii),” Lettera Matematica, vol. 1, 03 2014.

[8] G. Maltese, “Particles of man (part iii),” Lettera Matematica, vol. 2, 8 2014.

[9] ATLAS Collaboration, “Observation of a new particle in the search for the standard model
higgs boson with the ATLAS detector at the LHC,” Physics Letters B, vol. 716, no. 1, pp. 1 –
29, 2012.

[10] CMS Collaboration, “Observation of a new boson at a mass of 125 gev with the CMS experi-
ment at the LHC,” Physics Letters B, vol. 716, no. 1, pp. 30 – 61, 2012.

[11] “The standard model.” https://home.cern/science/physics/standard-model, Fecha de consulta:


02-06-2020.

[12] M. T. et al, “Review of particle physics,” Phys. Rev., vol. D98:030001, 2018.

[13] T. W. B. Kibble, “The standard model of particle physics,” 2014.

[14] “Wikipedia, the free encyclopedia: Standard model.” https://en.wikipedia.org/wiki/Standard_Model,


Fecha de consulta: 20-05-2020.

[15] E. M. D. G.-E. Vicent J. Martínez, Joan Antoni Miralles, Astronomía fundamental. Universitat
de València, 2007.

[16] G. Drexlin, V. Hannen, S. Mertens, and C. Weinheimer, “Current direct neutrino mass experi-
ments,” Advances in High Energy Physics, vol. 2013, p. 1–39, 2013.

[17] Super-Kamiokande Collaboration, “Solar 8 b and hep neutrino measurements from 1258 days
of super-kamiokande data,” Phys. Rev. Lett., vol. 86, pp. 5651–5655, Jun 2001.

[18] SNO Collaboration, “Direct evidence for neutrino flavor transformation from neutral-current
interactions in the sudbury neutrino observatory,” Phys. Rev. Lett., vol. 89, p. 011301, Jun 2002.

44
BIBLIOGRAFÍA 45

[19] Y. Kanehata, T. Kobayashi, Y. Konishi, and T. Shimomura, “Constraints from unrealistic va-
cua in the supersymmetric standard model with neutrino mass operators,” Physical Review D,
vol. 82, Oct 2010.

[20] R. Barbier, C. Bérat, M. Besançon, M. Chemtob, A. Deandrea, E. Dudas, P. Fayet, S. Lavignac,


G. Moreau, E. Perez, and et al., “R-parity-violating supersymmetry,” Physics Reports, vol. 420,
p. 1–195, Nov 2005.

[21] “Supersymmetry, taking a closer look at LHC.” https://www.lhc-


closer.es/taking_a_closer_look_at_lhc/0.supersymmetry, Fecha de consulta: 02-06-2020.

[22] G. Branco, P. Ferreira, L. Lavoura, M. Rebelo, M. Sher, and J. P. Silva, “Theory and phenome-
nology of two-higgs-doublet models,” Physics Reports, vol. 516, p. 1–102, Jul 2012.

[23] “The large hadron collider.” https://home.cern/science/accelerators/large-hadron-collider,


Fecha de consulta:16/06/2020.

[24] O. S. Brüning, P. Collier, P. Lebrun, S. Myers, R. Ostojic, J. Poole, and P. Proudlock, LHC
Design Report. CERN Yellow Reports: Monographs, Geneva: CERN, 2004.

[25] The CMS Collaboration, “The CMS experiment at the CERN LHC,” Journal of Instrumenta-
tion, vol. 3, pp. S08004–S08004, aug 2008.

[26] The CMS Collaboration, “Technical proposal for the upgrade of the CMS detector through
2020,” Tech. Rep. CERN-LHCC-2011-006. LHCC-P-004, Jun 2011.

[27] “The large hadron collider: Análisis de datos.” https://www.lhc-


closer.es/taking_a_closer_look_at_lhc/0.lhc_data_analysis, Fecha de consulta:
25/06/2020.

[28] H. Sert, “CMS High Level Trigger Performance in Run 2,” Tech. Rep. CMS-CR-2019-278,
CERN, Geneva, Nov 2019.

[29] The CMS Collaboration, “The Phase-2 Upgrade of the CMS Tracker,” Tech. Rep. CERN-
LHCC-2017-009. CMS-TDR-014, CERN, Geneva, Jun 2017.

[30] F. Sauli, “The gas electron multiplier (gem): Operating principles and applications,” Nuclear
Instruments and Methods in Physics Research Section A: Accelerators, Spectrometers, Detec-
tors and Associated Equipment, vol. 805, pp. 2 – 24, 2016. Special Issue in memory of Glenn
F. Knoll.

[31] S. Mersi, “Phase-2 upgrade of the cms tracker,” Nuclear and Particle Physics Proceedings,
vol. 273-275, pp. 1034 – 1041, 2016. 37th International Conference on High Energy Physics
(ICHEP).

[32] The CMS Collaboration, “Data formats and data tiers, CMS Collaboration Twi-
ki.” https://twiki.cern.ch/twiki/bin/view/CMSPublic/WorkBookDataFormats, Fecha de consul-
ta:21/06/2020.

[33] G. Petrucciani, A. Rizzi, and C. Vuosalo, “Mini-AOD: A new analysis data format for CMS,”
Journal of Physics: Conference Series, vol. 664, p. 072052, dec 2015.

[34] Rizzi, Andrea, Petrucciani, Giovanni, and Peruzzi, Marco, “A further reduction in cms event
data for analysis: the nanoaod format,” EPJ Web Conf., vol. 214, p. 06021, 2019.

[35] The CMS Collaboration, “CMS computing model, CMS Collaboration Twiki.”
https://twiki.cern.ch/twiki/bin/view/CMSPublic/WorkBookComputingModel, Fecha de
consulta:21/06/2020.
46 BIBLIOGRAFÍA

[36] The CMS Collaboration, LHC computing Grid: Technical Design Report. Version 1.06 (20 Jun
2005). Technical Design Report LCG, Geneva: CERN, 2005.
[37] R. Fruehwirth, “Application of kalman filtering to track and vertex fitting,” Nucl. Instrum. Met-
hods Phys. Res., Sect. A.; (Netherlands), vol. 262:2/3, Dec 1987.
[38] The CMS Collaboration, “Description and performance of track and primary-vertex recons-
truction with the CMS tracker,” Journal of Instrumentation, vol. 9, p. P10009–P10009, Oct
2014.
[39] The CMS Collaboration, “Particle-flow reconstruction and global event description with the
CMS detector,” Journal of Instrumentation, vol. 12, p. P10003–P10003, Oct 2017.
[40] The CMS Collaboration, “Performance of the cms muon detector and muon reconstruction with

proton-proton collisions at s = 13 tev,” Journal of Instrumentation, vol. 13, no. 06.
[41] “Muon Reconstruction and Identification Improvements for Run-2 and First Results with 2015
Run Data,” Jul 2015.
[42] S. Banerjee, “CMS simulation software,” Journal of Physics: Conference Series, vol. 396,
p. 022003, dec 2012.
[43] Pedro, Kevin, “Current and future performance of the cms simulation,” EPJ Web Conf., vol. 214,
p. 02036, 2019.
[44] T. Sjöstrand, S. Ask, J. R. Christiansen, R. Corke, N. Desai, P. Ilten, S. Mrenna, S. Prestel, C. O.
Rasmussen, and P. Z. Skands, “An introduction to pythia 8.2,” Computer Physics Communica-
tions, vol. 191, p. 159–177, Jun 2015.
[45] S. Agostinelli et Al., “Geant4-a simulation toolkit,” Nuclear Instruments and Methods in Phy-
sics Research Section A: Accelerators, Spectrometers, Detectors and Associated Equipment,
vol. 506, no. 3, pp. 250 – 303, 2003.
[46] https://github.com/BlancoFS/AnalysisAODphaseII.git.

También podría gustarte