Skip to main content

Lund University Publications

LUND UNIVERSITY LIBRARIES

Searches for New Physics Using Innovative Data Acquisition, Analysis, and Compression Techniques

Ekman, Alexander LU (2024)
Abstract
The high event rate delivered by the Large Hadron Collider (LHC) provides experiments with opportunities for new discoveries as well as challenges related to the large amounts of data recorded. Overcoming this requires innovative techniques in the three topics of this thesis: Data acquisition, data analysis, and data compression.

In the data taking period of 2015-2018, the ATLAS experiment received 10-70 simultaneous proton-proton collision events every 25 ns. At these high event rates, the experiment relies on trigger methods which only process the interesting collision events and keep detector readout and data storage within bandwidth constraints. The Trigger Level Analysis (TLA) presented in this thesis circumvents these... (More)
The high event rate delivered by the Large Hadron Collider (LHC) provides experiments with opportunities for new discoveries as well as challenges related to the large amounts of data recorded. Overcoming this requires innovative techniques in the three topics of this thesis: Data acquisition, data analysis, and data compression.

In the data taking period of 2015-2018, the ATLAS experiment received 10-70 simultaneous proton-proton collision events every 25 ns. At these high event rates, the experiment relies on trigger methods which only process the interesting collision events and keep detector readout and data storage within bandwidth constraints. The Trigger Level Analysis (TLA) presented in this thesis circumvents these bandwidth constraints by using the smaller event objects reconstructed at the trigger level as input to the analysis. The trigger level objects require custom calibration schemes, one of these was developed as part of this thesis to be used in the current and next iterations of the analysis.

The LHC is scheduled to be upgraded to the High Luminosity LHC (HL-LHC) and deliver 200 simultaneous proton-proton collision events. To provide the necessary resolution, readout speed, and radiation hardness, the ATLAS Inner Detector will be upgraded to the new fully silicon-based Inner Tracker (ITk). This thesis presents the work performed in developing, manufacturing, and delivering an automated quality control system for the new detector modules. Quality testing of the detector modules using this system is currently ongoing at multiple international institutes.

The large amount of simultaneous events provided by the HL-LHC will also be challenging for data storage, where the amount of ATLAS generated data is projected to be 5 times larger than the storage resources. As the data are already highly compressed using lossless methods, the work in this thesis presents proof-of-principle studies using machine learning-based methods to derive lossy compression algorithms tailored to a variety of datasets. The tool developed for this purpose is made available as an open-source project called "Baler". (Less)
Abstract (Swedish)
När forskare blickar ut i universum ser de överallt spåren av en stor mängd osynlig massa. Massan finns där men det går inte att se den. Ungefär 80% av all massa i universum beräknas bestå av denna "mörka materia". Det är som att mänskligheten står på stranden och blickar ut över havet utan att veta vad vatten är. I partikelfysik studeras universums minsta beståndsdelar, elementarpartiklarna, för att försöka förstå hur universum fungerar. Under flera år av samarbete mellan teoretiker och experimentalister har det utvecklats en matematisk modell, standardmodellen, för att beskriva hur elementarpartiklar interagerar med de tre fundamentala krafterna: starka, svaga, och elektromagnetiska kraften. Modellen beskriver väldigt väl experimentella... (More)
När forskare blickar ut i universum ser de överallt spåren av en stor mängd osynlig massa. Massan finns där men det går inte att se den. Ungefär 80% av all massa i universum beräknas bestå av denna "mörka materia". Det är som att mänskligheten står på stranden och blickar ut över havet utan att veta vad vatten är. I partikelfysik studeras universums minsta beståndsdelar, elementarpartiklarna, för att försöka förstå hur universum fungerar. Under flera år av samarbete mellan teoretiker och experimentalister har det utvecklats en matematisk modell, standardmodellen, för att beskriva hur elementarpartiklar interagerar med de tre fundamentala krafterna: starka, svaga, och elektromagnetiska kraften. Modellen beskriver väldigt väl experimentella observationer, men precis som mörk materia så finns det mycket kvar som inte beskrivs av standardmodellen.

Tyngdkraften känner vi alla till, modellerna för att beskriva den är väletablerade och vi kan göra väldigt exakta beräkningar. Trots det, och trots standardmodellens förmåga att noggrant beskriva elementarpartiklarna, så går modellerna inte ihop. Tyngdkraften är för svag för att observeras på partiklarnas skala och idag finns ingen beskrivning av tyngdkraften i standardmodellen. Tyngdkraften är inte det enda som saknas, flera observationer så som mörk materia, neutrinomassa, och obalansen mellan materia och anti-materia är alla oförklarade.

Vid CERN utförs världsunik forskning om bland annat elementarpartiklar, anti-materia, och mörk materia. Mycket av denna forskning möjliggörs av världens största partikelaccelerator, Large Hadron Collider (LHC). Den är 27 km i omkrets och byggd 100 meter under jord. Med LHC accelereras vätekärnor (protoner) till nära ljusets hastighet i motsatta riktningar, för att sedan kollideras. I kollisionerna frigörs stora mängder energi och med denna energi kan andra partiklar skapas. Ju fler kollisioner desto högre blir sannolikheten att experimenten observerar sällsynta partiklar och kanske till och med nya partiklar som inte finns i standardmodellen. Med strax över en miljard protonkollisioner i sekunden, lyckades vi år 2012 observera Higgspartikeln. Likväl har mörk materia eller en beskrivning av tyngdkraften i standardmodellen inte hittats.

Med många kollisioner genereras enorma mängder data. De kommande åren kommer LHC experimenten samla in mer än 600 miljoner gigabyte data. Det är samma mängd data som en HD film med en speltid på 20 000 år! För att kunna hantera all denna data så använder ATLAS experimentet ett "trigger" verktyg. Detta verktyg tar smarta beslut och väljer vilka kollisioner som ska sparas och vilka som ska slängas. Med de kollisioner som är kvar kan sedan hela kollisionen efterkonstrueras. För att kunna ta tillvara på kollisioner som annars skulle slängts behövs innovativa analysmetoder. Analysen i denna avhandling använder dataobjekten som triggern skapar. Eftersom dessa objekt är mycket mindre till storleken kan vår analys använda data från många fler kollisioner än andra analyser. Vilket i sin tur ökar chansen att hitta nya partiklar. Metoden kommer dock inte gratis, de mindre objekten behöver flera egna kalibreringar för att korrekt representera vad som faktiskt hände i kollisionen. I mitt arbete har jag utvecklat en av dessa kalibreringar, som kommer användas i såväl den nuvarande som den framtida versionen av denna analys.

För att ytterligare öka chanserna att hitta nya partiklar kommer LHC snart uppgraderas till High Luminosity LHC (HL-LHC). Detta kommer ge sex gånger fler kollisioner i sekunden, vilket är mycket mer än vad nuvarande detektorer klarar av. För att hantera den ökade mängden data och strålning måste detektorerna uppgraderas. Mitt arbete har fokuserat på uppgraderingen av ATLAS detektorn, där jag utvecklade och levererade ett automatiserat kvalitetssäkringssystem för framtida detektorkomponenter. Systemet jag utvecklade används idag för att säkra kvalitén på de komponenter som ska monteras i ATLAS.

Sex gånger fler kollisioner innebär inte bara mer data per sekund, men också mer data som ska förvaras för framtiden, och som det ser ut nu kommer HL-LHC och ATLAS producera fem gånger mer data än vad det kommer finnas plats för. Eftersom datan redan idag är komprimerad krävs det ytterligare innovativa lösningar även inom datakompression för att hantera dessa datamängder. För att utforska nya lösningar på problemet har jag som del av mitt arbete samlat ihop en grupp forskare, ingenjörer och studenter i utvecklingen av ett verktyg, döpt till Baler, för komprimering baserad på artificiell intelligens (AI). Istället för att lägga resurser på att utveckla specifika metoder till varje dataset kan AI hjälpa oss att mycket snabbare och effektivare skapa en specifik komprimeringsmetod till varje dataset. Baler fortsätter att utvecklas för att vidare undersöka hur verktyget kan användas för realtidskomprimering inom framtida experiment, streaming, eller telekommunikation. Verktyget finns också tillgängligt för allmänheten som öppen källkod. (Less)
Please use this url to cite or link to this publication:
author
supervisor
opponent
  • Doctor Aarrestad, Thea, ETH Zurich
organization
alternative title
Sökande efter ny fysik med innvoativ datainsamling, analys, och kompression
publishing date
type
Thesis
publication status
published
subject
keywords
Particle Physics, Large Hadron collider LHC, ATLAS, Automation, Calibration, Analysis, Dark Matter, Machine Learning (ML), Artificial Intelligence (AI), Data Compression, Open-source
pages
152 pages
publisher
Lunds universitet
defense location
Rydbergsalen Join via zoom: https://lu-se.zoom.us/j/65184718387?pwd=dzZzeHVOMjBnSFZ3dU5wVzc2d1A0dz09 password: 20133724
defense date
2024-05-17 13:00:00
ISBN
978­91­8104­013­5
978­91­8104­012­8
language
English
LU publication?
yes
id
90a32a35-fec0-45b5-a82d-574fe532ecde
date added to LUP
2024-04-22 10:41:18
date last changed
2024-05-16 14:51:38
@phdthesis{90a32a35-fec0-45b5-a82d-574fe532ecde,
  abstract     = {{The high event rate delivered by the Large Hadron Collider (LHC) provides experiments with opportunities for new discoveries as well as challenges related to the large amounts of data recorded. Overcoming this requires innovative techniques in the three topics of this thesis: Data acquisition, data analysis, and data compression.<br/><br/>In the data taking period of 2015-2018, the ATLAS experiment received 10-70 simultaneous proton-proton collision events every 25 ns. At these high event rates, the experiment relies on trigger methods which only process the interesting collision events and keep detector readout and data storage within bandwidth constraints. The Trigger Level Analysis (TLA) presented in this thesis circumvents these bandwidth constraints by using the smaller event objects reconstructed at the trigger level as input to the analysis. The trigger level objects require custom calibration schemes, one of these was developed as part of this thesis to be used in the current and next iterations of the analysis.<br/><br/>The LHC is scheduled to be upgraded to the High Luminosity LHC (HL-LHC) and deliver 200 simultaneous proton-proton collision events. To provide the necessary resolution, readout speed, and radiation hardness, the ATLAS Inner Detector will be upgraded to the new fully silicon-based Inner Tracker (ITk). This thesis presents the work performed in developing, manufacturing, and delivering an automated quality control system for the new detector modules. Quality testing of the detector modules using this system is currently ongoing at multiple international institutes.<br/><br/>The large amount of simultaneous events provided by the HL-LHC will also be challenging for data storage, where the amount of ATLAS generated data is projected to be 5 times larger than the storage resources. As the data are already highly compressed using lossless methods, the work in this thesis presents proof-of-principle studies using machine learning-based methods to derive lossy compression algorithms tailored to a variety of datasets. The tool developed for this purpose is made available as an open-source project called "Baler".}},
  author       = {{Ekman, Alexander}},
  isbn         = {{978­91­8104­013­5}},
  keywords     = {{Particle Physics; Large Hadron collider LHC; ATLAS; Automation; Calibration; Analysis; Dark Matter; Machine Learning (ML); Artificial Intelligence (AI); Data Compression; Open-source}},
  language     = {{eng}},
  month        = {{04}},
  publisher    = {{Lunds universitet}},
  school       = {{Lund University}},
  title        = {{Searches for New Physics Using Innovative Data Acquisition, Analysis, and Compression Techniques}},
  url          = {{https://lup.lub.lu.se/search/files/181258034/Alexander_Ekman_PhD_thesis.pdf}},
  year         = {{2024}},
}