Skip to main content

LUP Student Papers

LUND UNIVERSITY LIBRARIES

Tests of Autoencoder Compression of Trigger Jets in the ATLAS Experiment

Wallin, Erik LU (2020) FYSK02 20201
Particle and nuclear physics
Department of Physics
Abstract
Limited data storage capability is a large obstacle for saving data in high energy particle physics. One method of partially circumventing these limitations, is trigger level analysis (TLA) as used by the ATLAS experiment. The efficiency of TLA can be further increased by doing effective data compression.

One class of artificial neural networks are called autoencoders, which may be used for data compression. This thesis further tests the use of autoencoders for compression of TLA data, while showing that it may however be difficult to generalize between different datasets. The processing resources needed to compress TLA data in real time is shown to fit well within the computing constraints available, and that the memory usage is... (More)
Limited data storage capability is a large obstacle for saving data in high energy particle physics. One method of partially circumventing these limitations, is trigger level analysis (TLA) as used by the ATLAS experiment. The efficiency of TLA can be further increased by doing effective data compression.

One class of artificial neural networks are called autoencoders, which may be used for data compression. This thesis further tests the use of autoencoders for compression of TLA data, while showing that it may however be difficult to generalize between different datasets. The processing resources needed to compress TLA data in real time is shown to fit well within the computing constraints available, and that the memory usage is predictable.

The use of different compression techniques used sequentially, by so called float truncation then followed by autoencoder compression is evaluated. It is shown that autoencoders show that same potential to be used on both uncompressed and float truncated data. Compression artifacts from float truncation, called double quantization, are also explained and analytically predicted. (Less)
Popular Abstract (Swedish)
Partikelfysikexperimenten vid "The Large Hadron Collider" i Genéve utforskar de mest grundläggande frågorna i fysiken, genom att mäta resterna av elementärpartiklar som kollideras vid väldigt hög hastighet. En accepterad modell av fundamentala partiklar och deras kopplingar beskrivs idag av standarmodellen, en modell som utan tvekan har stora brister. ATLAS-experimentet vid "The Large Hadron Collider" fortsätter att leta efter ny fysik bortom standardmodellen, i den enorma mängd data som produceras under mätningar av partikelkollisioner.

I partikeldetektorn vid ATLAS-experimentet kan det ske upp till 1.7 miljarder partikelkollisioner varje sekund. Det blir omöjligt att spara alla dessa mätningar, bland annat på grund av den enkla... (More)
Partikelfysikexperimenten vid "The Large Hadron Collider" i Genéve utforskar de mest grundläggande frågorna i fysiken, genom att mäta resterna av elementärpartiklar som kollideras vid väldigt hög hastighet. En accepterad modell av fundamentala partiklar och deras kopplingar beskrivs idag av standarmodellen, en modell som utan tvekan har stora brister. ATLAS-experimentet vid "The Large Hadron Collider" fortsätter att leta efter ny fysik bortom standardmodellen, i den enorma mängd data som produceras under mätningar av partikelkollisioner.

I partikeldetektorn vid ATLAS-experimentet kan det ske upp till 1.7 miljarder partikelkollisioner varje sekund. Det blir omöjligt att spara alla dessa mätningar, bland annat på grund av den enkla anledningen att det inte finns plats nog för att spara all data. De flesta mätningar måste kastas av denna anledning, trots att idealet vore att spara så mycket data som möjligt. Genom datakompression kan man omvandla data till att ta mindre plats, vilket tillåter experimentet att spara mer data(men fortfarande inte allt). Effektiva tekniker för datakompression är en nödvändighet för experiment som ATLAS och utvecklas för att slippa kasta data som kanske innehåller värdefulla mätningar.

Neurala nätverk är en förenklad matematisk representation av neuroner och deras kopplingar, inspirerat av den biologiska hjärnan. Neurala nätverk kan designas och tränas till att utföra komplicerade beräkningar, utan att behöva detaljstyra varje neurons plats och funktion. Därför lämpar sig problem som är svåra att beskriva exakt, till exempel bildigenkänning och översättning, till att lösas av neurala nätverk.

Denna uppsats arbetar med en typ av neural nätverk kallade Autoencoders för att göra datakompression på data från ATLAS-experimentet. Syftet är att använda dessa neurala nätverk för att kunna spara mer mätningsdata från experimentet, så att mindre viktig mätdata behöver slängas. Detta skulle då vara ett steg på vägen för ATLAS-experimentet att förhoppningsvis hitta ny fysik bortom standardmodellen. (Less)
Please use this url to cite or link to this publication:
author
Wallin, Erik LU
supervisor
organization
course
FYSK02 20201
year
type
M2 - Bachelor Degree
subject
language
English
id
9012882
date added to LUP
2020-06-10 10:42:38
date last changed
2020-06-10 10:42:38
@misc{9012882,
  abstract     = {{Limited data storage capability is a large obstacle for saving data in high energy particle physics. One method of partially circumventing these limitations, is trigger level analysis (TLA) as used by the ATLAS experiment. The efficiency of TLA can be further increased by doing effective data compression. 

One class of artificial neural networks are called autoencoders, which may be used for data compression. This thesis further tests the use of autoencoders for compression of TLA data, while showing that it may however be difficult to generalize between different datasets. The processing resources needed to compress TLA data in real time is shown to fit well within the computing constraints available, and that the memory usage is predictable. 

The use of different compression techniques used sequentially, by so called float truncation then followed by autoencoder compression is evaluated. It is shown that autoencoders show that same potential to be used on both uncompressed and float truncated data. Compression artifacts from float truncation, called double quantization, are also explained and analytically predicted.}},
  author       = {{Wallin, Erik}},
  language     = {{eng}},
  note         = {{Student Paper}},
  title        = {{Tests of Autoencoder Compression of Trigger Jets in the ATLAS Experiment}},
  year         = {{2020}},
}