Forschung

 

Datenanalyse am CMS-Experiment

Teilchen-Kollision im CMS-Detektor Urheberrecht: © 2012 CERN

Das CMS-Experiment ist einer der großen Teilchenphysik-Detektoren am LHC-Beschleuniger des europäischen Forschungszentrums CERN bei Genf. Zusammen mit Forschenden aus mehr als 50 Ländern analysieren wir die riesigen Datenmengen, die mit diesem Detektor aufgenommen werden. Bei den Teilchen-Kollisionen im Zentrum des Detektors entstehen dabei Teilchen mit großen Massen. Ein wichtiges Teilchen ist das Higgs-Boson, das hier 2012 entdeckt wurde. Die Eigenschaften des Higgs-Bosons wollen wir mit hoher Präzision vermessen, um Rückschlüsse auf die grundlegenden Eigenschaften der bereits entdeckten Elementarteilchen und ihrer Wechselwirkung zu ziehen. Dabei gehen wir der Frage nach, ob die Eigenschaften der Elementarteilchen nicht doch von den zur Zeit besten Modellvorstellungen abweichen und wir so neuen Teilchen und Wechselwirkungen auf die Spur kommen können.

Aktuelle Projekte (Auswahl):

  • Differentielle Messungen im Zerfallskanal H → γγ
  • Suche nach seltenen Higgs-Boson-Prozessen (tH, HH) im Zerfallskanal H → γγ

Themen für Abschlussarbeiten (BSc, MSc, Dr.)

 

Deep Learning für die Teilchenphysik

Visualisierung von Deep-Learning-Anwendungen für die Higgs-Boson-Physik Urheberrecht: © Event Display: 2012 CERN

Die Analyse großer Datenmengen erfordert den Einsatz optimierter Algorithmen. Mit Deep Learning ist es möglich, künstliche neuronale Netzwerke auf simulierten oder echten Daten zu trainineren, um komplexe Zusammenhänge in experimentellen Daten abzubilden. Diese neuronalen Netzwerke nutzen wir für vielfältige Anwendungen, zum Beispiel für die Analyse von Higgs-Boson-Ereignissen im CMS-Detektor, um die Präzision in der Datenanalyse zu verbessern. Anwendungsbeispiele sind die Klassifikation der Signaturen von Teilchen im Detektor, die Simulation dieser Teilchensignaturen, die Bestimmung von Teilcheneigenschaften und die Schätzung von Parametern der teilchenphysikalischen Theorie aus den experimentellen Daten.

Aktuelle Projekte (Auswahl):

  • Normalizing Flows für die Korrektur von Simulationen
  • Super-Resolution für Kalorimeter-Bilder

Themen für Abschlussarbeiten (BSc, MSc, Dr.)

 

Datenanalyse für das Einstein-Teleskop

Der erste experimentelle Nachweis von Gravitationswellen im Jahr 2015 hat das Feld der Gravitationswellen-Astronomie eröffnet. Mit dem Einstein-Teleskop ist ein Experiment zur Messung von Gravitationswellen geplant, das die Empfindlichkeit aktueller Detektoren deutlich übertrifft. Durch die viel größere Anzahl an erwarteten Messungen von Gravitationswellen-Signalen steigen auch die Anforderungen an die Datenanalyse. Daher arbeiten wir an Entwicklungen für eine effiziente Vermessung von Gravitationswellen-Signalen mithilfe von Deep Learning.

Aktuelle Projekte:

  • Reduzierung von Gravity-Gradient Noise
  • Bestimmung von Gravitationswellen-Parametern mithilfe von Likelihood-freier Inferenz

Themen für Abschlussarbeiten (BSc, MSc, Dr.)