Künstliche Intelligenz hilft beim Rechnen
Forscher versuchen der Datenflut bei ihren Forschungen Herr zu werden.
Was sind die fundamentalen Bausteine der Natur? Wie entstand das Universum und wie hat es sich entwickelt? Diesen grundlegenden Fragen gehen Forscher mit sehr unterschiedlichen Methoden nach. Am Large Hadron Collider (LHC) am CERN in der Schweiz und beim Belle-II-Experiment in Japan etwa suchen sie nach neuen elementaren Ur-Teilchen. Am FAIRBeschleuniger in Darmstadt wollen die Forscher in wenigen Jahren komprimierte Neutronenstern-Materie im Labor herstellen, die Quelle der schweren Elemente im Kosmos.
Am Pierre-Auger-Observatorium in Argentinien erlangen die Forscher durch den Nachweis kosmischer Strahlung Erkenntnisse über astrophysikalische und kosmologische Prozesse.
Trotz unterschiedlicher Methoden und wissenschaftlicher Fragestellungen verbindet die Forscher eine Herausforderung. Die zunehmend höhere Auflösung der Messinstrumente und die Leistungssteigerung der Beschleuniger versprechen zwar neue wissenschaftliche Erkenntnisse, allerdings steigen damit auch die Datenmengen rasant an. Schon jetzt fallen bei den Experimenten am CERN etwa 50 Petabyte Daten jährlich an. Das sind 50 Millionen Gigabyte. Gespeichert würden sie auf zehn Millionen DVDs Platz finden, gestapelt ergäben die DVDs eine Höhe von 13 Kilometern.
„In den kommenden zehn Jahren erwarten wir wegen der Weiterentwicklungen von Detektoren und Beschleunigern eine Zunahme der Datenmengen um den Faktor 50“, sagt Physiker Thomas Kuhr von der Münchner Universität. Neue Entwicklungen in der Speicher- und Prozessortechnologie können dieses Wachstum an Speicherbedarf nie ausgleichen.
Um weiterhin Forschungsdaten analysieren zu können, braucht es daher komplett neue Rechenkonzepte. Um diese zu entwickeln, haben sich Forscher aus der Teilchenphysik, der Hadronen- und Kernphysik sowie der Astroteilchenphysik zu einem fachübergreifenden Verbund zusammengeschlossen.
Innerhalb der nächsten drei Jahre testen sie neue Computing-Systeme. Ein vielversprechender Ansatz ist dabei der Einsatz von Virtualisierungstechnologien, um mehr Ressourcen zu nutzen. Grafikkarten sollen eingesetzt werden, die eine bessere Energieeffizienz versprechen (Green IT). Eine wichtige Säule sehen die Forscher im Einsatz von künstlicher Intelligenz (KI) für BigData-Analysen.