Teilchenphysik mit Quantenlego

Für seine Bewerbung um den KlarText-Preis für Wissenschaftskommunikation 2023 in der Kategorie Physik veranschaulichte Patrick Emonts, was er für seine Promotion erforscht hat.


Viele Probleme in der Teilchenphysik sind zu kompliziert, um sie mit Stift und Papier zu lösen. Nur bestimmte Szenarien können mit aufwendigen Simulationen berechnet werden. Tensornetzwerke, eine Art Quantenlego auf dem Computer, können den Weg für bisher unmögliche Simulationen ebnen.

Sie stehen vor einem Berg von kleinen Kisten mit blinkenden Anzeigen und möchten verstehen, wie die Kisten im Inneren funktionieren; woraus sie aufgebaut sind, um die nächste Anzeige vorhersagen zu können. Doch niemand hat Ihnen den Bauplan gegeben. Und auch das Werkzeug fehlt. Die einzige Untersuchungsmethode: Zerbrechen Sie die Kiste und schauen Sie sich das Innenleben an.

Das klingt nach aufwendiger Detektivarbeit? Ist es, doch genau so funktioniert die Grundlagenforschung in der Teilchenphysik. Niemand kennt den inneren Bauplan der Natur und doch sind wir genau daran interessiert. Das Zerbrechen der metaphorischen Kisten passiert in Wirklichkeit in großen Versuchsanlagen: In riesigen unterirdischen Tunneln prallen Teilchen aufeinander und aus den Bruchstücken nach der Kollision ziehen Physiker Rückschlüsse auf den Aufbau von Materie.

Pro Sekunde erzeugen die Detektoren am Large Hadron Collider in Genf, dem weltweit größten Beschleuniger, ungefähr 1 Petabyte Daten. Das füllt ungefähr 1000 herkömmliche Festplatten pro Sekunde. Die Mammutaufgabe von PhysikerInnen besteht nun darin, die statistische Aussage von mathematischen Theorien und die Daten der Experimente in Einklang zu bringen. Wenn die Theorie erfolgreich den Ausgang des Experiments vorhersagt, dann ist sie ein guter Kandidat für die Beschreibung der Natur.

Illustration von Miss J Art angefertigt. Hier gibt es weitere Einblicke in ihre Arbeit (https://www.instagram.com/missj_art/).

Das Ziel von theoretischen Physikern ist es, neue Theorien aufzustellen und zu simulieren. Leider können nicht alle Theorien ohne weiteres auf Computern simuliert werden. Im Rahmen meiner Promotion habe ich neue Algorithmen für die Simulation von Effekten in der Teilchenphysik entwickelt.

Doch zunächst ein Wort zu den Theorien selbst. Die besten bekannten Theorien, die Natur auf dem Level von Protonen und noch kleineren Teilchen wie Quarks vorhersagen, heißen Eichtheorien. Seit den 1970er Jahren werden solche Theorien mit Gittern angenähert und werden dann Gittereichtheorien genannt. Dabei werden alle Teilchen auf ein Gitter “gepinnt”. Anschaulich entspricht das einem Teilchen auf jedem Feld eines Schachbretts. Jedes Teilchen kann nur noch mit seinen direkten Nachbarn wechselwirken. Dieses vereinfachte System kann deutlich besser auf Computern dargestellt werden.

Illustration von Miss J Art angefertigt. Hier gibt es weitere Einblicke in ihre Arbeit (https://www.instagram.com/missj_art/).

 

Die Simulation solcher Systeme ist dennoch nicht ohne weitere Tricks möglich. Das Mittel der Wahl für die Simulation von Gittereichtheorien sind wahrscheinlichkeitsbasierte Algorithmen, sogenannte Monte-Carlo-Algorithmen. Der Name stammt tatsächlich von den Casinos in Monaco. Ein Beispiel für einen Monte-Carlo-Algorithmus ist die Überprüfung eines gezinkten Würfels: Wenn ein Feld häufiger auftaucht als mit Wahrscheinlichkeit 1/6, dann ist der Würfel manipuliert.

Bei der Auswertung von Eichtheorien nutzen wir Monte-Carlo-Algorithmen, weil eine exakte Berechnung der Ergebnisse selbst auf modernen Supercomputern unmöglich ist. Das Problem dieser Methode: Monte-Carlo-Algorithmen können nur ganz bestimmte Systeme berechnen und niemals die Zeitabhängigkeit eines Systems. Die eigentliche Kollision von zwei Teilchen können wir aktuell also nicht berechnen, nur die Wahrscheinlichkeit bestimmter Ergebnisse.

Diese beiden eher unbefriedigenden Beschränkungen sind nicht durch die Theorie selbst, sondern durch die übliche Beschreibung in der Teilchenphysik gegeben. Daher ein gewagter Gedanke: Was passiert, wenn man Teilchenphysik wie Festkörperphysik angeht? Festkörperphysik beschäftigt sich mit Phänomenen wie Magnetismus und der Struktur von Materialien. Hier sind zeitabhängige Probleme alltäglich und werden im sogenannten Hamilton-Formalismus gelöst.

Die Idee, den Hamilton-Formalismus zu nutzen, ist nicht neu in der Hochenergiephysik; wurde aber in den 1970ern nicht weiter verfolgt, weil die Berechnungen am Computer zu aufwändig sind. Die Monte-Carlo-Algorithmen lieferten die besseren Ergebnisse. Doch ist diese Argumentation auch heute noch korrekt? In den letzten 50 Jahren hat sich in der Physik einiges getan. Alleine in den letzten 20 Jahren haben neue Ansätze die Festkörperphysik revolutioniert: Tensornetzwerke bieten die Möglichkeit, Systeme mit vorher ungekannter Präzision zu beschreiben. Dieses Potenzial haben sie auch für die Teilchenphysik – doch wie überträgt man einen Algorithmus aus der Festkörperphysik?

Illustration von Miss J Art angefertigt. Hier gibt es weitere Einblicke in ihre Arbeit (https://www.instagram.com/missj_art/).

 

Tensornetzwerke beschreiben den Quantenzustand von Materie. Dabei funktionieren sie ein bisschen wie Lego. Sie sind aus vielen kleinen Bausteinen, den sogenannten Tensoren, aufgebaut. Mit Verbindungen zwischen den einzelnen Tensoren wird der Zustand des Systems ausgedrückt. Das Tolle an diesem Ansatz: Das Format von Tensornetzwerken passt ganz genau zu Gittereichtheorien. Jetzt können theoretische Physiker mit Quantenlego spielen und Physik besser simulieren!

Ganz so einfach ist es leider nicht. Physiker haben in den letzten 50 Jahren viel Herzblut in die Entwicklung von effizienten Monte Carlo Algorithmen gesteckt. Das machen auch neue Algorithmen wie Tensornetzwerke nicht direkt wett. Daher fangen wir klein an. Im Fall der Teilchenphysik heißt das, dass wir die Anzahl an Dimensionen reduzieren. Statt der üblichen drei Dimensionen haben Physiker in den vergangenen Jahren sehr erfolgreich eine Dimension mit Tensornetzwerken erforscht. Das System ist also eine Linie: Es gibt nur die Richtungen rechts und links.

Diese Einschränkung macht die Theorie deutlich einfacher. Bei Gittereichtheorien können Teilchen nur mit ihren direkten Nachbarn wechselwirken, also mit direkt angrenzenden Feldern auf dem Schachbrett. Wenn wir statt dem Schachbrett nur eine Linie betrachten, dann sind das nur noch zwei Teilchen. Viel einfacher wird es nicht.

Die Idee meiner Promotion war die Erweiterung von Tensornetzwerken für Gittereichtheorien auf zwei Dimensionen, damit wir den drei Dimensionen, in denen wir leben, ein wenig näher kommen.  Auf den ersten Blick ändert sich nicht viel. Aus zwei Nachbarn werden vier. Das wird wohl nicht zu allzu großen Problemen führen. Leider doch. Denn nicht nur die Anzahl der Nachbarn verändert sich, auch die Theorie selbst! Eine Dimension ist ein besonderer Fall, bei dem die Theorie besonders einfach ist. Sobald man auf dem Gitter Rechtecke formen kann, also ab zwei Dimensionen, gibt es neue Wechselwirkungen, die das System schwieriger, aber auch interessanter machen.

Zusätzlich sind Systeme in zwei Dimensionen schwieriger, da viele vereinfachende Transformationen wegfallen. Anschaulich ist das auf einer Landkarte zu sehen. Auf einer Linie, also einer Dimension, muss man entweder nach links laufen oder nach rechts. Jede Wegbeschreibung ist einfach: Laufen Sie nach rechts (oder links), bis Sie am Ziel ankommen. In einer zweidimensionalen Welt gibt es viele Wege zum Ziel und man kann das Ziel ohne Probleme verfehlen. In der Physik heißt das: Es ist gar nicht mehr so einfach, einen Ansatz aufzuschreiben, der alle Bedingungen der Eichtheorie erfüllt und den Computer trotzdem nicht überfordert.

Meine Lösung des Problems besteht darin, die Tensornetzwerke so einzuschränken, dass sie noch immer die richtigen physikalischen Bedingungen erfüllen, aber trotzdem effizient zu berechnen sind. Der Trick ist die geschickte Verbindung von Monte-Carlo-Algorithmen und Tensornetzwerken. Wir vereinfachen das Tensornetzwerk genau so viel, dass ein Monte-Carlo-Algorithmus schnell viele Möglichkeiten ausprobieren kann. Nach der erfolgreichen Herleitung mit Stift und Papier blieb noch eine Frage offen: Funktioniert diese Idee auch bei der Simulation auf dem Computer?

Nach zwei Jahren analytischer Berechnung und vielen Stunden der Fehlersuche im Computerprogramm war es endlich soweit: Die ersten Ergebnisse lagen auf dem Supercomputer. Der erste Graph erscheint auf dem Bildschirm und … es funktioniert! Die Vereinfachungen waren gerechtfertigt und der Algorithmus zeigt für die zweidimensionale Gittereichtheorie die erwarteten, physikalischen Ergebnisse. In den kommenden Jahren können Tensornetzwerke die Simulation von Hochenergiephysik ergänzen und erstmals zeitabhängige Phänomene simulieren.


Patrick Emonts studierte Physik an der RWTH Aachen und begann im Oktober 2017 seine Promotion am Max-Planck-Institut für Quantenoptik in Garching bei München. Dort spezialisierte er sich auf Tensornetzwerke und deren Anwendung in der Hochenergiephysik. Seit Juli 2022 arbeitet er als Postdoc an der Universität Leiden, Niederlande. Hier beschäftigt er sich mit der Anwendung von Tensornetzwerken in Quantenalgorithmen, Nichtlokalität in der Quantenmechanik und topologischer Datenanalyse.

 

4 Kommentare

  1. i) Aus Neugierde, wer ist der Autor des Artikels?
    ii) Was versteht der Artikel-Autor unter Theorie?
    iii) Interessiert sich der Programmierer für das, was er primär im Sinne der Theoretischen Denkmodell-Physik machen soll, im Hinblick auf ein phänomenologisches Verständnis? Oder setzt er einfach nur nach Vorgaben um?

    Denn,
    streng genommen ist beispielsweise das Standardmodell der Teilchenphysik (SM) mit derzeit 25 freien Parametern, stetiger Nachparametrisierung, wiederholter Substrukturierung, Confinement-These,… ein philosophisches und kein physikalisches Denkmodell.

    John von Neumann, der insbesondere im Hinblick auf die Mathematik, ein Mitbegründer der Quantenmechanik war, hat das spätere “Wunschkonzept des SM” allgemein so kommentiert: “With four parameters I can fit an elephant, and with five I can make him wiggle his trunk.”
    Es ist zwar gängige Praxis auf naive Struktur- und Organisationsmuster des Alltags (Legobausteine) zu verweisen, so wie es im Artikel beschrieben wird, aber es blendet die wirklichen Aufgaben und Problematiken aus. Der Laie lernt so nichts (Relevantes).

    Insbesondere die Theoretische Denkmodellphysik (QED, QCD,…) wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue postulierte Wechselwirkungspostulate und neuen Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«.
    Siehe exemplarisch: Calculating the five-loop QED contribution to the electron anomalous magnetic moment: Graphs without lepton loops veröffentlicht im November 2019, Autor: Dr. Sergey Volkov [Fachgebiete u.a. Kern- und Elementarteilchen-Physik, Relativitätstheorie]
    Da die Ergebnisse von den vom Autor vorgegebenen Anfangsparametern sowie den theoretischen Modellerwartungen im Hinblick auf ergebnisorientierte, experimentelle Werte abhängig sind, stellt sich hier, auch ohne jegliche Kenntnis der Berechnungs-Details, die zentrale Frage, ob der Autor – stellvertretend für alle Autoren dieser Art von “Berechnungen” – nicht realisiert, das die so erzielten Ergebnisse selbstprophetisch sind?

    Um einen Eindruck von der grundsätzlichen Theorie-Problematik der „Strahlungskorrekturen“ in einem historischen Zusammenhang zu bekommen, empfiehlt sich der Beitrag von Mario Bacelar Valente :
    The renormalization of charge and temporality in quantum electrodynamics” …Bei Neugierde als Suchstring eingeben.

    An konkreten Beispielen zeigt Valente auf, wie ergebnisorientierte, teils willkürliche „mathematische Erweiterungen und Umformungen“ in die Berechnungen einfließen und wie „hier und da“ Terme als unphysikalisch erklärt und deren Divergenzen nicht weiter berücksichtigt werden. Das ist höchst problematisch, da keine verbindlich axiomatischen Regeln gelten. Des Weiteren wird deutlich, dass keine physikalischen Interpretationen existieren, die die mathematischen Prozeduren mit phänomenologischen Inhalten “füllen“.

    (Weiteres) Wichtiges zum Verständnis sprengt den Rahmen des Kommentarfeldes und kann exemplarisch unter Physik, Mathematik und Philosophie – Thesen und Realität “weitergelesen” werden…

    • Hallo Herr Freyling,
      vielen Dank für Ihr Interesse an meinem Artikel. Um direkt auf Ihre erste Frage einzugehen: Mein Name ist Patrick Emonts. Eine kurze Zusammenfassung meines akademischen Werdegangs finden Sie am Ende des Artikels.

      Unter einer Theorie verstehe ich im Rahmen des Artikels ein mathematisches
      Modell, das es erlaubt Vorhersagen für Beobachtungen zu berechnen.

      Die Methoden, die im Artikel beschrieben werden, sind hauptsächlich durch physikalische Theorien motiviert. Es ging im Rahmen der Promotion nicht um ein bloßes Umsetzen von Vorgaben, sondern die Entwicklung von (numerischen) Methoden, um bestimmte physikalische Theorien besser zu verstehen.

      Die Nutzung des sprachlichen Bildes “Quantenlego” bezieht sich mehr auf den Ansatz der Tensornetzwerke als auf die Theorie selbst. Wenn Sie an weiteren Details interessiert sind, dann lade ich Sie ein einen Blick in die Veröffentlichungen in Verbindung mit meiner Promotion zu werfen (im gleichen Journal wie der von Ihnen zitierte Artikel zu QED).

      Viele Grüße
      Patrick Emonts

  2. Guten Tag Herr Emonts,
    danke für Ihre Antworten.
    Bezüglich Ihres Hinweises auf Ihre Arbeiten: Die der Programmierung zugrundeliegende Mathematik und die Algorithmen als solche sehe ich weitestgehend als unproblematisch an. Interessant und kontrovers sind die den Programmierungen zu Grunde liegenden modelltheoretischen Physikansätze.

    Schon Ernst Mach (1838-1916) bemerkte: “Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte.” Quelle: Ernst Mach, Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

    Mathematik kann (und will) nicht zwischen Staub und Staubsauger unterscheiden.

    Einfaches Beispiel: Die Mathematik der Epizykeltheorie war und ist richtig. Die Theorie ist, real betrachtet, übergeordnet falsch.

    Obwohl Mathematik auch falsch sein kann, siehe das Banach-Tarski-Paradoxon.
    Im Rahmen der Differentialgeometrie, die in der ART zur Anwendung kommt, führen – plakativ formuliert – auch Schreibfehler zu neuen Lösungen.

    Ich “schätze” (mehrdeutig zu verstehen) axiomatisch begründete Arbeiten. Ich bin jedoch generell kein Befürworter von populärwissenschaftlichen “Vereinfachungen”.

    Es geht übergeordnet nicht um die sinnlose Frage, was (physikalische) Wahrheit ist, denn ein Denkmodell ist eben nur ein Denkmodell. Es geht aber sehr wohl um die ehrliche Frage, inwieweit ein gegenwärtiges Modell, beispielsweise zur Materiebildung, minimalistisch ist und zugleich eindeutige formalisierte Lösungen liefert, die sich als Meßwerte experimentell bestätigen lassen.

    Die folgende Bemerkung von Karl Popper (1902 – 1994) adressiert das psychologische Problem des »modernen Wissenschaftlers« im Rahmen hochkomplexer, mathematischer Modellvorstellungen:

    …” Unsere Untersuchung läßt erkennen, dass selbst nahe liegende Zusammenhänge übersehen werden können, wenn uns immer wieder eingehämmert wird, dass das Suchen nach solchen Zusammenhängen ‘sinnlos’ sei.” Quelle: Karl Popper, Logik der Forschung. 9. Aufl. Mohr, Tübingen 1989, S. 196.Hrsg. E. Botcher: Die Einheit der Gesellschaftswiss. Bd. 4; The Logic of scientific discovery. (1935); 2nd Ed. London , New York : Basic Books 1959.

    Wie das im Bereich der Mathematik “aussehen kann” siehe exemplarisch…

    Thomas Royen ist ein deutscher Statistikprofessor, der 67-jährig und bereits vier Jahre im Ruhestand „verweilend“, in 2014 unerwartet die so genannte Gaußsche Korrelationsungleichung bewiesen hat: …Das Verblüffende an Thomas Royen’s Beweis ist, dass er klassische Methoden nutzt, die im Grunde jeder Mathematikstudent verstehen kann. Der Beweis ist nur wenige Seiten lang… Hintergrund: Es gab diverse Mathematiker, die jahrzehntelang vergeblich versuchten den Beweis zu erbringen. Da sich Royen eher (out of the box) am Rande der mathematischen Fachkreise aufhielt, konnte er offensichtlich ergebnisoffener als seine Fachkollegen das Problem der Beweisführung angehen. Seine diesbezügliche Erstveröffentlichung wurde jedoch inhaltlich ignoriert, da diese nicht der gängigen Gestaltungsform entsprach. Erst als andere Mathematiker auf seinen Beweis aufmerksam wurden und in die normierte Veröffentlichungsform „transformierten“, wurde die Arbeit ernst genommen.

    Beste Grüsse,
    Dirk Freyling

  3. Dirk Freyling schrieb (08.08.2024, 14:56 Uhr):
    > […] das Standardmodell der Teilchenphysik (SM) mit derzeit 25 freien Parametern […]

    Mir fällt an dieser zitierten Formulierung gerade das Wörtchen “frei” auf. …

    Die relevanten Parameter des SM, von denen etliche z.B. in dieser Tabelle (“Parameters of the Standard Model”) aufgeführt sind, sind ja (sicherlich weitgehend) voneinander unabhängig (hinsichtlich ihrer jeweiligen konkreten Werte); aber doch keineswegs beliebig.

    Sie (die meisten) haben doch (mittlerweile) konkrete, experimentell bestimmte Werte bzw. jeweils recht eng eingegrenzte Vertrauensbereiche ihres Wertes.

    Es sind doch genau diese konkreten Parameter-Werte an sich, die “das” SM (“im engeren Sinne, nach gegenwärtigem Stand”) darstellen;
    genau diese konkreten Parameter-Werte an sich, die Versuch für Versuch erneut gemessen und mit den bisher ermittelten verglichen werden, um jeweils das SM experimentell zu testen, und das SM somit entweder (bei signifikanten Abweichungen) zu falsifizieren, oder (ansonsten) zu korroborieren und die Vertrauensbereiche der Parameterwerte weiter einzuschränken.

    Und von diesen experimentell ermittelten bzw. wiederholt prüfbaren Werten an sich, also “dem” SM (“im engeren Sinne, nach gegenwärtigem Stand”), sind die festgesetzten unveränderlichen Definitionen jedes dieser Parameter als Messgröße (jeweils mit “freiem”, also mehr oder weniger uneingeschränkten Wertebereich) zu unterscheiden, also das Theorie-System, dass die Definitionen dieser Parameter bereitstellt; nämlich die elektro-schwache QFT und die QCD, im Zusammenhang, mit all ihren (“mess-technischen”) Grundlagen.

    Es ist natürlich ein langer Weg von den Daten, die (insbesondere) in Teilchenphysikexperimenten gesammelt wurden (“wie oft das Aufblitzen welcher Detektor-Bestandteile mehr oder weniger koinzident wahrgenommen und gezählt wurde”), bis zu irgendwelchen (geschweige denn allen) Parameter-Werten in der o.g. Tabelle. Die jeweils anteilige “Unsicherheit allein wegen (bislang unüberwindlicher) mathematischer Komplikationen im Ausführen der definitiven Messoperation, \(\sigma^2_{\text{theor}}\)” wird allenfalls in Fachartikeln ausdrücklich berechnet, oder wenigstens abgeschätzt …

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +