Vereinheitlichung von Theorien

Die Natur der Naturwissenschaft

Liebe Leserinnen und Leser meines Blogs, dies ist der letzte Beitrag in der Serie von Posts, die ich in den letzten 20 Wochen hier jeweils am Wochenende eingestellt habe. Jetzt muss ich erst einmal eine Pause machen, um dann diese Texte im Hinblick auf ein Buch zu überarbeiten und gegebenenfalls zu ergänzen. Viel muss dafür noch getan werden. Ich bin gespannt, wohin mich das noch führen wird.

—————————————————————————————————————

Nach der Übersicht über die Theorien für fundamentale Wechselwirkungen und einem Bericht darüber, wie dort jeweils die Axiome gefunden worden sind, soll jetzt dargelegt werden, wie man die Realisierung der Idee einer vereinheitlichten Theorie aller fundamentalen Kräfte bzw. Wechselwirkungen im Laufe der Zeit vorangetrieben hat und wie weit man inzwischen dabei gekommen ist.

Im vorletzten Blog habe ich den Raum der Phänomene eingeführt. Ein anderer nützlicher Begriff in diesem Zusammenhang ist der „Gültigkeitsbereich“ einer Theorie. Dieser umfasst alle Phänomene, die im Rahmen der Theorie erklärt werden können. Aussagen über ein Phänomen eines Gültigkeitsbereichs können dann, bei Berücksichtigung aller gegebenen Umstände, aus den Axiomen mit Hilfe mathematischer Methoden abgeleitet werden und stimmen im Rahmen der Messunsicherheiten mit den experimentellen Ergebnissen bzw. Beobachtungen überein.

Der Gültigkeitsbereich und mögliche Erweiterungen

So umfasst der Gültigkeitsbereich der Newtonschen Mechanik alle Bewegungen materieller Körper am Himmel und auf der Erde. So dachte man wenigstens, bevor Albert Einstein die Spezielle Relativitätstheorie entwickelte. Heute haben wir mit dieser Relativitätstheorie eine neue Theorie, die auch für all diese Bewegungen zuständig sein soll, dabei aber einen viel größeren Gültigkeitsbereich als die Newtonsche Mechanik besitzt. Dieser erwies sich nämlich auf Phänomene beschränkt, in denen nur Geschwindigkeiten auftreten, die vernachlässigbar gegenüber der Lichtgeschwindigkeit sind.

Mit der speziellen Relativitätstheorie haben wir den Fall einer neuen Theorie vor uns, mit der eine bestehende Theorie „erweitert“ wird, d.h. mit der ihr Gültigkeitsbereich erweitert wird. Für kleine Geschwindigkeiten stimmen beide Theorien überein, Je größer die Geschwindigkeit wird, umso größer wird auch der Unterschied, umso mehr kommen auch Eigenschaften von Raum und Zeit zum Vorschein, die in der Relativitätstheorie richtig beschrieben werden, in der Newtonschen Theorie aber gar nicht thematisiert werden konnten, weil entsprechende Phänomene bei ihrer Entwicklung gar nicht bekannt sein konnten.

Deshalb ist die Newtonsche Theorie nicht als falsch zu bezeichnen und die spezielle Relativitätstheorie dagegen als wahr. „Falsch“ und „wahr“ sind für Aussagen angemessene Kategorien, aber nicht für Theorien. Man kann nur von deren Gültigkeitsbereich reden, für die Phänomene in diesem Bereich gibt es dann wahre Aussagen. Eine ernst zu nehmende Theorie hat einen respektablen Gültigkeitsbereich, aber auch der kann immer noch erweitert werden, wie man an diesem Beispiel sieht. Vielleicht ist ja auch die spezielle Relativitätstheorie noch nicht das Ende der Fahnenstange.

Der Begriff des Gültigkeitsbereichs ist auch hilfreich, wenn man verstehen will, was sich an bestimmten Wendepunkten der Physik ereignet hat, z.B. bei der Entdeckung der Quantenhaftigkeit der Natur zu Beginn des letzten Jahrhunderts. Zwei beeindruckende Phänomene haben damals die Physiker beschäftigt. Die besten Physiker, Max Planck und Albert Einstein, haben dafür jeweils eine Erklärung geben können und dabei die ersten Schritte in eine Quantenphysik getan. Beide Phänomene waren im Rahmen der Elektrodynamik nicht mehr zu verstehen, sie lagen schon außerhalb der Grenzen ihres Gültigkeitsbereichs.

Es war einerseits die sogenannte Hohlraumstrahlung, das ist die elektromagnetische Strahlung, die von einer kleinen Öffnung eines Hohlraums ausgeht. Diese Strahlung kann präzise vermessen werden und man stellt fest, dass ihre Intensität eine Funktion allein von der Temperatur der inneren Wände des Hohlraums und ihrer Frequenz ist. Damit treten nur fundamentale Konstanten in dieser Funktion auf. Max Planck konnte diese im Jahr 1900 erklären, wenn man die Energie pro Frequenzintervall, die von den Wänden in den Hohlraum abgestrahlt wird und dann durch die Öffnung austritt, “als zusammengesetzt aus einer ganz bestimmten Anzahl endlicher gleicher Teile” betrachtet.

Andererseits waren es die experimentellen Ergebnisse beim Photoeffekt, die Albert Einstein erklären konnte, und zwar unter einer ähnlichen Annahme, dass bei diesen Experiment das Licht als ein Strom von “lokalisierten Energiequanten, welche nur als Ganze absorbiert und erzeugt werden können” (Einstein, 1905) angesehen werden muss.

Das waren zwei ganz bedeutende Hinweise auf die Notwendigkeit einer Theorie „hinter“ der Elektrodynamik, die dann in der Tat auch als eine Quantenelektrodynamik entwickelt wurde. Die Elektrodynamik blieb in ihrem Gültigkeitsbereich unangetastet, wurde aber als eine “Quantenelektrodynamik für das Grobe” erkannt, wobei das “Grobe” für Situationen steht, in der nur das Verhalten einer sehr großen Anzahl von Lichtquanten interessiert. So können wir auch von einer Erweiterung der Elektrodynamik sprechen. In (Honerkamp, 2010) habe ich dieses ausgeführt.

Verschmelzung von Gültigkeitsbereichen

Solche Erweiterungen vergrößern das Portfolio der Physik an Theorien.  Das große Thema der Physik, das wir auch in diesem Buch verfolgen, war aber dagegen die Idee einer einheitlichen Theorie. So suchte man stets danach, ob man die Gültigkeitsbereiche zweier Theorien „unter einen Hut“ bringen konnte, sodass also die Gültigkeitsbereiche zweier Theorien zu einem einzigen Bereich verschmelzen und eine einzige Theorie ist für diesen zuständig wird. Normalerweise sind dann die Begriffe und Aussagen beider ursprünglichen Theorien in der vereinheitlichen Theorie als Spezialfälle oder Näherungen enthalten.

Wir werden sehen, dass das in der Neuzeit auch immer der Fall gewesen ist. Nur beim Übergang von der Aristotelischen Bewegungstheorie zur Newtonschen Theorie war es anders. Aristoteles unterschied ja, wie schon früher ausgeführt, mehrere Typen von Bewegungen, und für jeden Typ hatte er eine eigene Erklärung. Es gab also mehrere Theorien mit ihren eigenen Gültigkeitsbereichen. In der Newtonschen Theorie gibt es nun im 2. Newtonschen Axiom eine einzige Vorschrift für die Aufstellung einer Gleichung für fast alle aristotelischen Typen von Bewegungen, also z.B. für die „erzwungene“ wie für die „natürliche“, ob nach oben oder nach unten gerichtet. Hier werden also mehrere althergebrachte Theorien vollständig durch eine einzige neue Theorie ersetzt.

Von Elektrizität und Magnetismus zum Elektromagnetismus

Eine erste Verschmelzung der Gültigkeitsbereiche zweier Theorien kann man in der Mitte des 19. Jahrhunderts bei der Entwicklung der Elektrodynamik beobachten. Elektrizität und Magnetismus erschienen zunächst völlig unabhängige Phänomene zu sein. So gab es, wie in früheren Kapiteln schon erwähnt, eine Theorie für die elektrischen und eine für die magnetischen Phänomene, und beide waren ganz nach dem Newtonschen Vorbild, also ausgehend von bestimmten Axiomen, aufgebaut.

Der dänische Physiker Hans Christian Ørsted hatte sich in den 20er Jahren des 19. Jahrhunderts aber auf die Suche nach einer Beziehung zwischen elektrischen und magnetischen Phänomenen gemacht. Er war die Zeit der Romantik, und er war auch von der Idee einer Einheit der Natur „infiziert“ worden. Im Jahre 1831 hat er tatsächlich entdeckt, dass ein elektrischer Strom ein Magnetfeld erzeugt. Weitere Entdeckungen solcher Beziehungen folgten. Der schottische Physiker James Clerk Maxwell konnte schließlich in den 60er Jahren des 19. Jahrhunderts einen Satz von Gleichungen für elektrische und magnetische Felder aufstellen, die die Rolle von Axiomen übernehmen konnten. Man sprach fortan von „elektromagnetischen“ Feldern.

Als das Licht als elektromagnetische Welle erkannt werden konnte, wurde dann noch die Optik vereinnahmt. Auch das kann man als eine Verschmelzung von Gültigkeitsbereichen bzw. Verschmelzung von Theorien sehen.  

Elektromagnetismus und Gravitation?

Die Allgemeine Relativitätstheorie, die Albert Einstein im Jahre 1915 nach 10 Jahren intensivster Arbeit vorstellte, war wie die Elektrodynamik eine Feldtheorie. Während das elektromagnetische Feld aus sechs Komponenten bestand, enthielt das Gravitationsfeld zehn Komponenten. In beiden Fällen konnten diese aber als Elemente eines Tensors angesehen werden und ebenso ließ sich jeweils aus den Axiomen, den Grundgleichungen, ableiten, dass es Wellen geben müsse.

Solche elektromagnetischen Wellen waren von Heinrich Hertz entdeckt worden.  Man hat damit dem Feld eine reale physikalische Existenz zubilligen müssen. So war man nach 1915 überzeugt, dass es auch Gravitationswellen geben muss. Man glaubte allerdings zunächst, dass diese viel zu schwach sind, als dass man sie jemals entdecken könnte. Aber etwa 100 Jahre später, im Jahre 2016, hat man solche zum ersten Male direkt nachweisen können.

Albert Einstein wurde für das Jahr 1921 der Nobelpreis verliehen. Aber erst im Jahre 1923 konnte er den Nobelvortrag halten. In diesem sagte er: „Der nach Einheitlichkeit der Theorie strebende Geist kann sich nicht damit zufriedengeben, dass zwei ihrem Wesen nach ganz unabhängige Felder existieren sollen.“ Damals arbeitete Einstein schon an einer Vereinheitlichung der Theorien des Elektromagnetismus und der Gravitation. Er soll bis zu seinem Tode im Jahre 1955 an dieser Idee festgehalten und immer wieder mit neuen Ansätzen hart an ihr gearbeitet haben (Fölsing, 1993, p. 627ff) Es wäre eine einheitliche Theorie für alle Phänomene der Welt der mittleren und größten Dimensionen geworden. Aber es ließ sich keine mathematische Struktur finden, in der beide Felder einen Platz hatten und in der ihre physikalischen Beziehungen aufrechterhalten werden konnten.

Einstein war nicht der Einzige, der eine Vereinheitlichung suchte. Auch andere sehr respektable theoretische Physiker waren von der Idee eines einheitlichen physikalischen Weltbildes beseelt. Gustav Mie, Hermann Weyl, Theodor Kaluza und Arthur Eddington – alles Namen, die einem Physiker auch aus anderen Gründen etwas sagen. Sie alle legten entsprechende Arbeiten vor. Aber diese waren bei näherem Studium alle nicht überzeugend. Es fehlten jeweils Folgerungen aus den Axiomen, die physikalisch geprüft werden konnten; sie blieben „in der mathematischen Luft hängen“.

Einstein unterschied sich von diesen Kollegen darin, dass er sich zunächst nicht allein von einer „Schönheit und Eleganz“ mathematischer Strukturen leiten lassen wollte. „Ich glaube, man müsste, um wirklich vorwärts zu kommen, wieder ein allgemeines, der Natur abgelauschtes Prinzip finden“, so schrieb Einstein im Sommer 1922 in einem Brief an Hermann Weyl (nach (Fölsing, 1993, p. 635)). So hatte er es ja bei der Formulierung seiner beiden Relativitätstheorien getan: Die „Konstanz der Lichtgeschwindigkeit“ bzw. die „Gleichheit von schwerer und träger Masse“ waren die Phänomene, die er in der Tat der Natur damals „abgelauscht“ und dann an die Spitze der jeweiligen Theorie gestellt hatte. Für die Vereinheitlichung der beiden Feldtheorien ließ sich aber nichts von dieser Art finden, nicht irgendeine Parallele zum Induktionsgesetz der Elektrodynamik. Dazu müsste man ja eine Beziehung zwischen einem Gravitations- und einem elektromagnetischen Feld entdecken.

So klang es dann schon in seinem Nobelvortrag im Jahre 1923 anders: „Leider können wir uns bei dieser Bemühung nicht auf empirische Tatsachen stützen wie bei der Ableitung der Gravitation, sondern wir sind auf das Kriterium der mathematischen Einfachheit geschränkt, das von Willkür nicht frei ist.“

Als Einstein im Jahre 1955 starb, war die Quantenphysik längst etabliert.  Die elektromagnetische Wechselwirkung hatte als Quantenelektrodynamik innerhalb der Quantenphysik einen prominenten Platz gefunden und wurde auch Vorbild für weitere Theorien. Mit ihr konnte die Idee der Vereinheitlichung einen neuen Anlauf finden.

Vereinheitlichungen bei Quantentheorien

Mit der Entdeckung von Phänomenen in der Welt der kleinsten Dimensionen stellte sich das Problem der Vereinheitlichung ganz neu. Man erkannte, dass man bisher nur einen kleinen Teil des Raums der Phänomene kennen gelernt hatte. Für die theoretische Beschreibung der elektromagnetischen Phänomene musste man weit über die Quantenmechanik hinausgehen und erst den Begriff eines Quantenfeldes entwickeln. In einer Quantenelektrodynamik konnte man dann auch „Quanten“ einführen, Entitäten, die die Rolle von elementaren Teilchen einnehmen. Nun fanden die Lichtquanten, die Albert Einstein bei der Erklärung des Photoeffektes postuliert hatte, ihren Platz in einer Theorie.

Eine besondere Eigenschaft der klassischen Elektrodynamik, die man auch in der Quantenversion übernommen hatte, sollte nun eine Leitlinie für alle folgenden Quantenfeldtheorien werden. Die zwei beobachtbaren Felder, das elektrische und das magnetische Feld mit jeweils drei Komponenten, lassen sich nämlich durch ein einziges, so genanntes Eichfeld mit vier Komponenten ausdrücken. Dieses ist dann aber nicht eindeutig bestimmt, man kann es durch eine mathematische Operation in ein anderes Feld transformieren, ohne dass das elektrische und das magnetische Feld dadurch verändert wird. Die beobachtbaren Felder sind also invariant gegenüber der Transformation, und da Invarianzen in der Mathematik immer auch als Symmetrien darstellbar sind, spricht man auch von einer Eichsymmetrie und von einer Invarianz der physikalischen Felder unter Eichtransformationen.

In der klassischen Elektrodynamik musste man dieser Möglichkeit keine tiefere Bedeutung zumessen. In der Quantenelektrodynamik aber wurde dieses Eichfeld zu dem Feld des Photons, des Lichtquants also. Die Quantenelektrodynamik wurde damit zu einer „Eichfeldheorie“. Ein Unterschied zwischen einem Eichfeld, welches ein Photon repräsentiert, und einem Materiefeld, das für ein Elektron steht, wurde deutlich: Die elektromagnetische Wechselwirkung zwischen den Elektronen kann nun gesehen werden als vermittelt durch die Lichtquanten, in einfachster Form durch den Austausch eines Lichtquants. Eichfelder in einer Theorie beschreiben also die Wechselwirkung zwischen jenen massebehafteten Quanten, die durch Materiefelder dargestellt werden. Dieses Bild sollte zur Leitidee für die Konstruktion anderer Quantentheorie avancieren.

Die Theorie der elektroschwachen Wechselwirkung

Wie im vorletzten Kapitel schon erwähnt, führte die Aufklärung der Natur all der Strahlen, die man nach und nach um die Wende zum 20. Jahrhundert entdeckt hatte, zu der Vorstellung, dass es auf atomarer Längenskala zwei neue Typen von Wechselwirkungen geben muss, deren Wirkung aber nicht wesentlich über atomare Distanzen hinausreicht. Der Phänomenbereich der Zerfälle von Quanten in andere, leichtere sollte durch eine „schwache“ Kraft verursacht werden. Für ein anderes Phänomen musste dagegen eine „starke“ Kraft verantwortlich sein, nämlich dafür, dass ein Atomkern stabil sein kann, obwohl er doch aus vielen Protonen mit einer positiven elektrischen Ladung besteht, die sich einander ja alle abstoßen. Diese Kraft ist also so stark, dass sie die elektrische Abstoßung überkompensieren kann.

Die Geschichte der schwachen Wechselwirkung beginnt mit der Analyse der β-Strahlung (Wikipedia: Schwache Wechselwirkung). Man lernte, dass diese Strahlung aus Elektronen besteht, die offensichtlich aus der Umwandlung von den Bausteinen der Atomkerne stammen müssen. Der italienische Physiker Enrico Fermi formulierte 1934 eine erste Theorie für den Zerfall eines Neutrons. Die Theorie musste nach und nach neuen experimentellen Entdeckungen angepasst werden. Es blieb aber nach wie vor schwierig, aus den jeweiligen Axiomen überhaupt verlässliche Aussagen mathematisch abzuleiten.

Es war klar, dass man etwas „Besseres“ finden musste, und das Vorbild für dieses konnte nur die Quantenelektrodynamik sein. Dort gab es ja die Photonen, also Quanten, welche die Wechselwirkung zwischen den Materieteilchen, den Protagonisten wie Elektronen oder Protonen, vermittelten. Warum nicht auch solche Austausch-Quanten für die schwache Wechselwirkung einführen?  Und sogar: Warum nicht gleich nach einer einheitlichen Theorie für die elektromagnetische und schwache Wechselwirkung suchen, in denen es dann zusätzlich zum Photon auch noch weitere Austausch-Quanten gibt, welche die schwache Wechselwirkung vermitteln?

Man postulierte also die Existenz einer ganz neuen Sorte von Quanten, handelte sich damit aber nicht nur das Problem ein, dass man ihre Existenz dann ja auch irgendwann nachweisen müsste, sondern auch noch ein tiefliegendes theoretisches Problem: Die schwache Wechselwirkung ist kurzreichweitig. Es gibt aber einen klaren Zusammenhang zwischen der Reichweite der Wechselwirkung und der Masse des Quants, welches diese Kraft bzw. Wechselwirkung vermittelt: Je größer die Masse, umso kürzer die Reichweite. Das Photon z.B. besitzt keine Masse, die elektromagnetische Wechselwirkung ist entsprechend sehr langreichweitig. Ein Austauschteilchen einer kurzreichweitigen Kraft muss demnach aber eine Masse besitzen. Eine Theorie mit massebehafteten Austauschteilchen hat aber die gleichen theoretischen Schwierigkeiten wie die erste Theorie von Fermi: Man kann aus den Axiomen nichts seriös ableiten. Man schien sich im Kreis zu drehen.

Als Ausweg postulierte man die Existenz eines weiteren Teilchens. Das sieht für Außenstehende wie eine schlechte Ausrede aus, führte aber zum Erfolg und wurde auch nicht ganz gedankenlos vorgeschlagen. Es gab bedeutende Vorbilder in der Festkörpertheorie, dort kannte man die Einführung eines Terms in die Theorie, der für eine beobachtbare Größe zu einer Masse führt, als Higgs-Mechanismus, benannt nach britischen Physiker Peter Higgs (1929). Dieser bekam zusammen mit einem belgischen Physiker François Englert (1932) für die Entwicklung dieses Mechanismus den Nobelpreis.

Das neue Teilchen, Higgs-Boson, konnte nicht nur dazu dienen, den neuen Austausch-Teilchen, den W-Bosonen, jeweils eine Masse zuzubilligen, es avancierte zum allgemeinen „Massenspender“, d.h. nach der Theorie ergibt sich die Masse aller Teilchen, abgesehen vom Higgs-Teilchen selbst, durch eine Wechselwirkung mit diesem Higgs-Boson.

Die so entstandene einheitliche Theorie der elektromagnetischen und schwachen Wechselwirkung hat bisher alle experimentellen Tests bestanden und gilt mit dem Nachweis des Higgs-Bosons im Jahre 2012 endgültig als etabliert.

Die starke Wechselwirkung und das Standardmodell

In den 60er Jahren des letzten Jahrhunderts entdeckte man immer mehr neue „Elementarteilchen“, wie man sie damals nannte. Ein ganzer „Zoo“ von Teilchen mit verschiedenen Massen, elektrischen Ladungen und „Spins“ entstand. In dieser Menge konnte man bald eine gewisse Ordnung feststellen, die man durch eine bestimmte mathematische Struktur beschreiben konnte. Diese musste wohl physikalische Gegebenheiten widerspiegeln, denn auch Teilchen, die nach der Struktur vorhanden sein mussten, aber noch nicht bekannt waren, konnten nachgewiesen werden. 

Die Art dieser mathematischen Struktur legte den Gedanken nahe, dass es insgesamt drei verschiedene Bausteine geben muss, aus denen alle Teilchen in diesem Zoo bestehen, wenn es sich nicht gerade um Elektronen und ähnliche Teilchen handelt, die man zu der Gruppe der „Leptonen“ zählte und die nicht der starken Wechselwirkung unterliegen. Der amerikanische Physiker Murray Gell-Mann veröffentlichte im Jahre 1964 eine entsprechende Hypothese, er nannte diese Bausteine „Quarks“. Die elementarsten Quanten sollten also nun Leptonen und Quarks sein. Im Jahre 1969 konnte diese Vorstellung durch die Experimente erhärtet werden.

In Analogie zur elektroschwachen Wechselwirkung musste es auch Austauschteilchen geben, die hier die starken Kräfte vermittelten und auch zu den gebundenen Zuständen wie Protonen oder Neutronen führen. Man nannte sie Gluonen (nach glue = kleben), diese mussten bestimmte Freiheitsgrade besitzen, ähnlich einer elektrischen Ladung, nur dass es hier nicht zwei, sondern drei Ladungen geben musste. Man nannte sie Farbladung, und die Theorie, die man so konzipierte, hieß dann auch Quantenchromodynamik (QCD). Mit den Farben bei unseren Sinneseindrücken haben diese „Farben“ natürlich nichts zu tun.

Ein Konzept für diese Theorie war also schnell gefunden. Schwieriger gestalteten sich die Anpassung der Details an die experimentelle Situation. Man musste erklären können, warum man von einem „Confinement“, also einem Einschluss der Quarks reden muss, d.h. warum man freie Quarks nie beobachten kann. Man entdeckte auch, dass es neben drei zunächst postulierten Quarks noch weitere drei Typen von Quarks gibt.

Dies ist inzwischen alles verstanden worden und die QCD hat sich bisher in allen Experimenten bewährt.

Von einer Verschmelzung der elektroschwachen Wechselwirkung mit der Quantenchromodynamik kann man nun allerdings noch nicht reden. Das, was man heute als „Standardmodell“ bezeichnet, ist bisher nur ein gemeinsames Dach, denn die QCD steht dort gewissermaßen unbeteiligt neben der elektroschwachen Theorie. Um diesen Punkt besser zu verstehen, erinnere man sich an die Verschmelzung der Theorie der Elektrizität mit der Theorie des Magnetismus. Diese geschah dadurch, dass man zeigen konnte, dass ein elektrischer Strom ein Magnetfeld zur Folge hat. Das bedeutet: Eine Größe aus der einen Theorie wirkt auf eine Größe der anderen Theorie. So erhoffte sich Albert Einstein für die Verschmelzung der Gravitationstheorie und der Elektrodynamik auch, dass man entdecken könnte, dass ein Gravitationsfeld sich auf elektrische Phänomene auswirkt. Eine Wirkung der starken Kraft auf einen Effekt der schwachen oder elektromagnetischen Wechselwirkung ist aber noch nicht nachgewiesen. Teilchen, welche diese Wirkung vermitteln würden, wären so etwas wie „Leptoquarks“. Sie würden die Umwandlung von Leptonen in Quarks beschreiben und könnten auf diese Weise auch erklären, dass Elektronen und Protonen betragsmäßig die gleiche elektrische Ladung besitzen.

Festzuhalten bleibt: Es gibt bei fast allen Phänomenen auf der subatomaren Längenskala eine gute, ja zum Teil außerordentlich gute Übereinstimmung der Aussagen des Standardmodells mit den experimentellen Ergebnissen. Diese Theorie ist aber keineswegs schon zufriedenstellend, es fehlt eine interne Vereinheitlichung (QCD und elektroschwache Wechselwirkung) und eine Einbeziehung der Gravitation (siehe auch Wikipedia: Standardmodell). Schließlich müssen jene Phänomene erklärt werden können, die Anlass zu der Vermutung geben, dass es im Kosmos noch so etwas wie “dunkle Materie” und “dunkle Energie” geben muss.

Wer weiß, wie weit der Weg zu einer wirklich einheitlichen Theorie für alle physikalischen Phänomene der Welt der kleinsten Dimensionen noch ist. Mit Albert Einstein möchte man sagen: „Um wirklich vorwärts zu kommen, müsste man wieder ein allgemeines, der Natur abgelauschtes Prinzip finden“. Dieses würde dann ein wirklich ganz allgemeines, umfassendes Prinzip sein, hinter dem man nichts mehr suchen müsste. Wahrscheinlich jedoch wird man immer nur etwas „Besseres“ finden, aber nie etwas „Endgültiges“.

Josef Honerkamp

Veröffentlicht von

Josef Honerkamp war mehr als 30 Jahre als Professor für Theoretische Physik tätig, zunächst an der Universität Bonn, dann viele Jahre an der Universität Freiburg. Er hat er auf den Gebieten Quantenfeldtheorie, Statistische Mechanik und Stochastische Dynamische Systeme gearbeitet und ist Autor mehrerer Lehr- und Sachbücher. Nach seiner Emeritierung im Jahre 2006 möchte er sich noch mehr dem interdisziplinären Gespräch widmen. Er interessiert sich insbesondere für das jeweilige Selbstverständnis einer Wissenschaft, für ihre Methoden sowie für ihre grundsätzlichen Ausgangspunkte und Fragestellungen und kann berichten, zu welchen Ansichten ein Physiker angesichts der Entwicklung seines Faches gelangt. Insgesamt versteht er sich heute als Physiker und "wirklich freier Schriftsteller".

9 Kommentare

  1. Gerne ein Buch dazu, lieber Herr Honerkamp.
    Dr. W hat diesmal u.a. diese Aussage mitgenommen : ‘„Falsch“ und „wahr“ sind für Aussagen angemessene Kategorien, aber nicht für Theorien. Man kann nur von deren Gültigkeitsbereich reden […]’
    …und merkt hierzu noch skeptisch an :

    Wahrscheinlich jedoch wird man immer nur etwas „Besseres“ finden, aber nie etwas „Endgültiges“.

    …dass der Wahrscheinlichkeitsbegriff hier möglicherweise fehl platziert ist, denn das naturwissenschaftliche Bemühen von Weltteilnehmern (vs. Weltbetreibern) wird nie abschließend sein, denn diese werden sozusagen veranstaltet, sie können nie sicher sein die Veranstaltung verstanden zu haben.
    Vielen Dank für die Arbeit, die Sie sich gemacht haben, Dr. W war schwer von Ihrer nicht mehr klein zu nennenden Serie, die sich darum gekümmert hat, was eigentlich ist und wie dieses Sein naturwissenschaftlich bearbeitet werden kann, beeindruckt.
    Viele Grüße (nach Münster?) !
    Dr. Webbaer

  2. Das was die Welt äußerlich formt ist die Gravitation. Die passt irgendwie nicht in das Quantenkonzept.
    Ihr Kommentatorkollege Martin Bäker ist ja in Bezug auf Gravitation der Meinung, dass die Masse eine Veränderung der Raumzeit bewirkt und deshalb eine viel tiefgreifendes Verständnis von Welt darstellt.
    Und warum sollte die Physik auf ein Prinzip zurückgeführt werden müssen. Viel logischer sind zwei oder sogar drei sich widersprechende Prinzipien, die die Welt formen, so wie sie ist.

  3. Wahrscheinlich jedoch wird man immer nur etwas „Besseres“ finden, aber nie etwas „Endgültiges“.

    Erinnerte mich an was Herr Gell-Mann in diesem Video (das mir nicht in jeder Hinsicht gefallen hat) ab 14:37 sagt.

    https://www.youtube.com/watch?time_continue=135&v=UuRxRGR3VpM

    You don’t need something more in order to get something more.

    Bzw. bei 15:49:

    You don’t need something more in order to explain something more.

  4. @Josef Honerkamp

    Schade, dass hier nun erst einmal Schluss sein soll. Das war eine gleichermassen vergnügliche wie anregende Tour durch die Historie der wissenschaftl. Ideenwelt, und es wird Ihnen gewiss gelingen, dies zu einem lesenswerten Buch auszugestalten, wozu ich Ihnen viel Erfolg wünsche. Vermutlich haben Sie aus den Kommentaren auch so einige Schlüsse ziehen können darüber, was den Lesern dabei alles in den Sinn kommt.

    N.B. Eine Kleinigkeit noch: Ich meine, Einstein erhielt seinen Nobelpreis 1921, nicht 1923.

  5. @Chris:
    Vielen Dank. Das war ein unzulässige Verkürzung von mir. Richtig ist:
    “Albert Einstein wurde für das Jahr 1921 der Nobelpreis verliehen. Aber erst im Jahre 1923 konnte er den Nobelvortrag halten.

  6. @ Kommentatorenfreund ‘bote19’ und hierzu :

    Und warum sollte die Physik auf ein [Hervorhebung von Dr. Webbaer übernommen] Prinzip zurückgeführt werden müssen. Viel logischer sind zwei oder sogar drei sich widersprechende Prinzipien, die die Welt formen, so wie sie ist.

    Das Sparsamkeitsprinzip lädt so ein.
    ‘Logisch’ kann sich sinnhafterweise nicht widersprochen werden, Sie meinen womöglich die Folgerichtigkeit, die auf unterschiedlichem Niveau, Makro- und Mikrowelt meinend, anders einzuladen scheint.

    Dr. Webbaer mag insofern auch physikalische Meta-Theorie, bspw. die TOE von Tegmark und auch Spielchen dieser Art.

    Weil der hiesige werte Inhaltegeber anscheinend nie spekuliert, wird er sich für derartige Meta-Überlegung wohl nicht sonderlich interessieren, der Schreiber dieser Zeilen geht allerdings von einer MUH aus.

    MFG + schöne Mittwoche!
    Dr. Webbaer

  7. Josef Honerkamp schrieb (2. Juni 2019):
    > Mit der speziellen Relativitätstheorie haben wir den Fall einer neuen Theorie vor uns, mit der eine bestehende Theorie [ Newtonsche Mechanik ] „erweitert“ wird, d.h. mit der ihr Gültigkeitsbereich erweitert wird. Für kleine Geschwindigkeiten stimmen beide Theorien überein

    Keineswegs: Im Rahmen der SRT ist z.B. der Begriff “Gleichzeitigkeit” als Messgröße definiert, der die Anzeigen von Beteiligten betrifft, die gegenüber einander ruhten; und der wiederum überhaupt erst eine Grundlage für die Definition des Begriffes “Geschwindigkeit” als Messgröße bildet. Der Newtonschen Mechanik fehlt offenbar beides …
    (Allerdings treten bei der Analyse gewisser, im Rahmen der SRT durch die Näherung “β ≪ 1” gegebener Versuchsanordnungen auch Formeln auf, die wohl oberflächlich an etwas erinnern, was sich Newton aus den Fingern gesogen hat.)

    > „Konstanz der Lichtgeschwindigkeit“ bzw. die „Gleichheit von schwerer und träger Masse“ waren die Phänomene, die er [Einstein] in der Tat der Natur damals „abgelauscht“ und dann an die Spitze der jeweiligen Theorie gestellt hatte.

    Dieser Auffassung ist entgegenzusetzen, dass “an der Spitze” der (S)RT die erdachte aber nachvollziehbare/unbestreitbare Forderung steht:

    Alle unsere zeiträumlichen Konstatierungen laufen stets auf die Bestimmung zeiträumlicher Koinzidenzen hinaus.

    (Allerdings hat Einstein diese Forderung offenbar nicht konsequent vertreten. Vermutlich hat er diese Forderung auch gar nicht selbständig aufgestellt, sondern wurde u.a. von Kretschmann dazu veranlasst. Womöglich hat Einstein nicht einmal sich selbst mit Überzeugung zugegeben, dass diese Forderung “an der Spitze” der (S)RT steht …)

    > Gluonen […] mussten bestimmte Freiheitsgrade besitzen, ähnlich einer elektrischen Ladung, nur dass es hier nicht zwei, sondern drei Ladungen geben musste.

    Sofern richtiger Weise von drei verschiedene (Arten von) chromodynamischen Ladungen die Rede ist (“r”, “g”, “b”), die Quarks tragen und zwischen denen Gluonen wirken,
    handelt es sich entsprechend bei elektromagnetischer Ladung lediglich um eine einzige (Art von) Ladung.

    > Das, was man heute als „Standardmodell“ bezeichnet, ist bisher nur ein gemeinsames Dach, denn die QCD steht dort gewissermaßen unbeteiligt neben der elektroschwachen Theorie.

    Das, was man gegenwärtig als “Standardmodell (der Teilchenphysik)” bezeichnet und experimentell getestet hat und noch weiterhin testen kann (und folglich ggf. noch als falsifiziert befinden könnte und verwerfen müsste), ist aber nicht ein zusammenfassendes System von Theorien (also nachvollziehbarer und festhaltbarer Definitionen von Messgrößen, und daraus folgender Theoreme),
    sondern (“lediglich”) eine Zusammenfassung von Messwerten dieser Messgrößen, einschl. der Erwartung, dass eventuelle weitere Messwerte dieser Messgrößen mit den bisher schon erhaltenen statistisch kompatibel sein würden.

  8. Dr. W.
    gut erkannt, das Wort logisch ist manchmal wie Falschgeld. Naheliegend wäre ein nahe liegender Ausdruck gewesen.
    Das Prinzip , dem die belebte Natur unterworfen ist, ist das von “Zielgerichtetheit”, die in den Genen verankert ist und der Veränderlichkeit, in der sich die belebte Natur einfügen muss.
    Das Prinzip der unbelebten Natur ist das von Kraft und Gegenkraft. Nur bei einem Gleichgewicht kann sich eine Form gestalten, z.B. die Kugelform bei den Sternen.
    Was John Horton Conway angeht, das ist ein Paradiesvogel, der für die Erklärung von Welt eher ungeeignet ist.
    Da frage man lieber die Ilse vom Fischmarkt, die kennt sich mit Fischen genau so gut aus wie mit Männern. Das reicht eigentlich als Weltverständnis. (Philosophen sind eigentlich unnütz (kleine Anmerkung))

    Josef Honerkamp
    vielen Dank für den kurzweiligen Ausflug in die Geschichte des Denkens.

  9. Danke auch von mir für diesen Exkurs über Philosophie, Mathematik und Physik. Mal sehen, wie es mit der Vereinheitlichung weitergeht.

Schreibe einen Kommentar