Mathematik, Informatik und … Schwarze Löcher?
BLOG: Heidelberg Laureate Forum

Die Lindau Lecture beim Heidelberg Laureate Forum ist mittlerweile eine liebgewonnene Tradition: Bei jedem HLF spricht ein Nobelpreisträger über seine Arbeit, und im Gegenzug hält bei jedem der Lindauer Nobelpreistreffen einer der Mathematik- oder Informatikpreisträger einen Vortrag. Dass die HLF-Schwerpunktthemen Informatik und Mathematik so eng mit einem Nobelpreisträger-Vortrag verknüpft sind wie in diesem Jahr, mit dem Vortrag von Reinhard Genzel vom Max-Planck-Institut für extraterrestrische Physik in Garching, dürfte allerdings selten sein. Genzel erhielt (zusammen mit Andrea Ghez und Roger Penrose) den Physik-Nobelpreis 2020 für seine Arbeiten zur Entdeckung und Charakterisierung des Schwarzen Lochs im Zentrum unserer eigenen Milchstraße.
Mit Mathematik auf der Suche nach schwarzen Löchern – seit 1784
Die Querverbindung zur Mathematik reicht dabei einige hundert Jahre zurück: zu Isaac Newton, der, hätte es diese beiden Preise damals bereits gegeben, sicherlich sowohl einen Physik-Nobelpreis als auch eine Fields-Medaille erhalten hätte. Schließlich formulierte er einerseits die Grundlagen von Mechanik und Gravitationsphysik und erfand andererseits als dazu notwendigen Formalismus die Differential- und Integralrechnung – Grundlage eines beachtlichen Teils der modernen Mathematik.
Genzel ging zu Anfang seines Vortrags denn auch auf die beiden Wissenschaftler ein, die Newtons Formalismus nutzten, um erstmals so etwas wie eine Vorläufer-Version von Schwarzen Löchern zu beschreiben: Körper, die so kompakt sind, dass seine (Newtonsche) Fluchtgeschwindigkeit größer ist als die Lichtgeschwindigkeit; ein einfaches Teilchenmodell des Lichts zugrundegelegt kann kein Licht von der Oberfläche eines solchen Körpers ins Unendliche entweichen. Einer der beiden Wissenschaftler war Pierre-Simon Laplace, einer der Mathematiker, die die Newtonsche Theorie in die Form gebracht haben, die wir heute kennen. Der andere war John Michell, der in einem Artikel von 1784 bereits die Grundlagen jener Forschung beschrieb, die Genzel und seine Kollegen rund 200 Jahre später durchführen würden: In Bezug auf die von ihm beschriebenen schwarzen Löcher, die per definitionem nicht sichtbar sind, spekuliert Michell, dass “wenn andere leuchtende Körper zufällig um sie kreisen, wir aus den Bewegungen dieser kreisenden Körper mit einiger Wahrscheinlichkeit auf die Existenz der zentralen Körper schließen könnten.” Genau das tat Genzels Gruppe und unabhängig davon die Gruppe von Andrea Ghez: Sie verfolgten die Bewegung von Sternen um das zentrale Schwarze Loch in unserer Milchstraße und schlossen aus der Bewegung jener Sterne auf die Existenz des Schwarzen Lochs sowie auf seine Masse.
Eine Reise mit Hard- und Software
Aber die Reise zum Schwarzen Loch im Zentrum der Milchstraße, wie sie dieses Video der Europäischen Südsternwarte ESO (deren Teleskope Genzel nutzte und nutzt) illustriert, setzt nicht nur Mathematik, sondern auch Hard- und Software voraus.
Die eigentlichen Beobachtungen, so machte Genzel deutlich, wären schließlich ohne modernste Hard- und Software nicht möglich gewesen: Steuerungssysteme in der “adaptiven Optik”, die einen Spiegel geeignet verformen, um die Bildverzerrungen durch die Turbulenzen in der Erdatmosphäre weitgehend auszugleichen, sowie Kamerachips, die für Infrarotstrahlung empfindlich sind, für die Beobachtungen selbst. Und, last but not least, die Rechenleistung, um all das zusammenzufügen: die Sternbewegungen um das Schwarze Loch zu rekonstruieren und daraus die Masse des Schwarzen Lochs abzuleiten. Auf die Frage eines Teilnehmers, wie Informatiker bei dieser Art von Forschung helfen können, antwortete Genzel, dass Astronomen schon immer zu den ersten Abnehmern neuer und leistungsfähiger Computer gehörten – von der Datenanalyse bis hin zu umfassenden Simulationen der Geschichte des gesamten Universums. Wenn es um Schwarze Löcher geht liegen Lindau und Heidelberg jedenfalls deutlich näher beieinander, als man denken könnte.
…“Aber die Reise zum Schwarzen Loch im Zentrum der Milchstraße, wie sie dieses Video der Europäischen Südsternwarte ESO (deren Teleskope Genzel nutzte und nutzt) illustriert, setzt nicht nur Mathematik, sondern auch Hard- und Software voraus.“…
Ist eine banale Aussage, so wie: …”die Farbe wurde mit einem Pinsel, des Künstlers Händen, einen Spachtel oder sonst wie auf die Leinwand aufgetragen”…
Mit dem Unterschied:
Mathematik ist realobjektbefreit (siehe als plakatives Beispiel das Banach-Tarski-Paradoxon)
Denkmodelle sind im Idealfall axiomatisch begründet und konsistent.
Was hier nicht der Fall ist: Konkret: Die Allgemeine Relativitätstheorie (ART) wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken].
Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie, die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren (“kovarianten”) Widersprüche kommen mit Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen. Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung entschwindet mit der Idealisierung und Näherung der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung.
Exemplarischer Widerspruch zur Existenz von Schwarzen Löchern
Der Physiker Walter Greiner (1935 – 2016, achtfacher Ehrendoktor, mehrfacher Honorarprofessor, u.a. Max-Born-Preisträger, Otto-Hahn-Preisträger) dürfte allen Physikern bekannt sein, da er eine umfangreiche Lehrbuchsammlung zur Theoretischen Physik veröffentlichte, die seit Mitte der 1970er Jahre wissenschaftliche Grundlage für Physikstudierende darstellt. Er ist 2010 in Ungnade gefallen, weil er gemäß seinen Berechnungen ein pulsierendes Universum propagiert. Greiners plakatives Fazit: Es gibt keine Schwarzen Löcher. Greiner ist ein Urgestein und “Schwergewicht” der Theoretischen Physik, somit der ihr zu Grunde liegenden Mathematik. Auf arxiv.org existieren fünf Arbeiten von Walter Greiner zu diesem Thema und u.a. der Artikel auf scilogs:
Das Schwarze Loch: Sein oder Nichtsein!
Zitat Dirk Freyling: „ Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie, die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. „
Analytische Lösungen gibt es in der Physik doch sowieso nur für idealisierte Situationen – ganz unabhängig davon ob sie nun die Allgemeine Relativitätstheorie oder irgend eine andere Theorie, ein anderes Feld der Physik betrachten. Nicht einmal das Dreikörperproblem in der Newton‘schen Gravitationstheorie lässt sich analytisch lösen. Das heisst, die Zukunft unseres Sonnensystems, also etwa welche Bahn die Erde in 100 Millionen Jahren beschreiben wird (ein n-Körper Problem) lässt sich nicht analytisch lösen.
Überhaupt: nur mit Papier und Bleistift lasst sich fast kein reales/relevantes Problem lösen.
Der Vergleich hinkt, denn das Problem ist, dass auch jede andere Metrik denkbar ist. Mittels Eddington-Finkelstein-Koordinatentransformation beispielsweise wird die Koordinatensingularität behoben und “sorgt” dafür, dass für die “avancierte” Lösung nach innen und für die “retardierte” Lösung nach außen Teilchen ins Schwarze Loch eindringen und austreten können! Mit anderen Worten: Die postulierten Schwarzen Löcher der Schwarzschild-Metrik waren bei genauer Betrachtung das Resultat zweier Integrationskonstanten des gewählten Koordinatensystems. Das Koordinatensystem der Herrn Eddington und Finkelstein behebt das Koordinaten-Artefakt, “bringt” dem vermeintlich Schwarzen Loch aber nun die Eigenschaft, dass Teilchen das Schwarze Loch verlassen können.
Die eine Metrik ist nicht besser als die andere. Übrigens: Es ist – übergeordnet und insgesamt betrachtet – alles andere als trivial, Raum und Zeit als physikalische “Gegenstände” zu betrachten. Raum und Zeit sind primär “Ordnungsmuster des Verstandes”. Um aus diesen Ordnungsmustern Physik zu “erhalten”, bedarf es zwingend einer phänomenologischen Betrachtung und Erklärung. Mathematik ersetzt keine Phänomenologie. Das Schwarze Löcher spektakulärer sind als keine, ist eine massenpsychologische Entscheidung, mit der man offensichtlich Aufsehen erregen und Geld verdienen kann. So zu tun als ob sie physisch mit Sicherheit existieren, ist unbegründet.
@Dirk Freyling: Offenbar lehnen sie mit ihren Ausführungen auch die Arbeiten von Roger Penrose ab, der kürzlich ja den Nobelpreis für Physik für folgendes erhalten hat (Zitat Wikipedia): „ Ihm wurde 2020 der Nobelpreis für Physik zur Hälfte zuerkannt, „für die Entdeckung, dass die Bildung Schwarzer Löcher eine robuste Vorhersage der allgemeinen Relativitätstheorie ist“ (so die Laudatio), also nicht auf speziellen mathematisch vereinfachten Annahmen beruht.„
Kann Herrn Holzherr nur zustimmen: Dass man für die Beschreibung konkreter Situationen Näherungen bzw. numerische Rechnungen benötigt, ist in der Tat Standard. Das selektiv der Allgemeinen Relativitätstheorie anzukreiden ist inkonsequent. Und nein, nirgendwo steht geschrieben, dass spezifische Lösungen die Symmetrien der zugrundeliegenden Naturgesetze reproduzieren müssen. Auch das ist in der übrigen Physik nicht so; da scheinen Sie das Prinzip physikalischer Symmetrien grundsätzlich missverstanden zu haben. Zu Greiner: Auch das Autoritäts-Argument ist in sich inkonsequent, zumal Sie ja gepflegt ignorieren, dass Herr Greiner dort außerhalb seines engeren Fachgebiets agiert – und umgekehrt andere, fachlich deutlich qualifiziertere “Schwergewichte” eben etwas anderes sagen. Aber letztlich sind natürlich die Beobachtungen entscheiden. Und zu denen, bei denen Herrn Greiners Theorie nach eigener Aussage von der ART abweichende Vorhersagen trifft – letzte stabile Umlaufbahn, optische “Ausdehnung” des Ereignishorizonts – gab es seit der Veröffentlichung des letzten von Ihnen verlinkten arXiv-Artikels die entsprechenden Messungen: die Wellenformen der direkten Gravitationswellen-Nachweise, der Vorbeiflug von S2 mit Nachweis von Rotverschiebung und Perihelverschiebung, der Vergleich der Massenbestimmungen durch Genzel, Ghez et al. mit der Ereignishorizongröße die das Event Horizon Telescope gemessen hat. Da mit veralteten Artikeln zu kommen ist auch kein sachgerechter Umgang mit dem Thema. Insofern ist Ihr Beitrag für mich tatsächlich nicht von den üblichen Versuchen dogmatischer Relativitäts-Skeptiker zu unterscheiden, die Relativitätstheorie(n) madig zu machen – ohne Rücksicht auf innere Logik, veraltete Quellen oder neue Ergebnisse.
Dirk Freyling schrieb (24.09.2022, 21:24 o’clock):
> […] Das Koordinatensystem [nach] Eddington und Finkelstein […] “bringt” […]
Welche Koordinaten, oder ob überhaupt irgendwelche Koordinaten, Ereignissen zugeordnet wurden, die allein durch Koinzidenz-Bestimmungen identifiziert sind (also dadurch, welche Beteiligte jeweils zusammen daran teilgenommen hatten, und welche nicht; bzw. Signalfronten von welchen Ereignisse dabei jeweils durch Beteiligte zusammen wahrgenommen wurden, und von welchen nicht) kann diese Koinzidenz-Bestimmungen an sich nicht verändern.
Sofern geometrische Beziehungen zwischen Ereignissen (und somit auch geometrische bzw. kinematische Charakterisierungen von Beteiligten und ihrer Beziehungen) ausschließlich aus Koinzidenz-Bestimmungen ermittelt werden (wie sie insbesondere in der Allgemeinen Relativitätstheorie sollen), dann kann irgendeine Zuordnung von Koordinaten auch keine anderen oder zusätzlichen Feststellungen solcher geometrischer bzw. kinematischer Beziehungen “bringen”;
sondern durch topologische oder numerische Eigenschaften, die gewissen Mengen von (reellen) Zahlen-Tupeln eigen sind, die gegebenen geometrischen bzw. kinematischen Beziehungen allenfalls mehr oder weniger adaptiert repräsentieren.
> […] dass auch jede andere Metrik denkbar ist.
Jedenfalls ist es insbesondere problematisch, Koordinaten-frei gegebene geometrische Beziehungen zwischen Ereignissen, die sich als (Äquivalenzklassen von) metrischen Räumen (bzw. bestimmten Verallgemeinerungen davon) ausdrücken lassen, mit Koordinaten-Darstellungen eines (die jeweilige Äquivalenzklasse repräsentierenden) metrischen Tensors zu verwechseln.
Ein gesonderter SciLogs-Beitrag zu diesem Themenbereich (“zur Frage von Koordinaten und Koordinaten-freien Darstellungen” von geometrischen bzw. kinematischen Beziehungen)
wurde 24.09.2016, 10:56 Uhr, in Aussicht gestellt…
Martin Holzherr,
was meinen Sie mit analytisch lösen ? Beim Dreikörperproblem ist doch eine Wahrscheinlichkeit gegeben., wenn der dritte Körper im Vergleich klein ist.
Bei den Elektronenbahnen gibt man auch nur Wahrscheinlichkeiten an, wo sich das Elektron befinden könnte. Ist das noch analytisch in ihrem Sinne. ?
@fauv (Zitat): “ Beim Dreikörperproblem ist doch eine Wahrscheinlichkeit gegeben., wenn der dritte Körper im Vergleich klein ist.“
Analytisch lösen impliziert auch immer „exakt lösen“ und korrekt bleiben in Bezug auf die Grundgleichungen.
Wenn sie Vereinfachungen machen besteht ja immer die Gefahr, dass sie zu stark vereinfachen und schliesslich etwas völlig falsches erhalten.
Auch quantenmechanisch gibt es prinzipiell exakte und analytische Lösungen. Nur bedeutet das dort, dass sie exakt die richtigen Aufenthaltswahrscheinlichkeiten berechnen oder einfach exakt in Bezug auf die Grundleichungen (beispielsweise die Schrödingergleichung) bleiben. Analytisch bedeutet nicht, dass sie etwas berechnen, was gar nicht berechenbar ist. Den exakten Ort eines Elektrons in einem Atom gibt es ja gar nicht. Er lässt sich somit auch nicht berechnen. Weder analytisch noch nicht-analytisch.
Herr Pössel und Interessierte,
allgemein zur Erinnerung,
Theorieforderung und empirischer Befund
Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen. Wenn dann noch, wie im Rahmen der Standardmodelle üblich, die messbaren Ergebnisse vorselektiert und nur indirekt mit den postulierten Theorieobjekten „verbunden“ sind, ist der Interpretations-Beliebigkeit nichts mehr entgegenzusetzen.
Dirk Freyling schrieb (25.09.2022, 21:31 o’clock):
> Ein Experiment braucht zu seiner Konzeption eine konkrete Fragestellung. […]
Wie für jede Messung muss eine bestimmte Messgröße definiert und festgelegt sein, d.h. eine bestimmte Auswertungsoperation beschrieben sein und befolgt werden, durch deren Anwendung auf jeweils in einem Versuch gemachte Wahrnehmungen jeweils ein bestimmter Messwert als Versuchsergebnis (und Antwort auf die Fragestellung) ermittelt werden soll; oder wodurch ansonsten herausgefunden würde, dass der betreffende Versuch ungültig war.
(Ob man dabei als “Feldforscher” schlicht abwartet, bis einem geeignete auswertbare Datensätze von Wahrnehmungen zufallen, oder als “Experimentator” in der Absicht einzugreifen versucht, solches Warten womöglich abzukürzen, ist für die festgelegte Auswertungsoperation ohne Belang.)
> Ist die Fragestellung das Ergebnis eines mathematischen Formalismus so ist das Versuchsergebnis entsprechend theoriebeladen.
Jede Auswertungsoperation, so einfach oder aufwändig sie auch sein mag, kann ja von vornherein als Ausdruck eines mathematischen Formalismus angesehen werden.
Deshalb konkrete Versuchsergebnisse (oder auch den gesamten in Betracht gestellten Wertebereich) theoriebeladen zu nennen, hat ein Geschmäckle der Bürde und Nachteil;
womöglich verbunden mit der Vorstellung, sich davon zu befreien, o.Ä.
Stattdessen ist solcher mathematischer Formalismus (weitgehend) mit positiv konnotiert:
Die Fragestellung bzw. die Auswertungsoperation soll entsprechend durchdacht, “mathematisch eindeutig” nachvollziehbar, und im Zusammenhang mit weiteren Fragen bzw. mit anderen Messgrößen systematisch sein.
Auch die Bezeichnung als “Theorie-gestützt” wirkt ungeeignet, weil die Definition von Messgrößen damit als eher unwesentliches Anhängsel dargestellt wird.
Passender finde ich, Messgrößen ggf. “Theorie-fundiert” zu nennen.
> Wenn dann noch, wie im Rahmen der Standardmodelle üblich, die messbaren Ergebnisse vorselektiert […] sind
Ein sogenanntes Standard-Modell (einer bestimmten Theorie) fasst ja schon ermittelte Messwerte (von Messgrößen der betreffenden Theorie) zusammen, und beinhaltet (sogar quantitative) “Odds”, wie erwartet bzw. wie überraschend bestimmte Werte aus weiteren, zusätzlichen Versuchen einzuschätzen wären.
Die damit verbundene Erfüllung von Erwartungen, oder ansonsten: die damit verbundene Überraschung, kann sich jedoch erst einstellen, wenn solche weiteren, zusätzlichen Versuche ausgewertet wurden und deren Ergebnisse vorliegen; also erst im Nachhinein.
Allerdings: im “echten, Ressourcen-beschränkten Leben” werden Ressourcen auch unter Beachtung von “Odds” eingesetzt … was zumindest das Auftreten weiterer auswertbarer und gültiger Versuche von vornherein verzögern kann.
Die Informatik hängt eng mit dem physikalischen Befund zusammen, eigentlich ist ja auch die Mathematik, die sozusagen Fähigkeitslehre gemeint.
Die Informatorik meint das Wesen der sich hier Bemühenden, vielleicht so, wie die Formalwissenschaft ähnlich adressiert.
Dr, Webbar mag diesen Gedanken, er hat ihn selbst gedacht :
Leutz wie zB Elon Musk. Scott Adams und “Dr. Webbaer” sind hier vglw. locker, was die sozusagen Weltbeschichtung meint, die Idee in einer Simulation zu leben.
No problemo hier.
Ergänzend :
-> https://www.youtube.com/watch?v=ACGu-JL7jLY (vely cooles Album, gerne mal reinhören)
MFG
WB