Die Neuentdeckung der Welt: Wie Genies die Wissenschaften aus ihren tiefsten Krisen in die Moderne führten

(Vorwort und Nachwort zu Lars Jaegers neuem Buch über die revolutionären Ereignisse in allen Wissenschaften in der Zeit von ca. 1880 bis ca. 1950; https://link.springer.com/book/10.1007/978-3-662-65386-9)

Ende des 19. Jahrhunderts waren fast alle Wissenschaftler davon überzeugt, die Gesetze der Welt und damit ihr Wesen in ihrer gesamten Tiefe ein für alle Mal verstanden zu haben. So galten die Gesetze der Physik, also das Newtons und die neuen Erkenntnisse auf den Gebieten des Magnetismus und der Elektrodynamik, als ewig gültige Weltformel. Aus dieser Haltung heraus wurde dem jungen Max Planck, der in den 1870er-Jahren einen seiner Lehrer fragte, ob er Physik studieren solle, die Antwort gegeben, dass es auf diesem Gebiet nicht mehr viel zu entdecken gebe. Zum Glück hörte Planck nicht auf diesen Rat.

Das mühsam errungene und als sicher geglaubte Wissen erwies sich als recht volatil. Was frühere Forschergenerationen für absolut wahr hielten, ist es in den allermeisten Fällen für uns heute nicht mehr. Wissenschaftler haben diese Lektion gelernt, sie gehen heute explizit davon aus, dass Wissen stets nur temporär korrekt sein kann; das Gültige kann sich jederzeit als falsch erweisen.

Diese Abkehr von ewigen Wahrheitsansprüchen begann Ende des 19. Jahrhunderts und löste eine umfassende Krise in den Wissenschaften aus. In den achtzig Jahren von 1870 bis 1950, einem Zeitraum, der ein Wimpernschlag in der Geschichte der Menschheit ist und heute weniger als ein Menschenleben umfasst, fand die wohl grösste Denk-Revolution aller Zeiten statt. Sie war weit einschneidender als die Paradigmenwechsel von Renaissance und Aufklärung (auch wenn man in Geschichtsbüchern der Schule wenig davon von erfährt). Begleitet wurde diese Krise der Wissenschaften durch zwei Weltkriege, dem Untergang der tradierten Gesellschaftsordnungen sowie einer Neuordnung der Welt.

Wo die Not gross ist, ist die Rettung nicht fern. Ab Ende des 19. und in der ersten Hälfte des 20. Jahrhunderts wirkten eine Reihe wissenschaftlicher Genies von atemberaubender Kreativität, die letztendlich die Wissenschaften aus ihren Krisen führten. Dieses Buch beschreibt ihr Wirken und begleitet die Wissenschaft auf ihrer so aufregenden wie bizarren Reise in die Moderne. Auf ihr begegnen wir unter anderem dem mathematischen und physikalischen Genie James Maxwells, den in schwere psychische Kämpfe verstrickten Geistesgrössen Georg Cantor und Ludwig Boltzmann, dem in Glaubens- wie Wissenschaftsfragen so bewegten Charles Darwin, dem Revolutionär wider Willen Max Planck, dem Schweizer Revolutionär Albert Einstein, zahlreichen genialen Knabenphysikern um Niels Bohr, die im Alter von nicht viel mehr als 20 Jahren die Welt der Physik endgültig umstürzten, und nicht zuletzt den mathematischen Genies John von Neumann, Kurt Gödel, Alan Turing und Emmy Noether, deren revolutionäre Gedanken auch vor den Grundzügen der Logik nicht haltmachten.

Dieses Buch ist in zwei Teile gegliedert. Die Kapitel eins bis fünf beschreiben die Phase, die ungefähr auf den Zeitraum zwischen 1870 und 1925 einzugrenzen ist und in der nahezu zeitgleich in Physik, Mathematik, Biologie bis hin zur Psychologie Entwicklungen stattfanden, die zu den tiefsten Krisen der jeweiligen Fachbereiche führten. Die Kapiteln sechs bis zwölf werfen ein Licht auf die genannten Wissenschaften in den anschliessenden Jahren bis 1950, die den Durchbruch in die Moderne brachten. In diese Zeit fällt auch die entscheidende Wende von einem an Theorie und Philosophie ausgerichteten Wissenschaften hin zur ihrer praktischen und anwendungsbezogenen Orientierung.

 

——————————————————————–

 

Von dem Wendepunkt der Aufklärung und dem darauf folgenden Schwund ihrer Deutungshoheit hat sich die Kirche bis heute nicht erholt. Dass aber auch die moderne Wissenschaft durch eine tiefe Krise an den Rand des Abgrundes geführt wurde, diese aber innerhalb weniger Jahrzehnte meisterte, ist kaum bekannt. Nur mithilfe einer fünften Tugend gelang es ihnen, anders als der Kirche, absolutes Neuland zu betreten und so diese Krise zu überwinden: die intuitive Genialität.

Sie brachte die notwendige Kreativität ins Spiel, ohne die nüchterne Rationalität zu verraten. Die Wissenschaftsgeschichte der vergangenen 150 Jahre zeigt, dass am Beginn grosser Erkenntnissprünge fast immer intuitive, teils sogar irrationale Ideen einzelner Wissenschaftler standen. So lässt sie sich als ein dialektischer Prozess zwischen gelegentlichen Ausbrüchen von Genialität und stetem, nüchtern-rationalem Fleiss im Denken und Beobachten begreifen. So wurde die intuitive Genialität zu einem besonders starken Treiber für die entscheidenden Durchbrüche im 20. Jahrhundert.

Der Weg der Wissenschaften aus Dogmen und Aberglauben heraus zu rationalem Denken und empirischem Forschen war lang und mühsam. Umso wertvoller ist die Erkenntnis, dass die Suche nach Wissen nie endet. Dies war eine (neue) wissenschaftliche Charakteristik, die der Philosoph Karl Popper als erster erkannte: Popper führte in den 1920 Jahren aus, dass aus einer experimentellen Prüfung logischerweise keine wissenschaftliche Theorie ein für alle Mal bestätigen werden kann, während sie ein einziges experimentelles Gegenbeispiel logisch widerlegen kann. Poppers Darstellung der logischen Asymmetrie zwischen Verifizierbarkeit und Falsifizierbarkeit ist das Herzstück seiner bis heute bekannten Wissenschaftstheorie. De facto kann sogar nach ihm eine Theorie nur dann als wissenschaftlich gelten, wenn sie (potentiell) falsifizierbar ist. Dies ist auch innerhalb der Wissenschaften selbst ein revolutionärer Zug, war doch bis ins späte 19. Jahrhundert die Meinung der Physiker gewesen, dass einmal bestätigte und konsistente Theorien für immer Gültigkeit besitzen.

Viele wissenschaftliche Laien wünschen sich dagegen unverrückbare Wahrheiten. In einer Zeit, in der Populisten diese Sehnsucht für ihre Zwecke missbrauchen, eine irrationale Kritik an den Wissenschaften auf dem Weg ist, gesellschaftsfähig zu werden, und Zweifel an ihr immer vorgetragenen wird, müssen wir konsequent dafür sorgen, dass die Stimme der Rationalität klar und deutlich gehört wird.

 

 

 

Avatar-Foto

Veröffentlicht von

www.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

4 Kommentare

  1. Diese Abkehr von ewigen Wahrheitsansprüchen begann Ende des 19. Jahrhunderts und löste eine umfassende Krise in den Wissenschaften aus. [Artikeltext]

    Ganz genau, es wird insofern naturwissenschaftlich der skeptizistischen szientifischen Methode gefolgt, wie ein Ingenieur sozusagen, oder, ein wenig böse formuliert, wie ein Erbsenzähler (Ist wohl negativ konnotiert, warum genau?) oder ein guter Denker.

    Sog. Genies gibt es nicht, der Begriff mag im Künstlerischen greifen, es mag auch besondere Naturwissenschaftler mit besonderen Ideen geben, Newton oder Einstein fallen direkt ein, aber auch ein sozusagen kleiner Bas van Fraassen oder ein Karl Popper fallen ein, einigen, aber eben keine ganz besonderen “Überleister”, denen “Genie” (Was ist das eigentlich?) zugesprochen werden muss.

    Hier : ‘Wo die Not gross ist, ist die Rettung nicht fern. Ab Ende des 19. und in der ersten Hälfte des 20. Jahrhunderts wirkten eine Reihe wissenschaftlicher Genies von atemberaubender Kreativität, die letztendlich die Wissenschaften aus ihren Krisen führten.’ [Artikeltext] – steift Dr. Webbaer insofern ein wenig ab.

    Qualität.
    Dr. W mag die Qualität von Leistung, findet insofern nun auch freundliche(re) Worte, es ist schon so, wie Dr. Lars Jaeger (Am Ende gewinnt immer der Jäger.) meint, dass es sehr qualifizierte Personen gab und gibt, dass es Kompetitivität geben sollte und dass auch Dr. Lars Jaeger, Dr. Webbaer kennt ihn schon ein Weile, hoch leistet, aus Sicht einiger.

    Bücher aus dem Hause Lars Jaeger können nicht schlecht sein.

    Mit freundlichen Grüßen
    Dr. Webbaer

  2. Es ist schlechter Stil, die Szenerie so zu erklären, das es absolut keine absoluten Wahrheiten gibt, wenn das den Magnetismus oder die Elektrodynamik so nicht betrifft. Denn die sind ja durchaus schon “wahr” und wahr gewesen damals. Dem widerspricht dann auch Popper nicht in vollumfänglicher Weise mit seiner Diagnose. Da ist etwas, das ist sicher, aber was es ist oder was noch, ist bis auf weiteres unklar.
    Was nicht wahr war, war die Aussage, da wäre nun absolut nichts weiter zu entdecken, weil alles damit erklärt sei, was damals schon an Wissen und Erkenntnis errungen wurde.

    “Wahr” ist, was man eindeutig und verlässlich “reproduzierfen” kann – so soll ja Wissenschaft funktionieren. Magnetismus gehörte damals zu solchen Wahrheiten dazu. Wenn auch vielleicht nicht vollumfänglich erklärt, so doch als physikalisches Phenomen erkannt und dabei hinreichend beschrieben, sodass daraus mathematische Formeln abgeleitet werden konnten, die sich in ein Bild des Ganzen einfügten. Das die voreiligen Menschen vom Fach damals diese Mathematik für alles hielten, was ist (und sonst weiter nichts), das war der Fehler.
    Wie der wohl zustande kam? Womöglich, weil auf der Erde selbst, wo die Menschen ihre Versuche durchführen, Elektrodynamik und Magnetismus (und sowas, wie Gravitation) vorherrschend sind, und sie dann von “hier” aus die Theorie ins Universum hinausdeuteten, annahmen, das also alles so funktionierte, wie auf der Erde selbst.

    Dieses “von hier auf dort” schliessen ist zwar üblich (und in gewisser Weise auch geboten), aber nicht immer ergibt sich daraus die Wahrheit, die es auf der Erde hat. Man kam dann ja auch bald darauf auf den Zweifel, das da doch mehr sei (Quantenphysik und dunkle Materie/Energie – welche bis heute sozusagen als unbekannter Faktor im System gilt und als Platzhalter funktioniert.)

  3. Lars Jaeger schrieb (22. Okt 2022):
    > [… durch] ein einziges experimentelles Gegenbeispiel logisch widerlegen […]

    Was sich durch einen einzigen experimentellen Befund, durch einen einzigen Messwert logisch und endgültig widerlegen lässt, ist ggf. die Erwartung/Vorhersage/Hypothese, alias das Modell, dass genau dieser bestimmte Wert in keinem einzigen Versuch jemals als experimentellen Befund und Resultat einer Messung auftreten würde (obwohl er ausdrücklich im Wertebereich der in Betracht stehenden, festgesetzten Messgröße liegt, also nicht von vornherein ausgeschlossen wäre).

    Die feststehende Definition dieser Messgröße bzw. des Messoperators zur Ermittlung des jeweiligen Wertes der Messgröße (aus den wahrgenommenen Gegebenheiten des jeweiligen experimentellen Versuches) ist dagegen nicht durch irgendeinen experimentellen Befund widerlegbar;
    weder durch einen experimentellen Befund betreffend einen Wert dieser festgesetzten Messgröße, der in Anwendung des festgesetzten Messoperators ermittelt worden wäre,
    und erst recht nicht durch irgendwelche experimentellen Befund betreffend andere Messoperatoren bzw. somit definierte Messgrößen.

    > […] Falsifizierbarkeit […] wissenschaftliche[r] Theorie[n …]

    Wer Theorien Falsifizierbarkeit zuschreibt (insbesondere jeweils durch einen einzigen experimentellen Befund), benutzt das Wort “Theorie” offenbar im Sinne von “Erwartung/Vorhersage/Hypothese/Modell”; kann dieses Wort damit aber nicht dafür nutzen, Systeme von Definitionen von Messgrößen (einschl. deren logischer Konsequenzen) zu benennen, und offenbart damit laienhafte Unkenntnis, oder zumindest Geringschätzung, der Wissenschaft vom Gewinnen experimenteller Befunde (a.k.a. Experimentalphysik).

    Stattdessen wird Falsifizierbarkeit von wissenschaftlichen Modellen gefordert; und entsprechend werden insbesondere wissenschaftliche Modelle experimentell getestet.

    > Viele wissenschaftliche Laien wünschen sich dagegen unverrückbare Wahrheiten. […]

    Messwerte, die jeweils in Anwendung eines nachvollziehbaren Messoperators gewissenhaft ermittelt wurden, sind und bleiben unverrückbar wahr.
    Wer sich jedoch gar nicht um die Definitionen von Messoperatoren bzw. Messgrößen kümmert, lässt sich wohl alles, was in der Form “Zahl und Einheitssymbol” daherkommt, als (vermeintlich) wertvoll unterjubeln.

    • Wissenschaftliches Neuland ist der fruchtbare Boden für Genies
      Die fünfte Solvay-Konferenz über Quantenmechanik hatte 29 Physiker als Teilnehmer. 17 dieser Teilnehmer waren oder wurden Nobelpreisträger. Warum? Weil die damals völlig neue Quantentheorie von einer ganzen Reihe von Physikern entwickelt wurde, darunter Werner Heisenberg, Erwin Schrödinger, Paul Dirac, Max Born und Niels Bohr um nur die Bekanntesten zu nennen. Auch Albert Einstein war anwesend und mit dem Photoeffekt hatte er ja in der Tat zur Quantentheorie beigetragen. Zudem war er mit der speziellen und allgemeinen Relativitätstheorie selbst ein Disruptor, einer der die Physik eigenhändig und weitgehend allein umwälzte. Einsteins spezielle Relativitätstheorie basierte auf der Feststellung Einsteins, dass die von Maxwell formulierten Gleichungen zur Beschreibung elektromagnetischer Phänomene nicht kompatibel waren mit der damaligen Auffassung der Mechanik, insbesondere der Galilei-Transformation. Anstelle der Galilei-Transformation bestimmte Einstein die bereits für die elektromagnetischen Phänomene verwendete Lorentz-Transformation als auch für die Mechanik gültig. Im Grunde hat Einstein damit bereits eine Art Vereinheitlichung geschaffen.
      Die Quantentheorie dagegen entstand auf der Grundlage von Phänomenen wie Spektrallinien und dem Studium von Atomen und den sie „umkreisenden“ Elektronen, Phänomenen, die am besten mit der Annahme einer Quantelung von möglichen Energiewerten erklärt werden konnten und die zudem im Widerspruch zur klassischen Elektrodynamik standen, denn Elektronenbahnen um Atomkerne herum sollten gemäss der klassischen Elektrodynamik unstabil sein. Mit andern Worten: das neue Feld der Quantenmechanik basierte
      1) auf Phänomenen, die man früher, im 19. Jahrhundert noch nicht kannte wie dem Aufbau des Atoms bestehend aus Kern und ihn umkreisenden Elektronen (Elektronen wurden erst 1897 von Joseph John Thomson entdeckt) und auf einem bisher unerklärten Strahlungsgesetz, das Licht und Materie in einen Zusammenhang brachte.
      2) auf der Feststellung, dass die klassische Elektrodynamik offensichtlich für Atome nicht galt und ihre Anwendung auf Atome zu falschen Resultaten führte.
      3) im Nachhinein gesehen darauf, dass die Physik bis anhin keine Erklärung für chemische Reaktionen und chemische Eigenschaften gefunden hatte.

      Die Gruppe der Physiker, die an der fünften Solvay-Konferenz teilnahm erkannte, dass sich hier ein völlig neues Feld auftat, dass die vermeintlich abgeschlossene Physik alles was mit Atomen und Chemie zu tun hat, bis jetzt noch nicht erklären konnte, ja dass es offene Widersprüche gab. Neuland also und damit ideale Voraussetzungen für Leute, die sich einen Namen machen wollten und die in der Physik eine ähnliche Rolle einnehmen wollten wie Christoph Kolumbus in Bezug auf die Geographie des Planeten.

      Diese Beschreibung der Ausgangssituation vor der Formulierung der Quantenmechanik erklärt auch warum heute in der Physik viel weniger läuft: heute gibt es zwar unerklärte Phänomene wie etwa die Natur der dunklen Materie oder dunklen Energie, doch zugleich gibt es keine Daten, Teilchen oder Messungen, die einen Ausgangspunkt für eine neue Theorie bilden könnten. Ganz anders war es bei der Quantenmechanik, der kurz zuvor die Entdeckung des Elektrons und die detaillierte Beobachtung von Spektrallinien vorausgegangen war. Physik aber ist nur insoweit Naturwissenschaft als dass sie Beobachtungen erklärt oder zu Beobachtendes voraussagt. Ohne Beobachtungen bleibt nur die Spekulation.

      Falsifizierbarkeit und ihre Probleme
      Jede physikalische Theorie muss insoweit falsifizierbar sein, als physikalische Theorien immer durch Beobachtungen/Messungen abgedeckt sein müssen.
      Eine Theorie durch eine nicht passende Beobachtung zu falsifizieren kann allerdings sehr schwierig sein. So war die Präzession des Perihels der Merkurs bereits in der zweiten Hälfte des 19. Jahrhunderts bekannt und nicht vollständig mit Newtons Gravitationsgesetz erklärbar. Allerdings war die Abweichung vom erwarteten Newton‘schen Wert gering und diese Abweichung hätte auch mit einem weiteren sonnennahen Körper oder einem sonnennahen Asteroidengürtel erklärt werden können. Einsteins Allgemeine Relativitätstheorie konnte schliesslich die Abweichung der Präzession des Merkurperihels vom erwarteten Newton‘schen Wert erklären und damit auch die Newton‘sche Gravitationstheorie falsifizieren. Doch das zeigt ja gerade, dass es schwierig sein kann, eine Theorie allein aufgrund einer abweichenden Beobachtung zu falsifizieren. Ausser man hat eine alternative Theorie zur Hand.
      Im Artikel <a href=„https://blogs.scientificamerican.com/the-curious-wavefunction/falsification-and-its-discontents/“Falsification and its discontents werden folgende Probleme im Zusammenhang mit der Falsifikation erwähnt:

      – mit immer mehr Beobachtungen/Daten eine Theorie bestätigen wächst das Vertrauen in die Theorie und allfällig später entdeckte Abweichungen werden eher als Messfehler interpretiert oder auf Störfaktoren zurückgeführt
      – Erfolgreiche Theorien werden bei unter bestimmten Umständen widersprechenden Daten eher modifiziert als aufgegeben. Beispiel: Die neu beobachtete Verletzung der CP-Symmetrie führte zur Erweiterung nicht zum Aufgeben der damaligen Teilchentheorien
      – Heute werden häufig Modelle anstatt ausgewachsener Theorien verwendet. Modelle sind von vornherein angepasst an das zu beschreibende System und abstrahieren und vereinfachen bewusst. Dass das Modell zuerst falsifiziert wird, gilt sogar als normal im Laufe der Entwicklung und Verbesserung des Modells.
      Ein Klimamodell beispielsweise ist von vornherein eine Vereinfachung, weil ohne Vereinfachung die nötigen Berechnungen zu aufwendig würden. Dementsprechend verwundert es niemanden, dass das Modell bestimmten Beobachtungen widersprechen wird. Nur wenn die Abweichung zu gross ist wird das Modell verbessert. Verworfen wird es praktisch nie.

      Fazit: Eine grundsätzlich nicht falsifizierbare Theorie ist tatsächlich keine naturwissenschaftliche Theorie, denn Naturwissenschaft ohne entsprechende Beibachtungen/Messungen/Daten gibt es nicht. Multiversen, Parallelwelten und selbst die Stringtheorie sind so gesehen keine wissenschaftliche Theorien/Visionen. In der Praxis aber passiert eine Falsifikation eher selten.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +