Die Neuentdeckung der Welt: Wie Genies die Wissenschaften aus ihren tiefsten Krisen in die Moderne führten

(Vorwort und Nachwort zu Lars Jaegers neuem Buch über die revolutionären Ereignisse in allen Wissenschaften in der Zeit von ca. 1880 bis ca. 1950; https://link.springer.com/book/10.1007/978-3-662-65386-9)

Ende des 19. Jahrhunderts waren fast alle Wissenschaftler davon überzeugt, die Gesetze der Welt und damit ihr Wesen in ihrer gesamten Tiefe ein für alle Mal verstanden zu haben. So galten die Gesetze der Physik, also das Newtons und die neuen Erkenntnisse auf den Gebieten des Magnetismus und der Elektrodynamik, als ewig gültige Weltformel. Aus dieser Haltung heraus wurde dem jungen Max Planck, der in den 1870er-Jahren einen seiner Lehrer fragte, ob er Physik studieren solle, die Antwort gegeben, dass es auf diesem Gebiet nicht mehr viel zu entdecken gebe. Zum Glück hörte Planck nicht auf diesen Rat.

Das mühsam errungene und als sicher geglaubte Wissen erwies sich als recht volatil. Was frühere Forschergenerationen für absolut wahr hielten, ist es in den allermeisten Fällen für uns heute nicht mehr. Wissenschaftler haben diese Lektion gelernt, sie gehen heute explizit davon aus, dass Wissen stets nur temporär korrekt sein kann; das Gültige kann sich jederzeit als falsch erweisen.

Diese Abkehr von ewigen Wahrheitsansprüchen begann Ende des 19. Jahrhunderts und löste eine umfassende Krise in den Wissenschaften aus. In den achtzig Jahren von 1870 bis 1950, einem Zeitraum, der ein Wimpernschlag in der Geschichte der Menschheit ist und heute weniger als ein Menschenleben umfasst, fand die wohl grösste Denk-Revolution aller Zeiten statt. Sie war weit einschneidender als die Paradigmenwechsel von Renaissance und Aufklärung (auch wenn man in Geschichtsbüchern der Schule wenig davon von erfährt). Begleitet wurde diese Krise der Wissenschaften durch zwei Weltkriege, dem Untergang der tradierten Gesellschaftsordnungen sowie einer Neuordnung der Welt.

Wo die Not gross ist, ist die Rettung nicht fern. Ab Ende des 19. und in der ersten Hälfte des 20. Jahrhunderts wirkten eine Reihe wissenschaftlicher Genies von atemberaubender Kreativität, die letztendlich die Wissenschaften aus ihren Krisen führten. Dieses Buch beschreibt ihr Wirken und begleitet die Wissenschaft auf ihrer so aufregenden wie bizarren Reise in die Moderne. Auf ihr begegnen wir unter anderem dem mathematischen und physikalischen Genie James Maxwells, den in schwere psychische Kämpfe verstrickten Geistesgrössen Georg Cantor und Ludwig Boltzmann, dem in Glaubens- wie Wissenschaftsfragen so bewegten Charles Darwin, dem Revolutionär wider Willen Max Planck, dem Schweizer Revolutionär Albert Einstein, zahlreichen genialen Knabenphysikern um Niels Bohr, die im Alter von nicht viel mehr als 20 Jahren die Welt der Physik endgültig umstürzten, und nicht zuletzt den mathematischen Genies John von Neumann, Kurt Gödel, Alan Turing und Emmy Noether, deren revolutionäre Gedanken auch vor den Grundzügen der Logik nicht haltmachten.

Dieses Buch ist in zwei Teile gegliedert. Die Kapitel eins bis fünf beschreiben die Phase, die ungefähr auf den Zeitraum zwischen 1870 und 1925 einzugrenzen ist und in der nahezu zeitgleich in Physik, Mathematik, Biologie bis hin zur Psychologie Entwicklungen stattfanden, die zu den tiefsten Krisen der jeweiligen Fachbereiche führten. Die Kapiteln sechs bis zwölf werfen ein Licht auf die genannten Wissenschaften in den anschliessenden Jahren bis 1950, die den Durchbruch in die Moderne brachten. In diese Zeit fällt auch die entscheidende Wende von einem an Theorie und Philosophie ausgerichteten Wissenschaften hin zur ihrer praktischen und anwendungsbezogenen Orientierung.

 

——————————————————————–

 

Von dem Wendepunkt der Aufklärung und dem darauf folgenden Schwund ihrer Deutungshoheit hat sich die Kirche bis heute nicht erholt. Dass aber auch die moderne Wissenschaft durch eine tiefe Krise an den Rand des Abgrundes geführt wurde, diese aber innerhalb weniger Jahrzehnte meisterte, ist kaum bekannt. Nur mithilfe einer fünften Tugend gelang es ihnen, anders als der Kirche, absolutes Neuland zu betreten und so diese Krise zu überwinden: die intuitive Genialität.

Sie brachte die notwendige Kreativität ins Spiel, ohne die nüchterne Rationalität zu verraten. Die Wissenschaftsgeschichte der vergangenen 150 Jahre zeigt, dass am Beginn grosser Erkenntnissprünge fast immer intuitive, teils sogar irrationale Ideen einzelner Wissenschaftler standen. So lässt sie sich als ein dialektischer Prozess zwischen gelegentlichen Ausbrüchen von Genialität und stetem, nüchtern-rationalem Fleiss im Denken und Beobachten begreifen. So wurde die intuitive Genialität zu einem besonders starken Treiber für die entscheidenden Durchbrüche im 20. Jahrhundert.

Der Weg der Wissenschaften aus Dogmen und Aberglauben heraus zu rationalem Denken und empirischem Forschen war lang und mühsam. Umso wertvoller ist die Erkenntnis, dass die Suche nach Wissen nie endet. Dies war eine (neue) wissenschaftliche Charakteristik, die der Philosoph Karl Popper als erster erkannte: Popper führte in den 1920 Jahren aus, dass aus einer experimentellen Prüfung logischerweise keine wissenschaftliche Theorie ein für alle Mal bestätigen werden kann, während sie ein einziges experimentelles Gegenbeispiel logisch widerlegen kann. Poppers Darstellung der logischen Asymmetrie zwischen Verifizierbarkeit und Falsifizierbarkeit ist das Herzstück seiner bis heute bekannten Wissenschaftstheorie. De facto kann sogar nach ihm eine Theorie nur dann als wissenschaftlich gelten, wenn sie (potentiell) falsifizierbar ist. Dies ist auch innerhalb der Wissenschaften selbst ein revolutionärer Zug, war doch bis ins späte 19. Jahrhundert die Meinung der Physiker gewesen, dass einmal bestätigte und konsistente Theorien für immer Gültigkeit besitzen.

Viele wissenschaftliche Laien wünschen sich dagegen unverrückbare Wahrheiten. In einer Zeit, in der Populisten diese Sehnsucht für ihre Zwecke missbrauchen, eine irrationale Kritik an den Wissenschaften auf dem Weg ist, gesellschaftsfähig zu werden, und Zweifel an ihr immer vorgetragenen wird, müssen wir konsequent dafür sorgen, dass die Stimme der Rationalität klar und deutlich gehört wird.

 

 

 

Avatar-Foto

Veröffentlicht von

www.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

6 Kommentare

  1. Diese Abkehr von ewigen Wahrheitsansprüchen begann Ende des 19. Jahrhunderts und löste eine umfassende Krise in den Wissenschaften aus. [Artikeltext]

    Ganz genau, es wird insofern naturwissenschaftlich der skeptizistischen szientifischen Methode gefolgt, wie ein Ingenieur sozusagen, oder, ein wenig böse formuliert, wie ein Erbsenzähler (Ist wohl negativ konnotiert, warum genau?) oder ein guter Denker.

    Sog. Genies gibt es nicht, der Begriff mag im Künstlerischen greifen, es mag auch besondere Naturwissenschaftler mit besonderen Ideen geben, Newton oder Einstein fallen direkt ein, aber auch ein sozusagen kleiner Bas van Fraassen oder ein Karl Popper fallen ein, einigen, aber eben keine ganz besonderen “Überleister”, denen “Genie” (Was ist das eigentlich?) zugesprochen werden muss.

    Hier : ‘Wo die Not gross ist, ist die Rettung nicht fern. Ab Ende des 19. und in der ersten Hälfte des 20. Jahrhunderts wirkten eine Reihe wissenschaftlicher Genies von atemberaubender Kreativität, die letztendlich die Wissenschaften aus ihren Krisen führten.’ [Artikeltext] – steift Dr. Webbaer insofern ein wenig ab.

    Qualität.
    Dr. W mag die Qualität von Leistung, findet insofern nun auch freundliche(re) Worte, es ist schon so, wie Dr. Lars Jaeger (Am Ende gewinnt immer der Jäger.) meint, dass es sehr qualifizierte Personen gab und gibt, dass es Kompetitivität geben sollte und dass auch Dr. Lars Jaeger, Dr. Webbaer kennt ihn schon ein Weile, hoch leistet, aus Sicht einiger.

    Bücher aus dem Hause Lars Jaeger können nicht schlecht sein.

    Mit freundlichen Grüßen
    Dr. Webbaer

  2. Es ist schlechter Stil, die Szenerie so zu erklären, das es absolut keine absoluten Wahrheiten gibt, wenn das den Magnetismus oder die Elektrodynamik so nicht betrifft. Denn die sind ja durchaus schon “wahr” und wahr gewesen damals. Dem widerspricht dann auch Popper nicht in vollumfänglicher Weise mit seiner Diagnose. Da ist etwas, das ist sicher, aber was es ist oder was noch, ist bis auf weiteres unklar.
    Was nicht wahr war, war die Aussage, da wäre nun absolut nichts weiter zu entdecken, weil alles damit erklärt sei, was damals schon an Wissen und Erkenntnis errungen wurde.

    “Wahr” ist, was man eindeutig und verlässlich “reproduzierfen” kann – so soll ja Wissenschaft funktionieren. Magnetismus gehörte damals zu solchen Wahrheiten dazu. Wenn auch vielleicht nicht vollumfänglich erklärt, so doch als physikalisches Phenomen erkannt und dabei hinreichend beschrieben, sodass daraus mathematische Formeln abgeleitet werden konnten, die sich in ein Bild des Ganzen einfügten. Das die voreiligen Menschen vom Fach damals diese Mathematik für alles hielten, was ist (und sonst weiter nichts), das war der Fehler.
    Wie der wohl zustande kam? Womöglich, weil auf der Erde selbst, wo die Menschen ihre Versuche durchführen, Elektrodynamik und Magnetismus (und sowas, wie Gravitation) vorherrschend sind, und sie dann von “hier” aus die Theorie ins Universum hinausdeuteten, annahmen, das also alles so funktionierte, wie auf der Erde selbst.

    Dieses “von hier auf dort” schliessen ist zwar üblich (und in gewisser Weise auch geboten), aber nicht immer ergibt sich daraus die Wahrheit, die es auf der Erde hat. Man kam dann ja auch bald darauf auf den Zweifel, das da doch mehr sei (Quantenphysik und dunkle Materie/Energie – welche bis heute sozusagen als unbekannter Faktor im System gilt und als Platzhalter funktioniert.)

  3. Lars Jaeger schrieb (22. Okt 2022):
    > [… durch] ein einziges experimentelles Gegenbeispiel logisch widerlegen […]

    Was sich durch einen einzigen experimentellen Befund, durch einen einzigen Messwert logisch und endgültig widerlegen lässt, ist ggf. die Erwartung/Vorhersage/Hypothese, alias das Modell, dass genau dieser bestimmte Wert in keinem einzigen Versuch jemals als experimentellen Befund und Resultat einer Messung auftreten würde (obwohl er ausdrücklich im Wertebereich der in Betracht stehenden, festgesetzten Messgröße liegt, also nicht von vornherein ausgeschlossen wäre).

    Die feststehende Definition dieser Messgröße bzw. des Messoperators zur Ermittlung des jeweiligen Wertes der Messgröße (aus den wahrgenommenen Gegebenheiten des jeweiligen experimentellen Versuches) ist dagegen nicht durch irgendeinen experimentellen Befund widerlegbar;
    weder durch einen experimentellen Befund betreffend einen Wert dieser festgesetzten Messgröße, der in Anwendung des festgesetzten Messoperators ermittelt worden wäre,
    und erst recht nicht durch irgendwelche experimentellen Befund betreffend andere Messoperatoren bzw. somit definierte Messgrößen.

    > […] Falsifizierbarkeit […] wissenschaftliche[r] Theorie[n …]

    Wer Theorien Falsifizierbarkeit zuschreibt (insbesondere jeweils durch einen einzigen experimentellen Befund), benutzt das Wort “Theorie” offenbar im Sinne von “Erwartung/Vorhersage/Hypothese/Modell”; kann dieses Wort damit aber nicht dafür nutzen, Systeme von Definitionen von Messgrößen (einschl. deren logischer Konsequenzen) zu benennen, und offenbart damit laienhafte Unkenntnis, oder zumindest Geringschätzung, der Wissenschaft vom Gewinnen experimenteller Befunde (a.k.a. Experimentalphysik).

    Stattdessen wird Falsifizierbarkeit von wissenschaftlichen Modellen gefordert; und entsprechend werden insbesondere wissenschaftliche Modelle experimentell getestet.

    > Viele wissenschaftliche Laien wünschen sich dagegen unverrückbare Wahrheiten. […]

    Messwerte, die jeweils in Anwendung eines nachvollziehbaren Messoperators gewissenhaft ermittelt wurden, sind und bleiben unverrückbar wahr.
    Wer sich jedoch gar nicht um die Definitionen von Messoperatoren bzw. Messgrößen kümmert, lässt sich wohl alles, was in der Form “Zahl und Einheitssymbol” daherkommt, als (vermeintlich) wertvoll unterjubeln.

    • Wissenschaftliches Neuland ist der fruchtbare Boden für Genies
      Die fünfte Solvay-Konferenz über Quantenmechanik hatte 29 Physiker als Teilnehmer. 17 dieser Teilnehmer waren oder wurden Nobelpreisträger. Warum? Weil die damals völlig neue Quantentheorie von einer ganzen Reihe von Physikern entwickelt wurde, darunter Werner Heisenberg, Erwin Schrödinger, Paul Dirac, Max Born und Niels Bohr um nur die Bekanntesten zu nennen. Auch Albert Einstein war anwesend und mit dem Photoeffekt hatte er ja in der Tat zur Quantentheorie beigetragen. Zudem war er mit der speziellen und allgemeinen Relativitätstheorie selbst ein Disruptor, einer der die Physik eigenhändig und weitgehend allein umwälzte. Einsteins spezielle Relativitätstheorie basierte auf der Feststellung Einsteins, dass die von Maxwell formulierten Gleichungen zur Beschreibung elektromagnetischer Phänomene nicht kompatibel waren mit der damaligen Auffassung der Mechanik, insbesondere der Galilei-Transformation. Anstelle der Galilei-Transformation bestimmte Einstein die bereits für die elektromagnetischen Phänomene verwendete Lorentz-Transformation als auch für die Mechanik gültig. Im Grunde hat Einstein damit bereits eine Art Vereinheitlichung geschaffen.
      Die Quantentheorie dagegen entstand auf der Grundlage von Phänomenen wie Spektrallinien und dem Studium von Atomen und den sie „umkreisenden“ Elektronen, Phänomenen, die am besten mit der Annahme einer Quantelung von möglichen Energiewerten erklärt werden konnten und die zudem im Widerspruch zur klassischen Elektrodynamik standen, denn Elektronenbahnen um Atomkerne herum sollten gemäss der klassischen Elektrodynamik unstabil sein. Mit andern Worten: das neue Feld der Quantenmechanik basierte
      1) auf Phänomenen, die man früher, im 19. Jahrhundert noch nicht kannte wie dem Aufbau des Atoms bestehend aus Kern und ihn umkreisenden Elektronen (Elektronen wurden erst 1897 von Joseph John Thomson entdeckt) und auf einem bisher unerklärten Strahlungsgesetz, das Licht und Materie in einen Zusammenhang brachte.
      2) auf der Feststellung, dass die klassische Elektrodynamik offensichtlich für Atome nicht galt und ihre Anwendung auf Atome zu falschen Resultaten führte.
      3) im Nachhinein gesehen darauf, dass die Physik bis anhin keine Erklärung für chemische Reaktionen und chemische Eigenschaften gefunden hatte.

      Die Gruppe der Physiker, die an der fünften Solvay-Konferenz teilnahm erkannte, dass sich hier ein völlig neues Feld auftat, dass die vermeintlich abgeschlossene Physik alles was mit Atomen und Chemie zu tun hat, bis jetzt noch nicht erklären konnte, ja dass es offene Widersprüche gab. Neuland also und damit ideale Voraussetzungen für Leute, die sich einen Namen machen wollten und die in der Physik eine ähnliche Rolle einnehmen wollten wie Christoph Kolumbus in Bezug auf die Geographie des Planeten.

      Diese Beschreibung der Ausgangssituation vor der Formulierung der Quantenmechanik erklärt auch warum heute in der Physik viel weniger läuft: heute gibt es zwar unerklärte Phänomene wie etwa die Natur der dunklen Materie oder dunklen Energie, doch zugleich gibt es keine Daten, Teilchen oder Messungen, die einen Ausgangspunkt für eine neue Theorie bilden könnten. Ganz anders war es bei der Quantenmechanik, der kurz zuvor die Entdeckung des Elektrons und die detaillierte Beobachtung von Spektrallinien vorausgegangen war. Physik aber ist nur insoweit Naturwissenschaft als dass sie Beobachtungen erklärt oder zu Beobachtendes voraussagt. Ohne Beobachtungen bleibt nur die Spekulation.

      Falsifizierbarkeit und ihre Probleme
      Jede physikalische Theorie muss insoweit falsifizierbar sein, als physikalische Theorien immer durch Beobachtungen/Messungen abgedeckt sein müssen.
      Eine Theorie durch eine nicht passende Beobachtung zu falsifizieren kann allerdings sehr schwierig sein. So war die Präzession des Perihels der Merkurs bereits in der zweiten Hälfte des 19. Jahrhunderts bekannt und nicht vollständig mit Newtons Gravitationsgesetz erklärbar. Allerdings war die Abweichung vom erwarteten Newton‘schen Wert gering und diese Abweichung hätte auch mit einem weiteren sonnennahen Körper oder einem sonnennahen Asteroidengürtel erklärt werden können. Einsteins Allgemeine Relativitätstheorie konnte schliesslich die Abweichung der Präzession des Merkurperihels vom erwarteten Newton‘schen Wert erklären und damit auch die Newton‘sche Gravitationstheorie falsifizieren. Doch das zeigt ja gerade, dass es schwierig sein kann, eine Theorie allein aufgrund einer abweichenden Beobachtung zu falsifizieren. Ausser man hat eine alternative Theorie zur Hand.
      Im Artikel <a href=„https://blogs.scientificamerican.com/the-curious-wavefunction/falsification-and-its-discontents/“Falsification and its discontents werden folgende Probleme im Zusammenhang mit der Falsifikation erwähnt:

      – mit immer mehr Beobachtungen/Daten eine Theorie bestätigen wächst das Vertrauen in die Theorie und allfällig später entdeckte Abweichungen werden eher als Messfehler interpretiert oder auf Störfaktoren zurückgeführt
      – Erfolgreiche Theorien werden bei unter bestimmten Umständen widersprechenden Daten eher modifiziert als aufgegeben. Beispiel: Die neu beobachtete Verletzung der CP-Symmetrie führte zur Erweiterung nicht zum Aufgeben der damaligen Teilchentheorien
      – Heute werden häufig Modelle anstatt ausgewachsener Theorien verwendet. Modelle sind von vornherein angepasst an das zu beschreibende System und abstrahieren und vereinfachen bewusst. Dass das Modell zuerst falsifiziert wird, gilt sogar als normal im Laufe der Entwicklung und Verbesserung des Modells.
      Ein Klimamodell beispielsweise ist von vornherein eine Vereinfachung, weil ohne Vereinfachung die nötigen Berechnungen zu aufwendig würden. Dementsprechend verwundert es niemanden, dass das Modell bestimmten Beobachtungen widersprechen wird. Nur wenn die Abweichung zu gross ist wird das Modell verbessert. Verworfen wird es praktisch nie.

      Fazit: Eine grundsätzlich nicht falsifizierbare Theorie ist tatsächlich keine naturwissenschaftliche Theorie, denn Naturwissenschaft ohne entsprechende Beibachtungen/Messungen/Daten gibt es nicht. Multiversen, Parallelwelten und selbst die Stringtheorie sind so gesehen keine wissenschaftliche Theorien/Visionen. In der Praxis aber passiert eine Falsifikation eher selten.

      • Martin Holzherr schrieb (31.10.2022, 09:26 Uhr):
        > […] Falsifizierbarkeit und ihre Probleme […]

        Ich erkenne jedenfalls das Bemühen an, sich mit dieser Thematik auseinanderzusetzen und dazu zu äußern — offenbar formal als “Antwort” bzw. Reaktion auf meinen vorausgegangenen Kommentar (31.10.2022, 09:26 Uhr), wenn auch im (meiner Erfahrung nach für Kommentare SciLogs-Kommentare von Martin Holzherr charakteristischen und jedenfalls mir) betont wenig entgegenkommenden nicht-diskursiven Stil.

        Einigen wesentlichen der dort vorgelegten Aussagen und Schlussfolgerungen möchte ich widersprechen; wobei ich es (im Sinne Voltaires) doch sehr begrüße, dass wir alle diese Aussagen wenigstens seit gestern öffentlich lesen und — hoffentlich, und hoffentlich sogar bald — wiederum dazu öffentlich Stellung nehmen könnten. Aber ich habe wenigstens eine Aussage gefunden, die einen “kleinsten gemeinsamen Nenner” des gegenseitigen Einvernehmes erahnen lässt:

        > […] Fazit: […] denn Naturwissenschaft ohne entsprechende Beobachtungen/Messungen/Daten gibt es nicht.

        Ja — Naturwissenschaft beschäftigt sich mit Wahrnehmungen des Wahrnehmbaren (“als Natur”; ggf. eingeschränkt auf bestimmte “ihrer Gebiete”); und, davon ausgehend und darüber hinaus, mit “deren” Bewertung. Das beinhaltet aber jeweils bestimmte Festsetzungen

        – welche/wessen Wahrnehmungen jeweils überhaupt als Beobachtungsdatum in Betracht kommen bzw. zur Auswertung gebracht werden sollen (“kuratiert werden”!); und

        – wie gegebene und ggf. geeignet ausgewählte Beobachtungsdaten jeweils überhaupt ausgewertet werden sollen, um (Versuch für Versuch) Werte zu erhalten (oder ansonsten den betreffenden Versuch zumindest als “ungültig” abzustempeln).

        Im Kommentar Martin Holzherr (31.10.2022, 09:26 Uhr) vermisse ich vor allem jegliche Beachtung, geschweige denn Würdigung, der Rolle und Notwendigkeit solcher Festsetzungen, hinsichtlich der Naturwissenschaft. (Weniger entgegenkommend ließe sich deshalb sogar an deren absichtliche Leugnung denken …)

        > […] Fazit: Eine grundsätzlich nicht falsifizierbare Theorie ist [deshalb] tatsächlich keine naturwissenschaftliche Theorie […]

        Womit ich wieder auf meine schon bekannten, ausdrücklich diskursiv gemeinten Fragen komme:

        – Soll “Theorie” hier (doch und jedenfalls) ein System aus (verfügbaren Begriffen und) Kuratierungs- und Auswertung-Festsetzungen (und daraus folgenden Theoremen) bezeichnen ?

        (Falls “Ja.”, dann wäre dem zitierten “Fazit” folgendermaßen zu widersprechen:
        “Theorien sind grundsätzlich nicht falsifizierbar; aber naturwissenschaftliche Modelle sind falsifizierbar.”)

        – Falls “Nein”:
        Wie soll ein System aus (verfügbaren Begriffen und) Kuratierungs- und Auswertung-Festsetzungen (und daraus folgenden Theoremen) denn stattdessen genannt werden; insbesondere, sofern es sich auf “(Wahrnehmungen der) Natur” bezieht ?

        (Das zur Antwort gegebene Wort würde ich mir dann zu dem geläufigen Wort “Theorie” übersetzen; und das im oben zitierten “Fazit” auftretende Wort “Theorie” zu dem geläufigen Wort “Modell”.)

        Zum Fallbeispiel im Einzelnen:
        > […] So war die Präzession des Perihels der Merkurs bereits in der zweiten Hälfte des 19. Jahrhunderts bekannt

        Das wäre jedenfalls überraschend — schließlich ist die früheste Erwähnung des Konzeptes der Messoperation, durch die sich ein “nicht-rotierendes System” unter allen anderen “rotierenden Systemen” überhaupt feststellen ließe, bislang erst für 1897 dokumentiert; mit Anwendungen erst im frühen 20. Jh.

        Zugegeben: auch die Vor-Einsteinianer haben schon mit allerlei (reellen) “Werten” hantiert. Mangels nachvollziehbaren Definitionen von Messgrößen (wie z.B. von “Perihel-Präzession”) fehlte ihnen aber zwangsläufig jede Möglichkeit der Abschätzung der systematischen Abweichung eines solchen “Wertes” vom entsprechenden wahren Wert der betreffenden Messgröße, im jeweiligen Versuch.

        Um das gegebene Fallbeispiel überhaupt noch weiter analysieren zu können, und womöglich noch grundsätzlichere Einwände zu erheben, begebe ich mich mal auf ganz dünnes Eis und gestatte mir/uns, den Begriff der “Präzession des Perihels der Merkurs im Vor-Einsteinschen Sinne (sofern ein solcher nachvollziehbar ist)” mit dem o.g. Vorbehalt für diskutabel zu halten:

        > Allerdings war die Abweichung vom erwarteten Newton‘schen Wert gering […]

        War “der erwartete Newton‘sche Wert” Ausdruck bestimmter (womöglich “erwarteter”) Modelle

        – der Verteilung (“im Newtonschen Sinne”, sofern ein solcher nachvollziehbar ist) von “Massen (im Newtonschen Sinne)” und “Ladungen (im Sinne von Newton/Coulomb/…)” und

        – ob diese Verteilung (insbesondere hinsichtlich Merkurs) “geschlossen (im Sinne von Newton/Coulomb/…)” gewesen wäre, oder in wie fern (womöglich “unerwartet”) nicht ??

        > und diese Abweichung hätte auch mit einem weiteren sonnennahen Körper oder einem sonnennahen Asteroidengürtel erklärt werden können.

        Wieso “hätte” ?? — Gibt es wirklich/beweisbar gar kein Modell (wie beschrieben, mit Werten der genannten “Größen im Sinne von Newton/Coulomb/…”), in dem alle relevanten Vor-Einsteinschen Größen entweder ihre damals bekannten (wenn auch ohne systematischen Vertrauensbereich gegebenen) Werte oder ansonsten geeignete “just so”-Werte haben (egal wie “erwartet” oder “unerwartet” diese ansonsten auch genannt würden) ?

        > Einsteins Allgemeine Relativitätstheorie konnte schliesslich […]

        Ja, freilich: Einsteins ART beinhaltet nachvollziehbare, d.h. (ausschließlich) auf Koinzidenz-Bestimmungen hinauslaufende Definitionen von Messgrößen;
        und ermöglicht dadurch erst die Aufstellung falsifizierbarer Modelle (von schon ermittelten oder noch zu erwartenden Werten dieser Messgrößen).

        Zu diesen Messgrößen gehört “Präzession des Perihels”; wir können vom wahren Wert der Präzession des Perihels der Merkurs reden, systematische Abweichungen anderer (weil ggf. anders ermittelter bzw. abgeschätzter bzw. geratener) Wert-Angaben in Betracht ziehen, und verschiedene Modelle danach unterscheiden, in wie fern sie den wahren Wert beinhalten (alias “erklären”?).

        > die Abweichung der Präzession des Merkurperihels vom erwarteten Newton‘schen Wert erklären

        Wozu müssten sich Einstein bzw. die Anwender der in seiner Theorie definierbaren Messgrößen damit auseinandersetzen, was sich Vor-Einsteinianer aus den Fingern gesogen haben mögen ??
        (Etwa: Um “the powers that be” stillezuhalten ?!? …)

        Reicht es denn nicht, den in Frage stehenden wahren Wert (unter Angabe eines konkreten systematischen Vertrauensbereiches) überhaupt erstmalig und wahlweise erneut messen zu können, und etwaige weiterreichende Erwartungen (sei’s nach Hilbert-Einstein, oder nach Weyl-Mannheim) darauf zu gründen ?

        Zugestanden: Womöglich sind die (noch nicht falsifizierten) Modelle, und insbesondere “das (davon am wenigsten unerwartete) Standard-Modell” (des Sonnensystems, in Werten Einsteinscher Messgrößen) dem äußeren, Zahlen-formalen Anschein nach nicht ganz unähnlich den Vor-Einsteinschen Modellen, die “erwartete Newton‘sche Werte” beinhalten —
        eben insbesondere mit Ausnahme der (vermeintlich relativ kleinen) Differenz zwischen dem Messwert der Präzession des Merkurperihels und “dem Wert der Präzession des Perihels der Merkurs im Vor-Einsteinschen Sinne (sofern ein solcher nachvollziehbar ist)”.

        Trotzdem lässt sich die Bevorzugung von Messgrößen, die (ausschließlich) auf Koinzidenz-Bestimmungen hinauslaufen, weniger mit irgendwelchen Erwartungen an das Auffinden bestimmter Messwerte begründen, als vielmehr von vornherein durch das Bedürfnis, in Bohrs Worten, »einander mitzuteilen, was wir [jeweils] [gefragt und] getan und herausgefunden haben«.

        > und damit auch die Newton‘sche Gravitationstheorie falsifizieren.

        Nicht falsifiziert ist damit jedenfalls irgendeine Theorie im o.g. geläufigen Sinne, als System aus verfügbaren Begriffen, Kuratierungs- und Auswertung-Festsetzungen und allen daraus folgenden Theoremen. (In wie fern diese Beschreibung auf Newtons Formeleien überhaupt zutrifft, erscheint fraglich.)

        Durch Messung (d.h. Ermittlung eines Wertes einschl. Angabe des systematischen Vertrauensbereiches bzgl. des wahren Wertes der Messgröße im betreffenden Versuch) sind schlicht alle diejenigen Modelle falsifiziert, die die Vorhersage eines signifikant ungleichen Wertes dieser Messgröße im betreffenden Versuch beinhalten.

      • [ Erneute Einreichung meines Kommentars vom 17.11.2022, 18:21 Uhr; teilweise neu formuliert, um die vermeintliche (weil immer noch nicht dokumentierte) maximal zulässige Anzahl von Links in SciLogs-Kommentaren nicht zu überschreiten. — FW ]

        Martin Holzherr schrieb (31.10.2022, 09:26 Uhr):
        > […] Falsifizierbarkeit und ihre Probleme […]

        Ich erkenne jedenfalls das Bemühen an, sich mit dieser Thematik auseinanderzusetzen und dazu zu äußern — offenbar formal als “Antwort” bzw. Reaktion auf meinen vorausgegangenen Kommentar (31.10.2022, 09:26 Uhr), wenn auch im (meiner Erfahrung nach für Kommentare SciLogs-Kommentare von Martin Holzherr charakteristischen und jedenfalls mir) betont wenig entgegenkommenden nicht-diskursiven Stil.

        Einigen wesentlichen der dort vorgelegten Aussagen und Schlussfolgerungen möchte ich widersprechen; wobei ich es (im Sinne Voltaires) doch sehr begrüße, dass wir alle diese Aussagen wenigstens seit gestern öffentlich lesen und — hoffentlich, und hoffentlich sogar bald — wiederum dazu öffentlich Stellung nehmen könnten. Aber ich habe wenigstens eine Aussage gefunden, die einen “kleinsten gemeinsamen Nenner” des gegenseitigen Einvernehmes erahnen lässt:

        > […] Fazit: […] denn Naturwissenschaft ohne entsprechende Beobachtungen/Messungen/Daten gibt es nicht.

        Ja — Naturwissenschaft beschäftigt sich mit Wahrnehmungen des Wahrnehmbaren (“als Natur”; ggf. eingeschränkt auf bestimmte “ihrer Gebiete”); und, davon ausgehend und darüber hinaus, mit “deren” Bewertung. Das beinhaltet aber jeweils bestimmte Festsetzungen

        – welche/wessen Wahrnehmungen jeweils überhaupt als Beobachtungsdatum in Betracht kommen bzw. zur Auswertung gebracht werden sollen (“kuratiert werden”!); und

        – wie gegebene und ggf. geeignet ausgewählte Beobachtungsdaten jeweils überhaupt ausgewertet werden sollen, um (Versuch für Versuch) Werte zu erhalten (oder ansonsten den betreffenden Versuch zumindest als “ungültig” abzustempeln).

        Im Kommentar Martin Holzherr (31.10.2022, 09:26 Uhr) vermisse ich vor allem jegliche Beachtung, geschweige denn Würdigung, der Rolle und Notwendigkeit solcher Festsetzungen, hinsichtlich der Naturwissenschaft. (Weniger entgegenkommend ließe sich deshalb sogar an deren absichtliche Leugnung denken …)

        > […] Fazit: Eine grundsätzlich nicht falsifizierbare Theorie ist [deshalb] tatsächlich keine naturwissenschaftliche Theorie […]

        Womit ich wieder auf meine schon bekannten, ausdrücklich diskursiv gemeinten Fragen komme:

        – Soll “Theorie” hier (doch und jedenfalls) ein System aus (verfügbaren Begriffen und) Kuratierungs- und Auswertung-Festsetzungen (und daraus folgenden Theoremen) bezeichnen ?

        (Falls “Ja.”, dann wäre dem zitierten “Fazit” folgendermaßen zu widersprechen:
        “Theorien sind grundsätzlich nicht falsifizierbar; aber naturwissenschaftliche Modelle sind falsifizierbar.”)

        – Falls “Nein”:
        Wie soll ein System aus (verfügbaren Begriffen und) Kuratierungs- und Auswertung-Festsetzungen (und daraus folgenden Theoremen) denn stattdessen genannt werden; insbesondere, sofern es sich auf “(Wahrnehmungen der) Natur” bezieht ?

        (Das zur Antwort gegebene Wort würde ich mir dann zu dem geläufigen Wort “Theorie” übersetzen; und das im oben zitierten “Fazit” auftretende Wort “Theorie” zu dem geläufigen Wort “Modell”.)

        Zum Fallbeispiel im Einzelnen:
        > […] So war die Präzession des Perihels der Merkurs bereits in der zweiten Hälfte des 19. Jahrhunderts bekannt

        Das wäre jedenfalls überraschend — schließlich ist die früheste Erwähnung des Konzeptes der Messoperation, durch die sich ein “nicht-rotierendes System” unter allen anderen “rotierenden Systemen” überhaupt feststellen ließe, bislang erst für 1897 dokumentiert; mit Anwendungen erst im frühen 20. Jh.

        Zugegeben: auch die Vor-Einsteinianer haben schon mit allerlei (reellen) “Werten” hantiert. Mangels nachvollziehbaren Definitionen von Messgrößen (wie z.B. von “Perihel-Präzession”) fehlte ihnen aber zwangsläufig jede Möglichkeit der Abschätzung der systematischen Abweichung eines solchen “Wertes” vom entsprechenden wahren Wert der betreffenden Messgröße, im jeweiligen Versuch.

        Um das gegebene Fallbeispiel überhaupt noch weiter analysieren zu können, und womöglich noch grundsätzlichere Einwände zu erheben, begebe ich mich mal auf ganz dünnes Eis und gestatte mir/uns, den Begriff der “Präzession des Perihels der Merkurs im Vor-Einsteinschen Sinne (sofern ein solcher nachvollziehbar ist)” mit dem o.g. Vorbehalt für diskutabel zu halten:

        > Allerdings war die Abweichung vom erwarteten Newton‘schen Wert gering […]

        War “der erwartete Newton‘sche Wert” Ausdruck bestimmter (womöglich “erwarteter”) Modelle

        – der Verteilung (“im Newtonschen Sinne”, sofern ein solcher nachvollziehbar ist) von “Massen (im Newtonschen Sinne)” und “Ladungen (im Sinne von Newton/Coulomb/…)” und

        – ob diese Verteilung (insbesondere hinsichtlich Merkurs) “geschlossen (im Sinne von Newton/Coulomb/…)” gewesen wäre, oder in wie fern (womöglich “unerwartet”) nicht ??

        > und diese Abweichung hätte auch mit einem weiteren sonnennahen Körper oder einem sonnennahen Asteroidengürtel erklärt werden können.

        Wieso “hätte” ?? — Gibt es wirklich/beweisbar gar kein Modell (wie beschrieben, mit Werten der genannten “Größen im Sinne von Newton/Coulomb/…”), in dem alle relevanten Vor-Einsteinschen Größen entweder ihre damals bekannten (wenn auch ohne systematischen Vertrauensbereich gegebenen) Werte oder ansonsten geeignete “just so”-Werte haben (egal wie “erwartet” oder “unerwartet” diese ansonsten auch genannt würden) ?

        > Einsteins Allgemeine Relativitätstheorie konnte schliesslich […]

        Ja, freilich: Einsteins ART beinhaltet nachvollziehbare, d.h. (ausschließlich) auf Koinzidenz-Bestimmungen hinauslaufende Definitionen von Messgrößen;
        und ermöglicht dadurch erst die Aufstellung falsifizierbarer Modelle (von schon ermittelten oder noch zu erwartenden Werten dieser Messgrößen).

        Zu diesen Messgrößen gehört “Präzession des Perihels”; wir können vom wahren Wert der Präzession des Perihels der Merkurs reden, systematische Abweichungen anderer (weil ggf. anders ermittelter bzw. abgeschätzter bzw. geratener) Wert-Angaben in Betracht ziehen, und verschiedene Modelle danach unterscheiden, in wie fern sie den wahren Wert beinhalten (alias “erklären”?).

        > die Abweichung der Präzession des Merkurperihels vom erwarteten Newton‘schen Wert erklären

        Wozu müssten sich Einstein bzw. die Anwender der in seiner Theorie definierbaren Messgrößen damit auseinandersetzen, was sich Vor-Einsteinianer aus den Fingern gesogen haben mögen ??
        Es reicht doch, den in Frage stehenden wahren Wert (unter Angabe eines konkreten systematischen Vertrauensbereiches) überhaupt erstmalig und wahlweise erneut messen zu können, und etwaige weiterreichende Erwartungen (sei’s nach Hilbert-Einstein, oder nach Weyl-Mannheim) darauf zu gründen.

        Zugestanden: Womöglich sind die (noch nicht falsifizierten) Modelle, und insbesondere “das (davon am wenigsten unerwartete) Standard-Modell” (des Sonnensystems, in Werten Einsteinscher Messgrößen) dem äußeren, Zahlen-formalen Anschein nach nicht ganz unähnlich den Vor-Einsteinschen Modellen, die “erwartete Newton‘sche Werte” beinhalten —
        eben insbesondere mit Ausnahme der (vermeintlich relativ kleinen) Differenz zwischen dem Messwert der Präzession des Merkurperihels und “dem Wert der Präzession des Perihels der Merkurs im Vor-Einsteinschen Sinne (sofern ein solcher nachvollziehbar ist)”.

        Trotzdem lässt sich die Bevorzugung von Messgrößen, die (ausschließlich) auf Koinzidenz-Bestimmungen hinauslaufen, weniger mit irgendwelchen Erwartungen an das Auffinden bestimmter Messwerte begründen, als vielmehr von vornherein durch das Bedürfnis (in Bohrs häufig zitierten Worten): »einander mitzuteilen, was wir [jeweils] [gefragt und] getan und herausgefunden haben«.

        > und damit auch die Newton‘sche Gravitationstheorie falsifizieren.

        Nicht falsifiziert ist damit jedenfalls irgendeine Theorie im o.g. geläufigen Sinne, als System aus verfügbaren Begriffen, Kuratierungs- und Auswertung-Festsetzungen und allen daraus folgenden Theoremen. (In wie fern diese Beschreibung auf Newtons Formeleien überhaupt zutrifft, erscheint fraglich.)

        Durch Messung (d.h. Ermittlung eines Wertes einschl. Angabe des systematischen Vertrauensbereiches bzgl. des wahren Wertes der Messgröße im betreffenden Versuch) sind schlicht alle diejenigen Modelle falsifiziert, die die Vorhersage eines signifikant ungleichen Wertes dieser Messgröße im betreffenden Versuch beinhalten.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +