Warum ist die Welt so unchaotisch?

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

Im letzten Blogpost habe ich erzählt, wie die Chaostheorie dem Laplace’schen Dämon einige wesentliche Zähne zieht: Das kann schon sein, dass das Schicksal der Welt und das jedes einzelnen Atoms für alle Zukunft vorherbestimmt ist; das nützt allerdings nichts, weil es unmöglich ist, einen zukünftigen Zustand der Welt vorauszuberechnen.

Was heißt unmöglich? Ist die Zukunft der Welt grundsätzlich unberechenbar? Wir wissen, dass die riesengroße Differenzialgleichung, die die Naturgesetze beschreibt, eine eindeutige Lösung hat – vollständige Kenntnis der Anfangsdaten vorausgesetzt –, aber es kann grundsätzlich kein Verfahren geben, diese Lösung zu bestimmen? Oder die Anfangsdaten vollständig zu kennen? Nicht einmal ungefähr? Oder übersteigt die Aufgabe nur die Möglichkeiten jedes vernünftigerweise vorstellbaren Dämons?

Etliche Kommentatoren meines letzten Textes haben ja schon die verschiedensten Vorstellungen über die Fähigkeiten geäußert, mit denen das fiktive Wesen des Herrn Laplace ausgestattet sein könnte. Der Dämon kann irgendwelche Daten nur mit begrenzter Genauigkeit speichern und verarbeiten? Das gilt, wenn er ein – riesengroßer – Computer ist. Die Vorstellung kommt uns Heutigen leicht in den Sinn, vor allem, weil die Leistung echter Computer in der jüngeren Vergangenheit in atemberaubendem Tempo gewachsen ist. Wenn man das in die Zukunft extrapoliert, dann hätten wir in, sagen wir, 50 Jahren schon einen ganz ordentlichen Dämon. Zu allem Überfluss sagt uns die Theorie der Berechenbarkeit, dass jede Maschine, vollkommen unabhängig von ihrer konkreten Bauweise, nicht mehr können wird als das, was die Informatiker einen universellen Computer nennen. Und der käme über die endliche Genauigkeit nicht hinaus.

Aber man kann ja von digital zu analog übergehen, wie der Kommentator “lion in oil” vorgeschlagen hat. Wenn man den Abstand zweier Atome mit unendlicher Genauigkeit haben möchte, dann setze man einfach zwei Atome in den genau richtigen Abstand. Mal abgesehen von den technischen Schwierigkeiten, die der Realisierung einer solchen Idee entgegenstehen: Unser Dämon braucht für die Darstellung der Wirklichkeit mindestens so viele Atome, wie die Wirklichkeit selbst enthält. Das zu Ende gedacht bedeutet: Um über die Zukunft der Welt eine Prognose abzugeben, baut der Dämon eine absolut getreue Kopie der Welt und lässt die “ablaufen”, das heißt, er lässt auf die Kopie dieselben Naturgesetze wirken, die auch im Original gültig sind. Leider geht das nicht schneller als im Original; die Lichtgeschwindigkeit setzt da eine absolute Grenze. Also ist die Prognose für die Zukunft bestenfalls in dem Moment verfügbar, in dem die Zukunft ohnehin eintritt. Wozu dann der ganze Aufwand?

Das Dilemma entspricht der bekannten Tatsache, dass es eine perfekte Landkarte nicht gibt. Eine Landkarte, die die Position jedes Kieselsteins und jedes Grashalms getreulich verzeichnet, wäre überaus unhandlich, denn sie müsste im Maßstab 1:1 sein, und wenn das Papier so groß ist wie die Landschaft, die es abbilden soll … Diesem Einwand wäre vielleicht im Zeitalter von Google Maps abzuhelfen; nur: Die Landkarte wäre auch hoffnungslos unbrauchbar. Sie würde den Betrachter mit so vielen Einzelheiten überfluten, dass er nicht mehr sieht, wie er von A nach B kommt – jedenfalls nicht besser als in der Landschaft selbst.

Der Nutzen einer Landkarte besteht in der Datenreduktion: Sie lässt eine Fülle von Einzelheiten weg, damit der verbleibende Rest unserem beschränkten Verstand zugänglich ist. Dasselbe gilt für Dämonen, echte wie nachgemachte. Unsere irdischen Versuche, die Zukunft zu bestimmen, bleiben nicht nur deshalb im Ungefähren, weil wir es nicht genauer wissen können, sondern auch weil wir es nicht genauer wissen wollen.

Diese Möchtegern-Dämonen funktionieren ja erstaunlich gut – zumindest in unserem Alltag. Wenn ich morgens verschlafen zum Frühstückmachen torkele, dann geht das nur deshalb ohne größere Unfälle ab, weil meine unmittelbare Umgebung ein großes Maß an Vorhersagbarkeit aufweist. Alle Gegenstände stehen noch da, wo ich sie gestern hingestellt habe; Wände und Fenster haben externe Kräfte von Wind und Wetter erfolgreich abgeschirmt. Das Wasser kommt so zuverlässig aus dem Hahn wie der Strom aus der Steckdose; beides nutzend, schalte ich die Kaffeemaschine ein, und schon setzen sich ungefähr 1026 Wassermoleküle, durch die elektrische Energie der Heizspirale getrieben, sehr intensiv in Bewegung.

Was sich dabei im Einzelnen abspielt, ist noch weit chaotischer als das einfache Blätterteigmodell. Wenn zwei Wassermoleküle aufeinander treffen, tauschen sie Energie und Impuls aus; und in welche Richtung die beiden Stoßpartner davonfliegen, hängt entscheidend davon ab, ob sie mittig oder versetzt zusammenprallen. Kleine Unterschiede im Anflug machen einen Riesenunterschied im Abgang, man hat empfindsame Abhängigkeit von den Anfangsdaten, Unvorhersagbarkeit der Bahn des einzelnen Moleküls, das ganze Programm. Der Dämon hätte keine Chance. Wieso ist uns das so herzlich egal?

Weil es uns, um mit den Thermodynamikern zu reden, nicht auf den Mikrozustand ankommt, sondern auf den Makrozustand. Für den Kaffee entscheidend ist nicht die Bewegung des einzelnen Moleküls, sondern nur die Temperatur des ganzen Ensembles. Das aber ist ein gemittelter Wert über die Bewegungsenergie aller Moleküle, und wenn Wärmekonvektion und -diffusion, wie in ordentlichen Kaffeemaschinen üblich, ihre Arbeit gut verrichten, befindet sich das System im Wärmegleichgewicht, das heißt, es hat überall dieselbe Temperatur. Das zuverlässig vorherzusagen, würde einen Dämon nicht überfordern; das schafft sogar der Hersteller der Kaffeemaschine.

Allgemeiner gesprochen: Man bewältigt das Chaos, indem man sich auf Prozesse konzentriert, bei denen die chaotischen Effekte im Kleinen sich im Großen ausmitteln und/oder die einen Gleichgewichtszustand annehmen, unabhängig vom Anfangszustand und irgendwelchen chaotischen Ereignissen unterwegs. Das Wasser in der Kaffeemaschine nimmt eine einheitliche Temperatur an, die Oberfläche des Sees wird – annähernd – eben, ein hinreichend großer Himmelskörper rundet sich unter der Wirkung seiner eigenen Gravitation zur Kugel – ja, die Zeitskalen sind sehr unterschiedlich. Dieser Makrozustand beziehungsweise dieses Gleichgewicht ist vergleichsweise einfach zu berechnen, viel einfacher jedenfalls als der detaillierte Weg, der zu diesem Zustand führt. Dabei helfen allgemeine Prinzipien wie Energie- und Impulserhaltungssatz.

Inzwischen ist die Sonne aufgegangen. Das konnte ich vielleicht nicht direkt beobachten – die Bewegung der Wolken ist ein ziemlich chaotisches Phänomen –, aber das Tageslicht verschafft mir die Gewissheit, dass die Erde sich auch heute so dreht, wie die Astronomen es vorausberechnet und den Kalendermachern die entsprechenden Zeiten minutengenau angeliefert haben.

Diese Berechnungen beherrschte man schon zu Laplacens Zeiten. Und in der Tat war es der spektakuläre Erfolg der Himmelsmechanik, der Laplace veranlasste, seinen Dämon als natürliche Fortsetzung dieses Erfolgs zu ersinnen. Nur: Wie kommt es zu diesem Erfolg? Nicht indem man die Bewegungsgleichungen für jedes Atom auf der Erde löst, sondern indem man so tut, als sei die Erde nichts weiter als ein Massenpunkt oder, wenn es um ihre Eigenrotation geht, ein starrer Körper. Diese Vereinfachung mögen diejenigen, die gerade unter einem Erdbeben oder einer Überschwemmung zu leiden haben, nicht wirklich witzig finden; aber in astronomischen Maßstäben betrachtet kommt sie der Realität äußerst nahe.

Wieder kommt es auf die Zeitskalen an. Die Bewegungsgleichungen für die Massenpunkte, die die Sonne, die Planeten und ihre Monde vertreten, sind durchaus in der Reichweite eines mittelgroßen Dämons – ein heutiger PC genügt vollkommen, um sie zu lösen. Nicht durch eine Formel, wohlgemerkt, aber numerisch, in beliebig guter Näherung. Gleichwohl ist das Sonnensystem chaotisch! Für die nächsten paar Millionen Jahre müssen wir uns noch keine Sorgen machen, aber was danach kommt, ist ebenso wenig zu berechnen wie das Schicksal der Rosine im Blätterteig. Es war übrigens ein fiktives System aus zwei Sonnen, die in einer Ebene einander umkreisen, und einem Planeten, der dazu senkrecht pendelt, mit dem Henri Poincaré (1854–1912) die Grundlagen dessen legte, was heute als „Chaostheorie“ oder korrekter „Theorie dynamischer Systeme“ bezeichnet wird.

Dem Amateur, der sicher sein möchte, dass morgen die Sonne aufgeht, steht ein einfacheres Mittel zur Verfügung: der Drehimpulserhaltungssatz. Damit die Erde nicht mehr so rotiert, wie wir es gewohnt sind, müsste sie von ihrem riesigen Eigendrehimpuls etwas an eine andere Masse abtreten. Und da eine solche Masse weit und breit nicht in Sicht ist …

Das sind zwei wesentliche Möglichkeiten, dem Chaos aus dem Weg zu gehen und die Welt etwas vorhersagbarer zu machen: 1) einen Gleichgewichtszustand herbeiführen und 2) eine große Zahl von Teilchen zu einem einzigen Objekt zusammenfassen, für das dann ein einfacheres, summarisches Naturgesetz gilt. Beide erklären nicht, wieso der Strom und das Wasser so zuverlässig aus der Leitung fließen. In der Tat ist das nicht physikalisch, sondern kulturell zu erklären: Da die Menschen gewisse Bequemlichkeiten schätzen – und die Bewohner reicher Länder sie zu finanzieren in der Lage sind –, unternehmen sie große Anstrengungen, um einen Zustand aufrechtzuerhalten, der fern vom Gleichgewicht ist und überdies erheblichen Wartungsaufwand erfordert. Zu derlei Dingen hat die Chaostheorie wenig bis gar nichts zu sagen.

Christoph Pöppe

Posted by

Christoph Pöppe (Jahrgang 1953) hat Mathematik und Physik studiert und über allerlei partielle Differenzialgleichungen geforscht, bis er 1989 ziemlich plötzlich Redakteur bei „Spektrum der Wissenschaft“ wurde. Fast 30 Jahre lang hat er für diese Zeitschrift Texte bearbeitet und selbst geschrieben, vornehmlich über Mathematik und verwandte Gebiete. Nach wie vor schreibt er gelegentlich Beiträge für die Rubrik „Mathematische Unterhaltungen“. Seine Liebe zum Fach lebt er auch in allerlei geometrischen Objekten aus, die gelegentlich – in Großveranstaltungen mit vielen Beteiligten - ziemlich monumental geraten. Nebenher bietet er in einem Internet-Laden Bastelbögen für allerlei geometrische Körper an.

55 comments

  1. Einer der Mitbegründer der Chaostheorie John von Neumann meinte:”Die Welt ist viel zu komplex, als dass sie mehr als eine Approximation erlauben würde”.

    Und wenn wir uns ein Kartenspiel ansehen, dann ist der genaue Verlauf nicht absehbar, aber die Gewinnchance ist durch die Wahrscheinlichkeit bestimmt.

    In der Mikrowelt ist das Verhalten der einzelnen Atome nicht absehbar, aber Ihr Gesamtverhalten ist berechenbar. Ob man das als Determinierung ansieht oder als Ergebnis von Wahrscheinlichkeiten, das ist hier die Frage.

  2. Den ambitionierten Amateur könnte die deutsche Ausgabe von “Order out of Chaos” interessieren:

    Gegenstand unseres Buches ist dieser Begriffswandel der Wissenschaft vom Goldenen Zeitalter der klassischen Wissenschaft bis zur Gegenwart. Es handelt sich also weder um eine Enzyklopädie noch um eine Popularisierung. Über so faszinierende Anwendungen der Theorie wie in der Astrophysik oder in der Elementarteilchenphysik wird man kaum etwas finden. Die Relativitätstheorie wird nur gestreift. Das beruht auf einer bewussten Entscheidung. Wir sind – wie alle Wissenschaftler dieser Generation – fasziniert von diesen Fragen und den neuen Erkenntnissen, die um sie herum erwachsen. Unser Thema ist indessen der Dialog des Menschen mit der Natur. Hier stoßen wir auf Probleme, die zu unserer, der makroskopischen Welt gehören, einschließlich der Welt der Moleküle, speziell der Biomoleküle, und der Atome. Die Probleme der Elementarteilchen oder der Astrophysik, bei denen es um ganz andere Größenordnungen geht, liegen uns dagegen ferner. Dass Neuentwicklungen auf diesen Gebieten die Probleme, um die es im vorliegenden Buch geht, zumindest in absehbarer Zeit beeinflussen werden, ist kaum anzunehmen. Wir wollen also die Bedeutung von drei Jahrhunderten wissenschaftlicher Entwicklung von einem bestimmten Standpunkt aus untersuchen, der uns begreifen lässt, wie die Wissenschaft, ursprünglich ein integraler Bestandteil der »klassischen Kultur«, sich allmählich öffnete, so dass sie heute ganz andersartige Fragestellungen in sich aufnehmen kann.

    http://www.langelieder.de/lit-prigogine81.html

  3. Karl der Große,
    was bleibt uns noch zu sagen nach diesem Buch ?
    Ich nenne es mal Determinismus für Dummies.
    Wenn wir ein Modell im Maßstab 1 : 1 haben mit allen Einzelheiten, dann gibt es keinen Unterschied mehr im Denken zwischen dem Modell und der Wirklichkeit. Sobald wir den Maßstab verändern, betreten wir den Raum der Abstraktion. Es ist der Raum des Denkens, den wir Wissenschaft nennen.
    Denken ist demnach das Denken in Modellen, so wie die Welt nicht ist. Die Unterschiede herauszuarbeiten, das soll unser Ziel sein.

  4. Ja, (Zitat von oben) chaotische Effekte im Kleinen können sich im Großen ausmitteln und/oder das System nimmt einen Gleichgewichtszustand an.
    Doch das gilt nicht immer – weshalb die Welt trotz all ihrer scheinbaren Berechenbarkeit unberechenbar bleibt.
    Beispiele dafür gibt es unzählige. Nur schon, dass die Erde 4 1/2 Milliarden Jahre lang immer lebensverträgliche Umweltbedingungen/Klimata besass, ist wohl einer gehörigen Portion Glück zu verdanken. So hätte ein sehr grosser Asteroid zwar nicht alles Leben, aber doch alles höhere Leben auslöschen können – und Asteroidentreffer sind zwar theoretisch vorausberechenbar, nicht aber praktisch, denn allerkleinste Einflüsse können darüber entscheiden, ob ein Asteroid die Erde trifft oder nicht.
    Ähnliches gilt für die Stabilität der Planetenbahnen. So liest man in der Wikipedia (übersetzt aus dem Englischen):

    1989 wies Jacques Laskars Arbeit darauf hin, dass die Umlaufbahn der Erde (wie auch die Bahnen aller inneren Planeten) chaotisch werden kann und dass ein Fehler von nur 15 Metern bei der Messung der heutigen Ausgangsposition der Erde es unmöglich machen würde, vorherzusagen, wo sich die Erde in etwas mehr als 100 Millionen Jahren auf ihrer Umlaufbahn befinden würde.

    Nun aber die grosse Frage: Ist es physikalisch überhaupt korrekt Werte von physikalischen Grössen auf beliebig viele Kommastellen anzugeben? Es gibt inzwischen Physiker, die daran zweifeln, dass Gleitkommazahlen beliebiger Genauigkeit überhaupt das richtige mathematische Mittel sind um physikalische Werte abzubilden. Siehe dazu Physics without Determinism: Alternative Interpretations of Classical Physics Dort liest man in der Zusammenfassung:

    Die klassische Physik gilt allgemein als deterministisch, im Gegensatz zur Quantenmechanik, die als erste Theorie gilt, die einen echten Indeterminismus in die Physik eingeführt hat. Wir stellen diese Ansicht in Frage, indem wir argumentieren, dass der angebliche Determinismus der klassischen Physik auf der stillschweigenden, metaphysischen Annahme beruht, dass es für jede physikalische Größe mit ihren unendlich vielen vorgegebenen Ziffern einen tatsächlichen Wert gibt. Aufbauend auf neueren informationstheoretischen Argumenten, die zeigen, dass das Prinzip der unendlichen Genauigkeit (das sich in der Zuweisung einer physikalischen Bedeutung der mathematischen reellen Zahlen niederschlägt) zu unphysikalischen Konsequenzen führt.

  5. 1989 wies Jacques Laskars Arbeit darauf hin, dass die Umlaufbahn der Erde (wie auch die Bahnen aller inneren Planeten) chaotisch werden kann und dass ein Fehler von nur 15 Metern bei der Messung der heutigen Ausgangsposition der Erde es unmöglich machen würde, vorherzusagen, wo sich die Erde in etwas mehr als 100 Millionen Jahren auf ihrer Umlaufbahn befinden würde.

    Laskar hat in dem bereits früher verlinkten Video ein Beispiel vorgerechnet: 0,15 mm Unterschied in der großen Halbachse von Mars machen einen ziemlichen Unterschied beim Ergebnis. Die Erde sieht in einem Viertel der 201 untersuchten Fälle gar nicht mehr gut aus. 🙂

    https://youtu.be/Ycs0wHku5Cw?t=2811

    • Jacques Laskar hat mit seinen zahlreichen Berechnungen zum Chaos im Sonnensystem ein interessantes nicht-chaotisches Resultat erzielt: Die schiere Existenz des Mondes wirkt der chaotischen Schwankung der Neigung der Erdachse entgegen, was wiederum das Erdklima stabilisiert und unter anderem die Existenz der Menschen erst ermöglicht hat. Siehe Laskars alten Artikel in “Spektrum der Wissenschaft” (ja, ich war der Bearbeiter)

  6. Wenn man eine Sonde auf dem Mond Titan landen kann, dann spricht das für eine Berechenbarkeit.
    Ohne die Arbeitshypothese der Berechenbarkeit ist Technik nur schlecht möglich.
    Über deren Grenzen sind sich die Techniker bewusst. Bei der Tragfähigkeit von Brücken nimmt man einfach den 3fachen Wert und ist damit alle Sorgen los.

  7. liononoil: was bleibt uns noch zu sagen nach diesem Buch? Ich nenne es mal Determinismus für Dummies.

    Ganz und gar nicht. Der zitierte Absatz fasst zusammen, was ich mir Jahre vor Erscheinen des Buchs gedacht habe:

    Unser Thema ist indessen der Dialog des Menschen mit der Natur. Hier stoßen wir auf Probleme, die zu unserer, der makroskopischen Welt gehören, einschließlich der Welt der Moleküle, speziell der Biomoleküle, und der Atome.

    Verantwortlich für das ziemlich fundierte Urteil waren die Herren Max Wagner, Wolfgang Weidlich und Hermann Haken. Die hatten das Talent, den schwierigen Stoff leicht verdaulich zu präsentieren.

    Die Statistikvorlesung von Weidlich war Pflichtfach, die anderen beiden Vorlesungen über “Quantenfeldtheorie des Festkörpers” und “Theorie des Transports in physikalischen Systemen” waren Wahlfächer.

  8. Ist eine determinierte Welt eine tote Welt? Oder einfach langweilig?
    Die meisten Menschen lieben Sicherheit und Berechenbarkeit. Aber lange nicht alle. Ja, man kann sogar sagen: gäbe es nicht genügend Abenteurer unter den Menschen, wären heute nicht alle Kontinente bewohnt, nicht alle Weltmeere befahren und nicht alle denkbaren Regierungsformen durchprobiert worden. Um es auf die Spitze zu treiben, könnte man sogar sagen: Wären alle Menschen von Beginn weg und von Natur aus nur auf Sicherheit, Bequemlichkeit und Berechenbarkeit ausgerichtet, wäre die Menschheit wohl ausgestorben oder wir müssten von einer erfolgreicheren Spezies, die uns vielleicht zu ihren Maskottchen (ähnlich den Pandas in China) gemacht hätte, am Leben erhalten werden.
    Das lässt einen fragen: Sind vielleicht Disruptionen wie Revolutionen, Kriege und Migrationswellen nicht nur üblen Lebensbedingungen zu verdanken, sondern bis zu einem gewissen Grade auch der Langeweile, die sich einstellt, wenn alles immer gleich läuft, wenn alles zu berechenbar wird und sich nichts neues einstellt?

    Damit stellt sich eine weitere Frage: Gibt es auch physikalische Systeme/Objekte, die ohne ein Wechselspiel von Chaos und Determinismus nicht existieren würden?

    • Langeweile dürfte nicht der Grund für eruptive Ereignisse sein, vielmehr Reformstau.
      Wenn alles gleich zu laufen scheint, findet in Wahrheit Rückschritt statt, gepaart mit der aggressiven Verweigerung, Entwicklung zuzulassen.
      Die beiden Weltkriege haben sehr viel mit der viktorianischen Epoche zu tun, als hohe Geburtenraten trafen auf Gesellschaften, die es nicht schafften, überfällige Entwicklungen konstruktiv umzusetzen, auch wegen einer Elite, die ums Verrecken an der Macht festhielt. Dann kommt irgendwann der Impuls, alles kurz und klein zu schlagen, statt einen scheintoten Frieden noch länger ertragen zu müssen.
      “Endlich Krieg”, ein “reinigendes Stahlgewitter”, Schlagworte der Menschen am Beginn des ersten WK.
      Ein Fanal für heute, wo sich ganz ähnliche Voraussetzungen entwickelt haben.

      • @DH

        Ja, das entspricht ganz genau dem zeitgeistlich-reformistischen Kreislauf, im geistigen Stillstand seit dem ersten und bisher einzigen geistigen Evolutionssprung (die “Vertreibung aus dem Paradies”), der dem Instinkt entsprechend-gepflegten Bewusstseinsschwäche in Angst, Gewalt und “Individualbewusstsein” auf stets bewusstseinsbetäubter Schuld- und Sündenbocksuche, dem “gesunden” Konkurrenzdenken im nun “freiheitlichen” Wettbewerb um Kommunikationsmüll von/zu “Wer soll das bezahlen?” und “Arbeit macht frei”.

  9. Herr Mistelberger,
    ich bin begeistert von diesem Buch, so war das gemeint, für uns bleibt nicht viel hinzuzufügen.
    Das Einzige was hier fehlt ist eine kurze verständliche Form für Anfänger.

    Wenn ein Buch zu lang gerät, dann gerät es auch in Gefahr nicht gelesen zu werden. Gödel, Escher, Bach, das ist so ein Buch.

  10. Ein guter Blog-Beitrag

    Leider ist es aber so, dass ausgerechnet Physiker eine völlig andere Meinung vertreten: Ein schönes Beispiel dafür ist die Idee vom 4D-Blockuniversum – in dem alle Ereignisse der Vergangenheit, Gegenwart und Zukunft gleichzeitig nebeneinander existieren.

  11. Und nicht nur “gleichzeitig nebeneinander “, es kommen immer wieder neue … dazu, weil Mensch denken so konfus-chaotisch ist 🤣

    • @hto
      Nach der Idee des Blockuniversum sind alle Ereignisse vom Anfang bis zum Ende des Universums – bis in die kleinste Quantenschwingung – dauerhaft feststehend vorgegeben. D.h. es kommt nichts hinzu, es kommt nichts weg und es gibt keinerlei Veränderung.

      Mich amüsiert es, wenn manche Physiker oder Leute die sich für Physiker halten – die Idee vom Blockuniversum stillschweigend akzeptieren oder gar aktiv verbreiten. Denn diese Idee steht z.B. im klaren Gegensatz zur Quantenphysik und zur Chaostheorie.

  12. “… dass jede Maschine, vollkommen unabhängig von ihrer konkreten Bauweise, nicht mehr können wird als das, was die Informatiker einen universellen Computer nennen. Und der käme über die endliche Genauigkeit nicht hinaus.”

    Das bezeichnet genau die “individualbewusste” (Selbst-)Beschränktheit / das Dogma menschlich-bewusstseinsschwachen Denkens im geistigen Stillstand des nun “freiheitlichen” Wettbewerb, der “göttlichen Sicherung” und der “Gnade Gottes” (Tod nach dem “Jüngsten Gericht”) – Die volle/ganzheitliche Kraft des universellen/zentralbewussten Geistes, geteilt durch die systemrational-konfusionierte Anzahl der Weltbevölkerung!?

    Matthäus 21,21 – Ausnahmen werden assimiliert, konfusioniert, in Unfug manifestiert.

  13. hto,
    der Mensch ist unvollkommen, sowohl körperlich, als auch geistig.
    Das ist Ihre Diagnose, und darin stimmen Ihnen fast alle zu.
    Wie sieht jetzt Ihre Therapie aus ?

    KRichard,
    existere = heraustreten. Im Blockuniversum tritt nur unsere 3 D Welt heraus.
    Für die Hälfte der Weltbevölkerung gibt es noch eine geistige Welt. Also zwei Welten. Deswegen gibt es die Religionen, die eine unsterbliche Seele annehmen.
    Alles andere ist Spekulation.
    Dann gibt es noch den Dämon, der ist eine Personifizierung einer Idee. Die griechischen Götter, das sind auch solche Personifizierungen.

    Christoph Pöppe,
    die Welt ist unchaotisch, weil wir Menschen in ihr leben müssen. Sie möchten auch nicht in einem chaotischen Haushalt wohnen.(kleiner Spaß)

    • Die Therapie ist ganz einfach:
      Mensch bedeutet dem Ursprung, dem Sinn und der Logik entsprechend ALLE, die Texte der Bibel deuten deshalb in diesen Punkten auch ziemlich eindeutig auf wirkliche Wahrhaftigkeit von Vernunftbegabung (entsprechend dem ersten und bisher einzigen geistigen Evolutionssprung / der “Vertreibung aus dem Paradies”) zu “gottgefälligem” Verantwortungsbewusstsein in Gemeinschaftseigentum (die volle/fusionierte Kraft des Geistes der Geist-Gott-Gemeinschaft ist, für entsprechend selbst-/massenbewussten Freien Willen und …) also Zusammenleben OHNE die aufs “Individualbewusstsein” konfusionierend-beschränkende Symptomatik des nun “freiheitlichen” Wettbewerb (der “Tanz um das goldene Kalb” / um den “heißen Brei”).

      Die Überwindung der allgemeingültigen Dummheit – “… darin stimmen Ihnen fast alle zu.” – vor der fast alle und somit allgemeingültig kapitulieren!?

      • Und ich mache absolut keine Werbung für die Kirche und das “Christentum”, denn da steckt die größte kapitulative Konfusion, der Anfang aller Unwahrheit/Bildung zu systemrational-kreislaufender Suppenkaspermentalität, obwohl/weil die Texte der grundlegenden Bibel ziemlich deutlich sind – “Gottes Wege” SIND ergründlich!?

    • @lioninoil: “… die eine unsterbliche Seele annehmen.”

      Die Seele die der Geist ist, unser Ursprung und auch das von uns gedachte Blockuniversum sein kann – Eine sehr ignorant-arrogante FEHLSPEKULATION, anzunehmen der “einzelne”/”individualbewusste” Mensch hat eine Seele von/zu/in zufälliger Einmaligkeit!?🤔😉

  14. Christoph Pöppe schrieb (17. Sep 2020):
    > […] Um über die Zukunft der Welt eine Prognose abzugeben, baut der Dämon eine absolut getreue Kopie der Welt und lässt die “ablaufen” […]
    > Leider geht das nicht schneller als im Original;

    … sonst wäre die Kopie ja sicher nicht “absolut getreu” zu nennen.

    > […] Also ist die Prognose für die Zukunft bestenfalls in dem Moment verfügbar, in dem die Zukunft ohnehin eintritt.

    Nicht unbedingt.
    Allerdings:
    Eine Region, die ein Original (mit einem Bahnstück von bestimmter Dauer und “Form”) sowie eine Kopie (deren anfängliches Bahnstück dem des Originals genau gleicht, aber anschließend noch ein Stück darüber hinaus geht, also insgesamt noch länger dauert), wobei

    – der Anfang des Bahnstücks der Kopie in der Zukunft des Anfangs des Bahnstücks des Originals liegt (damit die Kopie “wirklich getreu anfangen” kann), und

    – das Ende des Bahnstücks des Originals in der Zukunft des (Gesamt-)Bahnstücks der Kopie liegt (damit das Original am Ende seines Bahnstücks “erfahren kann, wie es in der Kopie weitergegangen ist” [1])

    nennt man (insbesondere deshalb) diese Region nicht normal (und deshalb natürlich auch: “nicht flach”).

    Aber das dürfte ein ordentlicher Dämon wohl hinkriegen …

    [1] … wobei: damit das anfängliche Bahnstück der Kopie dem (Gesamt-)Bahnstück des Originals “wirklich absolut getreu” ist, sollte wohl auch ihr Ende in der Zukunft des Endes des Bahnstücks einer Kopie der Kopie liegen, usw.
    Auch das mag ein ordentlicher Dämon hinkriegen …

  15. Ein Problem kann nicht komplexer sein als eine Maschine oder eine Theorie, die es löst.
    oder
    Jede vollständige Beschreibung eines Systems ist redundant gegenüber dem System.
    oder
    Ein System hat nie vollständige Information über sich selbst.
    oder
    Es kann keine Theorie geben, die alles erklärt.

    • Howdy, Herr Reutlinger und hierzu kurz :

      Es kann keine Theorie geben, die alles erklärt.

      Alles korrekt bzw. nachvollziehbar, vom Schreiber dieser Zeilen, der Ihre letzte Nachricht erhalten hat, bemerkt.

      Doch gibt es eine Theorie, Theorien [1] sind Sichten, Sichten auf Gegebenes, auf Data, auf von Erkenntnisssubjekten näherungsweise, ausschnittsartig und an Interessen (!) gebunden erfasst werden können, um idF näherungsweise, ausschnittsartig und an Interessen (!) gebunden eben zu theoretisisieren zu suchen, gerne auch : naturwissenschaftlich, der szientifischen Methode folgend, die womöglich bemerkenswert ist und sozusagen der Weisheit letzter Schluss, Dr. W hat darüber lange meditiert und irgendwann in einem Wutanfall wie folgt selbst (!) formulieren können, Dr. W zitiert abär nicht selbst, sondern Johann Gottlieb Fichte (der von Dr. W unabhängig entwickelt hat, “ein wenig” früher), der wie folgt sinngemäß von Schopenhauer zitiert werden konnte, abwertend :

      “Es ist etwas, es ist, weil es ist, und es ist so, wie es ist, weil es so ist, wie es ist.”

      Mit freundlichen Grüßen
      Dr. Webbaer (der bei besonderem Bedarf noch Quellenarbeit vornehmen , nachreichen wird, bei “Google Books” könnte allerdings selbst, im Rahmen einer Hausarbeit, gefunden werden – bei besonderem Bedarf wird Dr. W hierzu auch näher erklären)

      [1]

      Theorien haben eine beschreibende, eine erklärende und eine prädiktive Komponente, wahlfrei, das Wesen von Theorie ist interessant, weil schwierig, es gibt Theorien-Theorien, auch Meta-Theorien genannt, auch hier : Hausarbeit.

  16. Frank Wappler
    Kopie und Original.
    Landkarten sind im Maßstab 1 : 100 000 z.B. gezeichnet. Dabei ist 1 cm auf der Landkarte 100 000 cm in der Wirklichkeit. Dabei wird klar, dass die Informationen auf der Landkarte auch im Verhältnis von 1 : 100 000 stehen. Diese Landkarte hat weniger Informationen als das Original.
    Jetzt drehen wir das Verhältnis mal um. Wir haben eine Aufnahme von einem Elektronenmikroskop, dass 100 000 mal vergrößert. Hat jetzt die Aufnahme von dem Elektronenmikroskop mehr Information als das Original ?

  17. Es sei denn die Maschine oder die Theorie, ist aufgrund der Komplexität des Problems MULTI-FRAG-MEN-TIERT, es geht aber ja auch nicht um eine Theorie, sondern um entdämonisiertes Bewusstsein zu erkennbar geklärter Funktionalität in universeller … – Im Projekt Seti versucht Wissenschaft sämtliche Computer der Welt für die bessere/schnellere Auswertung zu nutzen, jetzt stelle man sich vor Mensch würde seine Vernunftbegabung gleichermaßen in allen Bereichen verantwortungsbewusst “SinnChronisieren”!?

  18. @Martin Holzherr / 17.09.2020, 13:25 o’clock

    Das verlinkte Preprint, “Physics without Determinism: Alternative Interpretations of Classical Physics”, hatte ich mal angeclickt. Nach meinem Eindruck haben die beiden Autoren allerdings die Sache eher nur laienhaft durchdacht und scheinen sich auch mit der Literaratur zum ihrem Thema nicht sonderlich auszukennen. So verweisen sie zwar auf Popper, aber nicht auf dessen The Open Universe (1982), womit sie ganz klar einiges verpasst haben.

    Weiters wird John Earman nicht mal erwähnt. Das geht nun gar nicht. Wen es interessiert, hier zum Download sein Essay Aspects of Determinism in Modern Physics, mit Hinweis auf Sec. 3 Determinism and indeterminism in classical physics, und dort speziell auf 3.9 Determinism, predictability, and chaos, sowie 3.10 Laplacian demons, prediction, and computability.

    • @Chrys(Zitat):

      die beiden Autoren scheinen sich auch mit der Literaratur zum ihrem Thema nicht sonderlich auszukennen

      Mir scheint eher: Den beiden Autoren geht es mehr um die mathematischen Grundlagen einer möglichen nicht-deterministischen klassischen Physik und nicht darum, was philosophisch/wissenschaftsphilosophisch über das Thema schon alles geschrieben wurde. Das Papier der beiden Autoren beginnt schon damit, anzuzweifeln, Zahlen unbegrenzter Präzision seien überhaupt physikalisch sinnvoll. Besonders angetan scheinen sie von Finite Information Quantities (FIQ) als neuer mathematischer Grundlage einer alternativen klassischen Physik.

      Vielleicht kann die Physik ja auch deutliche Fortschritte machen indem sie physikalische Probleme mit neuen mathematischen Mitteln angeht . Mit informationstheoretischen Mitteln beispielsweise.

  19. Der Laplacesche Dämon ist purer Idealismus. Wir sehen die Welt im medioskopischen Bereich quasi eins zu eins, hier ist die Informationsdichte für uns am größten, unsere Maschinen funktionieren hier, wenn auch mit Mittelwerten. Verlassen wir die Sphäre, wie groß sie auch sein mag, wird die Welt unscharf, die Informationsdichte sinkt. Wir gleichen dies aus mit Geräten und mithilfe der Mathematik. Allerdings ist dort die Grenze, wo es keine Empirie mehr gibt und wo die Mathematik nur noch reine Spekulation ist, da man nur das rechnen kann, was man als Problem erkennt. Auch wenn wir in einem mathematischen Universum leben sollten, hindert uns die Physik daran, es vollständig zu erkennen, was immer auch darunter zu verstehen sein mag. Ich habe hier einmal gelesen, es gibt zwei Arten von Naturgesetzen, die einen, die die Natur macht und die unveränderlich sind und die anderen, die der Mensch macht und die ständig seinem Erkenntnisgewinn entsprechend verändert werden müssen. Ich denke, sie werden nie völlig identisch sein.

    • Ich habe hier einmal gelesen, es gibt zwei Arten von Naturgesetzen, die einen, die die Natur macht und die unveränderlich sind und die anderen, die der Mensch macht und die ständig seinem Erkenntnisgewinn entsprechend verändert werden müssen.

      Die konstruktivistische Sicht ist so, dass erkennende Subjekte physikalische Theorie entwickeln, die gerne empirisch, aber nicht notwendigerweise (!), adäquat sein muss, auch empirisch nicht (immer) adäquate Theoretisierung kann einen Wert haben, und sozusagen besonders empirisch adäquate physikalische Theorie “Naturgesetze” (bei der Gravitationstheorie wird dies besonders klar, weil sozusagen ansonsten alles wegfliegen würde) nennt, die Unterscheidung zu anderer “weicherer” physikalischer Theoretisierung aber willkürlich ist.

      “Naturgesetze, die die Natur macht” müssten von einem Welt-Motor, den es ja gibt, verarbeitet werden, Einstein redete hier von kosmischer Intelligenz, betrieben und wie gemeint umfänglich durchgesetzt werden,
      allerdings, allerdings,
      könnte sich dieser Motor in seinem Verarbeitungsverhalten auch gelegentlich ändern, von einem diesbezüglichen “Entscheid” dieses Motors würde Dr. Webbaer an dieser Stelle nicht reden wollen, d.h. dieser Motor könnte auch anders funktionieren, irgendwann und irgendwie, so dass keine ‘Unabänderlichkeit’ (Sie zitierend, werter Herr Stegemann) vorliegen muss, motorenseitig.

      “Black Box”, ginge dieses Konzept an dieser Stelle für die Naturwissenschaft und ihre kleinen Bemühungen?
      Dem erkennenden Subjekt bleibt nur Trial & Error, um sich theoretisierend, physikalischerweise dem Weltbetrieb, der Wahrheit sozusagen, sich anzunähern zu bemühen.

      Insofern wird auch von der szientifischen Methode geredet, das Erkennen meinend, die Naturwissenschaft als Ganzheit sozusagen und als irgendwie wahr ist ja absolut meinend eher ein d-sprachiger Topos.
      In der bekannten Online-Enzyklopädie fehlt bspw. ein diesbezügliches d-sprachiges sog. Lemma, vergleiche :

      -> en.wikipedia.org/wiki/Scientific_method (Warum eigentlich?)

      Mit freundlichen Grüßen
      Dr. Webbaer

      • @Webbaer

        Mensch ist genial-weise ge-/beraten worden er/sie möge(n) glauben und beten!?
        Leider hat Mensch sich seit dem ersten und bisher einzigen geistigen Evolutionssprung (“Vertreibung …”) für ein “Individualbewusstsein” entschieden und somit Glaube und Gebet die … ad absurdum betrieben (im wahrsten Sinne des Triebes) – Motor, Lichtgeschwindigkeit, Endlichkeit/Unendlichkeit: alles Hirngespinste/Geisteskrücken im bewusstseinsschwachen/bewusstseinsbetäubten Wettbewerb!?😎

  20. Man kann die Umwelt auch aus der Sicht der Evolution betrachten und erkennen, wir selbst unterliegen mit unseren Einsichten der Evolution. Unsere Intelligenz wächst, das Vorwissen, genannt Wissenschaft, wächst, unsere Denkmodelle werden immer abstrakter.
    Und die Erfindung der Wasserstoffbombe zeigt, der Mensch wird dem Dämon immer ähnlicher, wir sind so weit, die Erde zerstören zu können.

    Aber jetzt mal weitergedacht. Können wir über die Natur hinausdenken, also etwas erfinden, was es in der Natur nicht gibt ? Was also die Evolution noch nicht erfunden hat ?
    Bei Starwars mit Wurmlöchern und Warp-Antrieb gibt es das schon.

  21. @Stegemann & lioninoil

    1+1=2 – nicht beide, nicht wir, nicht uns, nicht Mensch, bestenfalls ein Umweg, zu versuchen das Geistig-Menschliche zu beschreiben.

    Die Natur / die Schöpfung / das Sein macht keine Gesetze.
    Sie/Es ist und wird, wenn Mensch das Unbeschreibliche erkannt hat, es erschöpft oder zerstört wurde, was kommen muß.

    Meister Joda: “Wurmlöcher und Warp-Antrieb, Mensch erdacht hat er sie?” – “hmmh, haben wollen er möchte sie, aber er finden er sie nicht kann, weil fühlen die Macht er nicht frei genug ist.”😎

    • Aber jetzt mal weitergedacht. Können wir über die Natur hinausdenken, also etwas erfinden, was es in der Natur nicht gibt ? Was also die Evolution noch nicht erfunden hat ?

      Ja, gibt es. Solche Menschen sind entweder tollkühn oder werden Tolkien genannt. Hatte Heywood Floyd die Frage, was da da unten war nicht geantwortet: “Eine Warnung. Da unten ist garantiert etwas. Wir alle haben es gesehen. Wir kennen die Daten. Wir wissen, dass es da ist. Nehmen wir an, nehmen wir nur mal an dass es zu tun hat mit dem Monolithen….”

  22. Das zu Ende gedacht bedeutet: Um über die Zukunft der Welt eine Prognose abzugeben, baut der Dämon eine absolut getreue Kopie der Welt und lässt die “ablaufen”, das heißt, er lässt auf die Kopie dieselben Naturgesetze wirken, die auch im Original gültig sind. Leider geht das nicht schneller als im Original; die Lichtgeschwindigkeit setzt da eine absolute Grenze. [Artikeltext]

    Der “Dämon” könnte seine Kopie-Welt einer anderen Welt “schneller” ablaufen lassen als bspw. diese Welt, er muss nicht per se daran gehindert sein.
    Die Lichtgeschwindigkeit, die Teil seiner Kopie-Welt wäre, nicht, denn er betreibt ja Welten, steht Welten erst einmal außen vor, als Betreiber von Welt(en).

    Er steht womöglich selbst in einer Welt, die betrieben wird, von anderen, die nicht “Dämonen” sein müssen, korrekt, sich darum womöglich nicht einmal bewusst.

    Das Denken in Welten ist schwierig, es gibt neben denkbaren Welten auch noch unterschiedliche Weltbilder (auf erkennende Subjekte gemünzt), Philip K. Dick hat sich hier verdient gemacht, Terry Pratchett hat “nur” eine magische Welt erschaffen.

    Mit freundlichen Grüßen + einen schönen “Tag des Herrn” noch !
    Dr. Webbaer

  23. *
    Die Lichtgeschwindigkeit, die Teil seiner Kopie-Welt wäre, [hindert] nicht


    Generell hat sich ein wie hier gemeinter “Dämon” nicht an Gesetzmäßigkeiten zu halten, denn die sind ja gesetzt, wie der Name schon klar stellt, der “Dämon” kann wahlfrei setzen, was er aber nicht kann, ist anders als beschreibbar vorzugehen, er kann nicht die Logik, die Sprachlichkeit, die beschreibende, brechen, jedenfalls nicht so, wie beschrieben werden kann, lol.

    Echte sozusagen Paradoxien können also nicht gebrochen werden, in ihrer Beschreibbarkeit, Personen, die so zu agitieren versuchen, fordern insofern, sozusagen rechtzeitig, die Abkehr von individueller Vernunft, vom Sapere-Aude.
    Ja, das kommt, auch heute noch, in der BRD sogar zunehmend, wie hier befunden wird, vor.

    Was denkbar ist, ist immer auch möglich, was (noch nicht) denkbar ist, ist ebenfalls potentiell möglich, wenn aber eben noch nicht (von allen zumindest) denkbar.
    Das Verhältnis von Denkbarkeit und Möglichkeit ist (für einige) interessant.

    • Tja – an solche “übergesetzlichen” Dämonen zu denken widerspricht (so weit ich sehe) nicht den Regeln der Logik. Ich fürchte nur, es ist müßig.
      Nehmen wir mal an, wir seien nur Insassen einer Welt, die von irgendwelchen übermenschlichen Intelligenzen geschaffen und gelenkt wird. Etliche Science-fiction-Autoren haben diese Idee weitergesponnen, und einige ihrer Aspekte haben sogar einen speziellen Charme, wie ich 2003 in einem Essay ausgearbeitet habe. Nur: Was sagt uns das für Laplace und seine Epigonen?
      Spinnen wir weiter: Ein Dämon in seinem eigenen Universum lässt unser Universum ein Weilchen in die Zukunft laufen, schaut sich das Ergebnis an, drückt dann den großen Reset- (oder sagen wir Backup-)Knopf, mit dem er uns in die Gegenwart zurückversetzt, und teilt uns dann in überzeugender Weise mit, was passieren wird, wenn wir so weitermachen. (Also nicht bloß irgendeinem Guru im Traum erscheinen, sondern in einer gigantischen E-Mail unbekannter Herkunft, hinterlegt mit so viel Fakten, dass der skeptischste Wissenschaftler das nicht mit einem irdischen Komplott oder so etwas erklären kann – die Einzelheiten der Story müssten noch etwas ausgearbeitet werden.) Daraufhin überlegen wir uns das mit dem Atomkrieg und dem Klimawandel noch einmal, und entgegen der total determinierten Zukunft überlebt die Erde.
      Das würde vielleicht sogar einen schnuckeligen Roman abgeben; aber für die Realität? Bisher ist kein dämonischer Eingriff der geschilderten Art überliefert. Kann der noch kommen? Kann das passieren, dass ein Dämon von jetzt auf gleich an einer Naturkonstanten herumfummelt und daraufhin die Welt sich ganz anders verhält?
      Gegen solche Ideen hilft keine Logik, sondern nur Ockhams Rasiermesser: Von zwei Theorien, die das Gleiche erklären, ist die einfachere zu bevorzugen. (Die einfachere sagt in dem hier diskutierten Fall: Solche Überuniversen mitsamt Dämonen gibt’s nicht.) Und die Begründung für Ockhams Rasiermesser? Ist kein Tiefsinn, sondern schlichte Denkökonomie. Wenn wir uns auf derlei fantastische Vorstellungen einlassen, müssen wir auch die verrücktesten Ideen gelten lassen; und wenn wir über alle die angemessen nachdenken wollen, kommen wir zu gar nichts mehr, und zu vernünftiger Wissenschaft erst recht nicht.
      Man verzeihe mir, wenn ich für mein Teil bei der Wissenschaft bleibe.

      • Lieber Herr Dr. Christoph Pöppe, hierzu noch kurz, Dr. Webbaer hat Ihr dankenswerterweise erfolgtes Re-Feedback ein wenig zusammengeschnitten :
        ,

        Tja – an solche “übergesetzlichen” Dämonen zu denken widerspricht (so weit ich sehe) nicht den Regeln der Logik. Ich fürchte nur, es ist müßig.
        […]
        Gegen solche Ideen hilft keine Logik, sondern nur Ockhams Rasiermesser: Von zwei Theorien, die das Gleiche erklären, ist die einfachere zu bevorzugen.
        […]
        Man verzeihe mir, wenn ich für mein Teil bei der Wissenschaft bleibe.

        …und Dr. Webbaer meint Sie ein wenig zu kennen, haben Sie vielleicht bisher schon bei den Scilogs.de kommentiert, unter Zuhilfenahme eines Pseudonyms? [1]

        Die Metaphysik ist in gewissem Sinne ‘müßig’, sie ist allerdings schon Gesamtfeder sozusagen der allgemeinen szientifischen [2] Bemühung.
        An irgendetwas muss ja geglaubt werden, in aufklärerischer Hinsicht und auch das Gesellschaftliche meinend, wenn also an die “Schöpfungsgeschichte” und an Anderes im skeptizistischen Sinne nicht mehr geglaubt wird.

        Chesterton war hier, wie Dr. Webbaer findet, recht “trocken”, er sagte :
        -> ‘Wenn Menschen aufhören, an Gott zu glauben, dann glauben sie nicht an nichts, sondern an alles Mögliche.’ [Quelle : gerne selbst heraussuchen]

        Occam’s Razor ist (nicht nur aus diesseitiger Sicht) als Rat für Theoretisierende zu sehen mit den zur Hand genommenen Entitäten sparsam zu sein, ein sog. Sparsamkeitsprinzip liegt vor, dieser “Razor” dient aber nicht dazu (empirisch adäquaten oder eben metaphysischen) Theorien die (mögliche) Richtigkeit abzusprechen.

        Was vorzuhalten bleibt, naturwissenschaftlich, ist “Trial & Error”, Datenlagen meinend und darauf aufsetzende Theoretierung.
        Wobei derartige Theoretierung aus skeptizistischer Sicht immer ein mögliches Verfallsdatum hat und insofern eine Veranstaltung stattzufinden hat, die sich der Ratio der daran beteiligten Subjekte folgend sog. Wahrheit nähert, sich in einem sozusagen stetigen Näherungsprozess befindet, böse formuliert : der Weg das Ziel zu sein hat.

        Mit freundlichen Grüßen und einen schönen “Tag des Herrn” wünschend, Ihnen alles Beste sowieso,
        Dr. Webbaer (der allerdings Humanist ist)

        [1]
        Die Verwendung von Pseudonymen gilt gesellschaftshistorisch sozusagen als erlaubt bis edel.
        Gerne, sofern, wie vermutet, geschehen, ein bloßes Zeichen geben, Dr. W wird nicht irgendwie “nachkarten”.

        [2]
        ‘Scientia’ vs. d-sprachig : Wissenschaft, prozedural gemeintes Erkennen ist für einige sozusagen cooler als zu wissen. *
        An dieser Stelle ist auch das sog. Höhlengleichnis womöglich beachtenswert.

        *
        D-sprachig hält sich ja zäh das Konzept des Wissens, vergleiche hiermit :

        -> https://en.wikipedia.org/wiki/Scientific_method (Warum, wth!, steht hier kein d-sprachiges sog. Lemma in der bekannten Online-Enzyklopädie bereit?)

  24. @Martin Holzherr / 19.09.2020, 15:53 o’clock

    Wer zu einer Diskussion um Determinismus ausgerechnet Laplace als Aufhänger und Grundlage nimmt — egal ob nun hinsichtlich der Physik oder, wie schon so oft erlebt, bezüglich der Neurobiologie — macht damit schon vom Ansatz her etwas ziemlich falsch. Laplace hat dabei doch etliche Fehler gemacht, auf die man noch immer leicht hereinfallen kann, wenn man ihm folgt.

    Ein Kardinalfehler bei Laplace ist es aus heutiger Sicht, dass er zwischen Phänomenen und ihren theoretisierten Modellen nicht konzeptionell unterschieden hat. Die einzigen numerischen Grössen, die einem Phänomen direkt zugeordnet werden können, sind durch gewisse Zähl- oder Messoperationen erhaltene Beobachtungsdaten, vulgo “Messwerte”. Solche Messwerte (sofern sie nicht ausnahmsweise ganzzahlig sind) werden heute routinemässig stets zusammen mit einer Bezifferung der signifikanten Dezimalen angegeben, und das werden immer nur endlich viele Stellen sein, wie gut auch immer man irgendwas in Zukunft noch wird messen können.

    Reelle Zahlen in der Physik finden ausschliesslich die Theoretiker in mathematischen Modellen. Das ist dann aber dadurch bedingt, dass sich die Physik halt der Mathematik als einem insgesamt bewährten Modellbaukasten bedient. Wenn es nun darum geht, irgendwelche aus einem abstrakten Modell berechnete Werte mit am konkreten Phänomen gemessenen Werten zu vergleichen, dann darf man freilich von den berechneten Werten nicht mehr an Dezimalen übernehmen, als die Messung es für die gemessenen Werte hergibt. Das heisst, man muss dabei error bars einbeziehen und gegebenenfalls auf endlich viele Stellen abschneiden — doch wo soll dabei das Problem sein?

    Popper hat bei seiner Def. von Scientific Determinism solche Gesichtspunkte berücksichtigt, und sein Daemon kommt dann auch überhaupt nicht in die Verlegenheit, irgendwas mit unendlich vielen Stellen rechnen zu müssen. Das meinte ich mit der Bemerkung, die beiden Autoren hätten da einiges verpasst.

    In der math. Theorie wird ein dynamisches System deterministisch genannt, wenn es nicht stochastisch ist. Damit wird das Prädikat `determinstisch’ methodologisch gefasst und nicht an die Eigenschaft `vorhersagbar’ geknüpft oder gar mit `determiniert’ gleichgesetzt.

    Umgekehrt hat eine rein mathematisch formulierbare Frage nach Vorhersagbarkeit bei dynamischen Systemen in der Tat info.-theoretische Aspekte. Letztlich läuft es bei der Vorhersagbarkeit stets darauf hinaus, ob die Information über einen zeitlich nachfolgenden Systemzustand bereits komplett aus der Kenntnis eines gegebenen Anfangs-Zustandes herausgelesen werden kann oder nicht. Bei stochastischen Systemen ist das offenkundig nicht der Fall — da wird ja zwischendurch irgendwie gewürfelt — aber auch bei deterministischen Systemen ist das halt nicht immer der Fall, was sich Laplace mit seinem zeitgenössisch begrenzten Wissen über Bewegungsgleichungen nur noch nicht vorstellen konnte.

  25. “Was sagt uns das für Laplace und seine Epigonen?”

    “Es war seit jeher den Epigonen vorbehalten, befruchtende Hypothesen des Meisters in starres Dogma zu verwandeln und satte Beruhigung zu finden, wo ein bahnbrechender Geist schöpferische Zweifel.” Rosa Luxemburg 😎

  26. chrys,
    deterministisch kann man ein System nur nennen, wenn man die zugrundeliegenden Konstanten und Gesetzmäßigkeiten absolut annimmt. Da tut kein vernünftiger Wissenschaftler.
    Je tiefer man in die Abhängigkeiten eintritt, desto unbestimmter werden sie und aus den deterministischen Systemen werden stochastische Systeme.
    Man weiß nicht, wann und wo der nächste radioaktive Atomkern zerfällt. Ja, die Annahme eines Atomkernes ist auch nur eine Arbeitshypothese, noch kein Mensch hat einen Atomkern ! gesehen.
    Und der Dämon selbst wundert sich und sagt: “Sapperlott, bin ich vielleicht gar nicht da ?”

    • “Oh fein.” sagt der Unfallverursacher. “Eigentlich trage ich für den Unfall gar keine Verantworung. Schließlich war es lediglich eine Frage der Zeit und Wahrscheinlichkeit, bis etwas passiert.”

      Und der Dämon denkt nach und springt wie von der galaktischen Tarantel gestochen empor: “Ihr seid für alle Zeiten mein!. Ich erschaffe einen weiteren Menschen. Fortan sollt Ihr ihn Andrei Andrejewitsch Markow nennen.”

      • “Oh fein”, sagt der Geist des Zufalls. Eigentlich trage ich für den Urknall keine Schuld. Schließlich war es lediglich eine Frage der Zeit und der Wahrscheinlichkeit, bis etwas passiert – Und der Geist denkt nach und springt wie von der galaktischen Tarantel gestochen empor: “Ihr seid für alle Zeiten mein! Ich erschaffe einen Sündenbock. Fortan sollt Ihr ihn Gott nennen und …!”
        🤔🤭🤫???

  27. “… hinterlegt mit so viel Fakten, dass der skeptischste Wissenschaftler das nicht mit einem irdischen Komplott oder so etwas erklären kann – …”

    Das “irdische Komplott”, gegen die Fakten “wie im Himmel all so auf Erden”, ist die Institution Kirche (die die Grundlage für Ethik, Moral, Wissenschaft ist!), die die Fehlinterpretationen der biblischen Texte, mit dem unwahrheitlichen Dogma “Gottes Wege sind unergründlich” bis zum “Jüngsten Gericht” verwaltet, wo die Konfusion / der “Tanz um …” nach der “Vertreibung”, zwar mit viel “Spiegeltext”, aber eigentlich doch ganz einfach / absolut ergründlich dargestellt wurde: Vernunftbegabung zu Verantwortungsbewusstsein, für ein wirklich-wahrhaftiges Zusammenleben als “Ganzheitlichkeit Mensch” in Gemeinschaftseigentum OHNE wettbewerbsbedingte Symptomatik, Moses und Jesus, zwar mit verschiedenen Methoden, beide vergleichsWeise Sozialisten.

    “Man verzeihe mir, wenn ich für mein Teil bei der Wissenschaft bleibe.”

    Schon verziehen, es ist im “Individualbewusstsein”, wo Kommunikation in geistig-heilendem Selbst- und Massenbewusstsein sein sollte, schließlich ALLES nur Bewusstseinsbetäubung.

  28. Chrys schrieb (20.09.2020, 17:39 o’clock):
    > […] Die einzigen numerischen Grössen, die einem Phänomen

    … bzw. einem Versuch, bzw. den (nicht “numerischen”, sondern “bit-artigen”) Beobachtungsdaten eines Versuches …

    > direkt zugeordnet werden können, sind durch gewisse Zähl- oder Messoperationen erhaltene […] “Messwerte”.
    > Solche Messwerte (sofern sie nicht ausnahmsweise ganzzahlig sind) werden heute routinemässig stets zusammen mit einer Bezifferung der signifikanten Dezimalen angegeben, und das werden immer nur endlich viele Stellen sein […]

    Nicht vergessen:
    Insbesondere beim Messen von Dauern (bzw. Verhältniswerten von Dauern) und folglich auch beim Messen von Gangraten (vulgo “Schnelligkeiten”) von Uhren bzw. Prozessen mit den Messoperatoren der (S)RT enthält der jeweilige Messwert einen Term \(\sqrt{1 – \beta^2}\) als Faktor (der “sich” nicht unbedingt “wegkürzt”).
    Für viele rationale Werte im Wertebereich der Messgröße \(\hat \beta\) (als besonders einfaches Beispiel meinetwegen der denkbare Messwert \(\beta = \frac{1}{2}\)) ist der entsprechende Wert des Terms \(\sqrt{1 – \beta^2}\) folglich ausdrücklich keine rationale Zahl.

    • p.s.
      Chrys schrieb (20.09.2020, 17:39 o’clock):
      > Wenn es nun darum geht, irgendwelche aus einem abstrakten Modell berechnete Werte mit am konkreten Phänomen [Versuch] gemessenen Werten zu vergleichen, dann darf man freilich von den berechneten Werten nicht mehr an Dezimalen übernehmen, als die Messung es für die gemessenen Werte hergibt.

      Und auch umgekehrt.
      Es besteht ja durchaus Interesse an Modellen, in denen Zusammenhänge zwischen (bestimmten Werten von) bestimmten kompatiblen Messgrößen mathematisch eher kompliziert sind, so dass ein explizites und beliebig genaues Berechnen von Werten der einen Messgröße aus gegebenen Werten der anderen bis auf Weiteres gar nicht praktikabel sein mag (vulgo “theoretical uncertainty”).

      Zu beachten ist auch, dass Messungen einer bestimmten Messgröße in Anwendung des entsprechenden definitiven Messoperators bisweilen ebenfalls gar nicht praktikabel sind,
      und dass stattdessen “vereinfachte Operatoren” angewandt werden, um (numerische) Versuchsergebnisse zu ermitteln,
      die folglich von dem wahren Messwert der betreffenden Messgröße im betreffenden Versuch abweichen können.
      (Sofern der betrachtete Versuch jeweils überhaupt ein Eigenzustand des definitiven Operators der betreffenden Messgröße war und folglich einen bestimmten Wert — den wahren Wert — hatte.)

      Die Abweichung eines Versuchsergebnisses vom entsprechenden (wahren) Messwert wird “systematisch” genannt …

  29. @Frank Wappler / 21.09.2020, 10:34 o’clock

    »… sondern “bit-artigen” …«

    Das Wort 1bit-artig’ kenne ich nicht. Stammt das von John Wheeler? Oder Elon Musk?

    Als versierter Ableser von Zeigerstellungen solltest Du eigentlich darauf bestehen, dass da nicht \(\beta\), sondern eher wohl eine Geschwindigkeit \(v\) die zu messende Grösse ist. Und aus irgendwelchen Zeigerstellungen ohne eine Angabe von Measurement Errors einen schlichten Wert wie \(v = c/2\) als Messergebnis abgelesen haben zu wollen, wäre doch gewiss nicht so umwerfend professionell, oder?

    In einem mathematischen Modell kannst Du mit einem exakten Wert \(\beta = \frac{1}{2}\) jonglieren, wie Du willst — no problem. Nur solltest Du das abstrakte Modell besser nicht mit einem konkreten Phänomen verwechseln und dann womöglich Eigenschaften des Modells unreflektiert dem Phänomen zuschreiben.

    Da kommt mir gerade noch eine häufig gestellte Frage in den Sinn:

    Q: Was ist der Unterschied zwischen einem Physiker und einem Ingenieur?
    A: Ein Ingenieur hält seine Gleichungen für eine Näherung an die Realität. Ein Physiker hält die Realität für eine Näherung an seine Gleichungen.

    Okay, das war früher mal ein Witz. Ob es heute noch immer einer ist, bin ich mir inzwischen gar nicht mehr so sicher…

    • Q: Was ist der Unterschied zwischen einem Physiker und einem Ingenieur?
      A: Ein Ingenieur hält seine Gleichungen für eine Näherung an die Realität. Ein Physiker hält die Realität für eine Näherung an seine Gleichungen.

      Der Ingenieur hält das eine wie das andere für Veranstaltung.

  30. Chrys schrieb (22.09.2020, 11:31 o’clock):
    > [… »die (nicht “numerischen”, sondern “bit-artigen”) Beobachtungsdaten eines Versuches«… ] Das Wort “bit-artig” kenne ich nicht.

    Oh — dann eben: “Boolesche” Beobachtungsdaten, anstatt “numerische”.

    > Stammt das von John Wheeler? Oder Elon Musk?

    Die Booleschen Beobachungsdaten, auf die ich mich oben (21.09.2020, 10:34 o’clock) im Zusammenhang mit der (S)RT bezog, wurden (insbesondere) von Einstein “Koinzidenz-Bestimmungen” genannt, auf die im Rahmen der RT bekanntlich “alle unsere [weiteren] raum-zeitlichen Messungen hinauslaufen”.
    (Dabei ist selbstverständlich zugestanden, dass Einsteins Festsetzung äußerst unoriginell ist. Das Bedeutende an Einsteins Festsetzung ist ja gerade, dass sie auf’s Äußerste unoriginell ist …)

    > […] solltest Du eigentlich darauf bestehen, dass da nicht \(\beta\), sondern eher wohl eine Geschwindigkeit \(v\) die zu messende Grösse ist.

    Messgrößen der SRT sind natürlich beide; der Unterschied zwischen \(\beta\) und \(c \, \beta\) (vulgo \(v\)) ist ja eine reine Formalität.
    Und wenn es im Folgenden um Einzelheiten des Messens (also der erforderlichen Beobachtungsdaten und der darauf anzuwendenden Bewertungs-Operatoren) geht,
    sollte nicht unterschlagen werden, dass es sich jeweils um einen Durchschnittswert eines bestimmten Beteiligten, z.B. “\(P\)”, hinsichtlich bestimmten geeigneten, d.h. gegenüber einander ruhenden Beteiligten, insbesondere z.B. “Start \(A\)” und “Ziel \(B\)”;
    so dass im entsprechenden konkreten Versuch also der reelle Wert \(\beta_{AB}[ \, P \, ]\) bzw. der Durchschnitts-Geschwindigkeits-Wert
    \(v_{AB}[ \, P \, ] \equiv c \, \beta_{AB}[ \, P \, ]\)
    zu messen ist.

    > Und aus irgendwelchen Zeigerstellungen ohne eine Angabe von Measurement Errors einen schlichten Wert wie \(v = c/2\) als Messergebnis abgelesen haben zu wollen, wäre doch gewiss nicht so umwerfend professionell, oder?

    Sehr richtig. Aber es geht doch stattdessen darum, dass überhaupt, und wie konkret, unter Anwendung der definitiven Messoperation aus gegebenen Koinzidenz-Bestimmungen ermittelt werden kann, ob \(\(v_{AB}[ \, P \, ]\) den wahre Wert \(c/2\) hat! Und dazu gehört:

    – selbstverständlich die Koinzidenzbestimmung, dass \(A\) und \(P\) einander getroffen (und anschließend voneinander getrennt) hatten,

    – selbstverständlich die Koinzidenzbestimmung, dass \(B\) und \(P\) (anschließend) einander getroffen hatten,

    – zu messen, dass \(A\) und \(B\) durchwegs gegenüber einander ruhten. (Wie allein dies auf Koinzidenzbestimmungen hinausläuft, ist bekanntlich ein Thema für sich.),

    – um beim einfachsten Fall zu bleiben: einen weiteren Beteiligten \(M\) als “Mitte zwischen” \(A\) und \(B\) zu identifizieren. Zu den zahlreichen dafür erforderlichen Koinzidenz-Bestimmungen gehören u.a. ausdrücklich:

    – dass \(A\) koinzident (d.h. zusammen) wahrnahm,
    * dass \(B\) wahrgenommen hatte, dass sich \(A\) und \(P\) voneinander trennten, und
    * dass \(M\) wahrgenommen hatte, dass \(A\) wahrgenommen hatte, dass \(M\) wahrgenommen hatte, dass sich \(A\) und \(P\) voneinander trennten,

    und auch

    – dass \(M\) koinzident (d.h. zusammen) wahrnahm,
    * dass \(A\) wahrgenommen hatte, dass \(M\) wahrgenommen hatte, dass sich \(A\) und \(P\) voneinander trennten, und
    * dass \(B\) wahrgenommen hatte, dass \(M\) wahrgenommen hatte, dass sich \(A\) und \(P\) voneinander trennten;

    und schließlich ausdrücklich:

    – dass \(B\) koinzident (d.h. zusammen) wahrnahm,
    * dass \(P\) eintraf und
    * dass * dass \(M\) wahrgenommen hatte, dass \(B\) wahrgenommen hatte, dass sich \(A\) und \(P\) voneinander trennten,

    und selbstverständlich auch

    – dass \(P\) koinzident (d.h. zusammen) wahrnahm,
    * dass \(B\) eintraf und
    * dass * dass \(M\) wahrgenommen hatte, dass \(B\) wahrgenommen hatte, dass sich \(A\) und \(P\) voneinander trennten.

    In Konsequenz ist die Belegungsdauer der “Reisestrecke zwischen” Start \(A\) und Ziel \(B\) durch \(P\) gleich der Pingdauer \(A\)s bzgl. \(B\) als auch gleich der Pingdauer \(B\)s bzgl. \(A\),
    den gegenüber einander ruhenden Beteiligten \(A\) und \(B\) kann eine bestimmte “Distanz voneinander” zugeschrieben werden, die definitionsgemäß (als “chronometrische Distanz”) proportional zur halben Pingdauer untereinander ist,
    und das Verhältnis zwischen dieser halben Pingdauer und Belegungsdauer der “Reisestrecke” \(AB\) durch \(P\) hat folglich den Wert \( \beta_{AB}[ \, P \, ] = 1/2.\)

    Und was immer mit anderen Bewertungsoperationen aus anderen Beobachtungsdaten (ggf. einschl. numerischen “Ablesewerten”) ermittelt werden mag, hat (zwangsläufig) methodische Unsicherheiten hinsichtlich des definitiven Messoperators (die sich u.U. in “statistische” und “systematische” trennen lassen) bzw. (ggf.) eine Abweichung vom wahren Wert der betreffenden Messgröße im betreffenden Versuch.

    p.s.
    > […] Ein Ingenieur hält seine Gleichungen für eine Näherung an die Realität. Ein Physiker hält die Realität für eine Näherung an seine Gleichungen. Okay, das war früher mal ein Witz. […]

    Physiker halten die Realität für die Gesamtheit von Beobachtungsdaten und den Messwerten, die sich durch Anwendung nachvollziehbarer Bewertungsoperatoren daraus ermitteln lassen.
    Und dieser Realitäts-Begriff ermöglicht Ingenieuren (einschl. diversen *ologen) überhaupt erst, ihre jeweiligen Modelle ernsthaft als Näherungen “an die Realität” aufzufassen, daran zu testen, und ggf. zu verwerfen.

    • Frank Wappler schrieb (22.09.2020, 22:32 o’clock):
      > Chrys schrieb (22.09.2020, 11:31 o’clock):
      > > […] Und aus irgendwelchen Zeigerstellungen ohne eine Angabe von Measurement Errors einen schlichten Wert wie \(v = c/2\) als Messergebnis abgelesen haben zu wollen, wäre doch gewiss nicht so umwerfend professionell, oder?

      > Sehr richtig. Aber es geht doch stattdessen darum, dass überhaupt, und wie konkret, unter Anwendung der definitiven Messoperation aus gegebenen Koinzidenz-Bestimmungen ermittelt werden kann, ob

      … \(v_{AB}[ \, P \, ]\) den wahren Wert \(c/2\) hat!

      > Und dazu gehört: […]

  31. @Frank Wappler / 22.09.2020, 22:32 o’clock

    Dein \(\beta\) ist doch ein Verhältnis zweier Geschwindigkeiten und als solches unbedingt das Ergebnis einer Rechen- und nicht etwa einer direkten Messoperation. Und mit dem numerischen Wertebereich \(0 \le \beta \lt 1\) ist das ganz gewiss auch keine Boolesche Grösse.

    Wie präzise meinst Du denn, Deine »Koinzidenz-Bestimmungen« vornehmen zu können? Punktgenau wie Einstein, wenn er von “koinzidierenden Punktereignissen” spricht? “Punktgenau” geht für Dich wie für ihn nur in einem abstrakten Modell. Jegliche Wahrnehmungen, Beobachtungen, Messoperationen, die sich in der phänomenalen “Welt” ereignen, sind mehr oder weniger unscharf. Und deswegen haben die Metrologen dann ja die error bars…

  32. Chrys schrieb (23.09.2020, 17:41 o’clock):
    > Dein \(\beta\) ist doch ein Verhältnis zweier Geschwindigkeiten

    Ja; und das deutet zumindest dem oberflächlichen Wortlaut nach eine gewisse Ähnlichkeit zwischen “meinem \(\beta\)” und “Einsteins \(\beta\)” und womöglich sogar “Lorentz-Fitzgeralds \(\beta\)” an.

    > und als solches unbedingt das Ergebnis einer Rechen- und nicht etwa einer direkten Messoperation.

    Ich habe die Einzelheiten der Messung des Wertes \( \beta_{AB}[ \, P \, ] = 1/2\) ja nicht umsonst im vorausgehenden Kommentar (22.09.2020, 22:32 o’clock, mit 22.09.2020, 22:37 o’clock) dargelegt.

    Das Herauskürzen des (definitionsgemäß von Null verschiedenen) Symbols \(c\),
    aus dem Verhältnis \((c \, \beta) / c\) bzw. aus dem ausführlichen Ausdruck
    \( \left(\frac{c/2 \text{Pingdauer}\_AB}{\text{Belegungsdauer}\_AB[ \, P \, ]} \right) / c \)
    ist wohl kaum eine nenneswerte Rechnung.

    Und dass es sich beim Symbol \(c\), dass zunächst in der chronometrischen Distanz auftritt (um Pingdauern gegenüber diversen anderen Dauern “dimensional” hervorzuheben), zugleich um den Wert der Signalfront-Geschwindigkeit handelt, ist wohl eher eine “gedanken-experimentelle Herleitung” und “zwangsläufig” zu nennen, als ein “Resultat von ergebnisoffener direkter Messung“.

    p.s.
    > Und mit dem numerischen Wertebereich \( 0 \le \beta < 1 \) ist das ganz gewiss auch keine Boolesche Grösse.

    Hab ich das etwa behauptet ?!?

    Es sind die Koinzidenz-Bestimmungen, also die in der RT relevanten Beobachtungsdaten, die Boolesche Werte haben! Um eine der (zahlreichen) oben genannten nochmals symbolisch zu repetieren:

    \((B \_ P \equiv B \circledR \_ M \_ \circledR \_ B \_ \circledR \_ A \circ P) = \text{true}.\)

    > Wie präzise meinst Du denn, Deine »Koinzidenz-Bestimmungen« vornehmen zu können?

    Dürfte ich beim Versuch, Deine Frage zu beantworten, voraussetzen, dass Du (wie ich) einen “präzisen” (Booleschen!) Begriff von “Koinzidenz” hast ?

    Falls ja, dann erübrigt sich die Frage offensichtlich.
    Falls nein, dann mach doch bitte man zumindest einige Vorschläge, welche Art von Antwort Du (mindestens) verständlich und (bestenfalls sogar) akzeptabel fändest — und natürlich ohne dabei bei mir Begriffe vorauszusetzen, über Du selbst gar nicht verfügst.
    (So könnten wir womöglich zu einer Verallgemeinerung der ART gelangen … &#59)

    > Jegliche Wahrnehmungen, Beobachtungen, Messoperationen, die sich in der phänomenalen “Welt” ereignen, sind mehr oder weniger unscharf.

    Dass die Koinzidenz oder Nicht-Koinzidenz von Wahrnehmungen durch je einen Beteiligten “scharf” (Boolesch) beurteilt wird, schließt ja keineswegs aus, dass verschiedene Beteiligte mit ungleicher Auflösung wahrnehmen und über Koinzidenz urteilen können, sondern ermöglicht überhaupt erst, auch Auflösung als Messgröße zu definieren und entsprechende Vergleiche anzustellen.

    > Und deswegen haben die Metrologen dann ja die error bars…

    Jene, die der Methodologie eines Louis Essen zu folgen versuchen, sollten ihre Fehlerbalken schon aus reiner Vorsicht aufblähen. Uns anderen, damit Unzufriedenen, stehen die Messoperationen der RT zur Verfügung.

  33. @Frank Wappler / 24.09.2020, 09:25 o’clock

    »Falls nein, dann mach doch bitte man zumindest einige Vorschläge, welche Art von Antwort Du (mindestens) verständlich und (bestenfalls sogar) akzeptabel fändest — und natürlich ohne dabei bei mir Begriffe vorauszusetzen, über Du selbst gar nicht verfügst.«

    Was Einstein mit “koinzidierenden Punktereignissen” in seiner Grundlage (1916) gemeint hat, ist mir vom Wortlaut her schon verständlich. Allerdings, wie Marco Giovanelli (Nothing but Coincidences: The Point-Coincidence Argument and Einstein’s Struggle with the Meaning of Coordinates in Physics) schreibt,

    [T]here is no evidence that Einstein appealed to the observability of coincidences again besides a cursory remark in his 1919 Berlin lectures on general relativity.

    Einstein hatte mit seinen Koinzidenzen wohl einige physik-philosophische Kontroversen ausgelöst, dann aber, wie’s aussieht, selber nichts weiter an Einsichten dazu geliefert.

    Insofern es um die Frage geht, was man bei der Mathematik für Physiker (didaktisch) generell besser machen könnte oder sollte, dazu gibt’s ja schon einige bedenkenswerte Überlegungen. David Hestenes redet dabei plakativ gar vom “coordinate virus“; siehe seine Oersted Medal Lecture 2002 (unter `Overview’ auf der verlinkten Seite).*

    * Vielleicht findest Du da ja noch weitere gute Argumente, um Markus Pössel zu einem Beitrag über Dein bevorzugtes Koordinaten-Thema zu motivieren.

  34. Chrys schrieb (28.09.2020, 17:12 o’clock):
    > Was Einstein mit “koinzidierenden Punktereignissen” in seiner Grundlage (1916) gemeint hat, ist mir vom Wortlaut her schon verständlich.

    Soso. Dass Dir Einsteins Begriff der »Koinzidenz« bzw. eines »Koinzidenz-Ereignisses« verständlich ist, gestehe ich Dir (so wie im Prinzip jedem) gerne zu.

    Wie aus der Menge aller (gegebenen) Koinzidenz-Ereignisse die Teilmenge derjenigen herauszusuchen wäre, die insbesondere »Punkt«-Ereignisse sind, erscheint mir allerdings keineswegs selbstverständlich, sondern muss und kann entsprechend Einsteins Forderung wiederum auf Koinzidenz-Bestimmungen zurückgeführt werden. Bisher hat mich das zwar nicht besonders interessiert … Aus dem Stegreif könnte ich mir dafür folgende Definition vorstellen:

    Für die gegebene Menge \(\mathcal P\) aller verschiedener identifizierbarer Beteiligter, alias »materieller Punkte«, und die gegebene Menge \(\mathcal E \subset \text{Potenzmenge}[ \, \mathcal P \, ]\) von (unterscheidbaren) Koinzidenzereignissen,
    ist ein Koinzidenzereignis \(s \in \mathcal E\) genau dann ein “Punkt”-Ereignis, falls:

    \( \forall \, B \in s : \)

    \((\exists \, Q \in \mathcal P : (\forall \varepsilon \in \mathcal E : Q \in \varepsilon \implies B \in \varepsilon)) \)
    \(\implies\)
    \((\exists \, J \in \mathcal P : ((\forall \varepsilon \in \mathcal E : J \in \varepsilon \implies B \in \varepsilon) \text{ und } (J \in s))).\)

    p.s.
    > Marco Giovanelli (Nothing but Coincidences: […]) schreibt,

    [T]here is no evidence that Einstein appealed to the observability of coincidences again besides a cursory remark in his 1919 Berlin lectures on general relativity.

    Das ließe sich z.B. anhand der “Digital Einstein Papers”-Webseite recht einfach recherchieren. (Der Legende nach hat Einstein nach 1916/17 ohnehin so gut wie nichts Nennenswertes geleistet.)

    Viel interessanter sind doch Einsteins diesbezügliche Beiträge bis 1916/17!, insbesondere:

    – Einsteins Forderung nach “Transitivität des Synchronismus” (1905), womit für jeden Ablesewert \(t_C\) der ausdrückliche Appell verbunden ist, dass \(C\) eine bestimmte Signalanzeige \(A\)s (nämlich die Anzeige \( A_{\sigma} \) für die der ihr zugeordnete Ablesewert sowie der ihrer Ping-Echo-Anzeige zugeordnete Ablesewert die Beziehung \(tA[ \, A_{\sigma} \, ] + tA[ \, A_{{\hphantom{.}\text r \hphantom{.}}\llap{\bigcirc} C {\hphantom{.}\text r \hphantom{.}}\llap{\bigcirc} A \sigma} \, ] = 2 \, t_C \) erfüllen), sowie eine bestimmte Signalanzeige \(B\)s (nämlich die Anzeige \( B_{\xi} \) für die der ihr zugeordnete Ablesewert sowie der ihrer Ping-Echo-Anzeige zugeordnete Ablesewert die Beziehung \(tB[ \, B_{\xi} \, ] + tB[ \, B_{{\hphantom{.}\text r \hphantom{.}}\llap{\bigcirc} C {\hphantom{.}\text r \hphantom{.}}\llap{\bigcirc} B \xi} \, ] = 2 \, t_C \) erfüllen), koinzident wahrnahm, und

    – ganz direkt in Einsteins Gleichzeitigkeits-Definition (1916/17); in moderner (und allgemeinverständlicher) Formulierung:

    Mit Beteiligten A und B, die durchwegs gegenüber einander ruhten, und M als Mitte zwischen einander identifizierten, heißen eine bestimmte Blitz-Signalanzeige As und eine bestimmte Blitz-Signalanzeige Bs genau dann “einander gleichzeitig”, falls M diese beiden Anzeigen koinzident (d.h. zusammen) wahrnahm.

    .

    Das allgemeine Motif solcher Koinzidenz-Bestimmungen lässt sich zwar u.a. bei A. A. Robb (Fig. 22) oder J. W. Schutz (Fig. 67) wiedererkennen. Seine vielfache Anwendung als Ping-Koinzidenz-Gitter, und insbesondere die Betrachtung tetrahedral-oktahedraler Ping-Koinzidenz-Gitter zur Definition von (hinreichend vielen) Beteiligten “sitting still (and flat) to each other”, d.h. also zur Definition von Inertialsystemen, ist mir jedenfalls unter diesen Namen in der Literatur nicht bekannt.

    p.p.s.
    > Insofern es um die Frage geht, was man bei der Mathematik für Physiker (didaktisch) generell besser machen könnte oder sollte, dazu gibt’s ja schon einige bedenkenswerte Überlegungen. […]

    Der konsequente Ansatz (dem deshalb auch weitere Vorzüge nachgesagt werden) ist offensichtlich der von Einstein (1916) formulierte: Dass alle Feststellungen betreffend geometrische Beziehungen zwischen identifizierbaren (materiellen) Beteiligten ausschließlich auf Koinzidenz-Bestimmungen hinauslaufen.

    p.p.p.s.
    > Vielleicht findest Du da ja noch weitere gute Argumente, um Markus Pössel zu einem Beitrag über Dein bevorzugtes Koordinaten-Thema zu motivieren.

    Auf die Gefahr, mich zu wiederholen: Mein Interesse an Koordinaten erschöpft sich darin, darauf hinzuweisen, dass

    – falls Koordinaten “monoton zugeordnet” sein sollten, dann eine bestimmte Reihenfolge derjenigen an sich gegeben bzw. gemessen worden sein muss, denen die Koordinaten “so” (und “nicht anders”) zugeordnet sein sollten;

    – falls Koordinaten “stetig zugeordnet” sein sollten, dann eine bestimmte Topologie derjenigen an sich gegeben bzw. gemessen worden sein muss, denen die Koordinaten “so” (und “nicht anders”) zugeordnet sein sollten;

    – falls Koordinaten “glatt zugeordnet” sein sollten, dann bestimmte Abstandsverhältnisse derjenigen an sich untereinander gegeben bzw. gemessen worden sein müssen, denen die Koordinaten “so” (und “nicht anders”) zugeordnet sein sollten;

    – erst recht, falls Koordinaten “proportional zugeordnet” sein sollten;

    – und dass Koordinaten ansonsten allein dazu dienen können, um Verschiedenes verschieden zu benennen.

    Und falls Du (immer noch) in der Vorstellung befangen bist, Markus Pössel sei Argumenten (der Physik, Mathematik, Erkenntnistheorie) zugänglich, dann kannst Du ja meinetwegen gerne unsere nächste Debatte moderieren.

Leave a Reply


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +