Glanz und Elend der mathematischen Modellierung

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

Unter den Staaten, die unter der Gewaltkriminalität zu leiden haben, nimmt Mexiko einen traurigen Spitzenplatz ein. Im Jahr 2021 hatten offizielle Stellen 34000 Mordopfer zu melden, fast 27 pro 100000 Einwohner, und die Anzahl der jährlichen Todesopfer hat sich zwischen 2007 und 2021 mehr als vervierfacht. Es ist bekannt, dass bei diesen erschreckenden Zahlen das organisierte Verbrechen eine entscheidende Rolle spielt. Die kriminellen Vereinigungen werden allgemein als Kartelle bezeichnet, obgleich sie mit Kartellen im üblichen Wortsinn – von der gesetzwidrigen Zielsetzung abgesehen – nicht viel gemein haben. Ein wesentlicher, aber bei weitem nicht der einzige Geschäftszweig ist der Handel mit illegalen Drogen.

Der Einfluss der Kartelle ist zwar überall in der Gesellschaft zu spüren; aber die Einzelheiten ihrer Aktivität bleiben im Verborgenen. Naturgemäß ist so etwas wie die Liste der Mitglieder eines Kartells nicht verfügbar – höchstwahrscheinlich gibt es sie nicht – von Organisationsstrukturen oder Regeln des kriminellen Geschäftsverkehrs ganz zu schweigen. An die Oberfläche kommen nur die Anzahl der gewaltsamen Todesfälle und die der Festnahmen.

Da scheint eine mathematische Analyse ein geignetes Mittel, um Licht ins Dunkle zu bringen. Man stellt ein Modell der Gesamtsituation auf, passt dieses an die spärlich verfügbaren Daten an und erhält daraus Aufschlüsse über die Größen, die einen wirklich interessieren, wie zum Beispiel die Mitgliederzahlen und vielleicht sogar eine Zukunftsprognose. Das haben die drei Autoren Rafaelo Prieto-Curiel, Gian Maria Campedelli und Alejandro Hope in einer groß angelegten Untersuchung unternommen („Reducing cartel recruitment is the only way to lower violence in Mexico“, Science 381, 1312–136, 2023).

Wie erstellt man ein solches mathematisches Modell? Man orientiert sich an Systemen, in deren inneres Funktionieren man ebenfalls keinen Einblick nehmen kann – und auch nicht unbedingt muss, denn es kommt nicht auf das Verhalten eines einzelnen Elements an, sondern auf das eines Kollektivs, das wiederum so groß ist, dass sich individuelle Eigenheiten ausmitteln. Der Ansatz der Autoren zeigt frappante Ähnlichkeiten mit der Untersuchung derartiger Systeme:

– Chemische Reaktionen: Es kommt nicht darauf an, welches Molekül sich mit welchem zu einer neuen Verbindung zusammentut. Es genügt zu wissen, wie oft bei gegebener Konzentration der Stoffe A und B ein A-Molekül zufällig auf ein B-Molekül trifft und mit welcher Wahrscheinlichkeit daraus eine Verbindung hervorgeht.

– Epidemien: Es ist noch gar nicht lange her, da gab es zu COVID-19 allerlei mathematisch zu modellieren. Es stellte sich bald als aussichtslos heraus, nachzuvollziehen, wer wen angesteckt hat. Aber man konnte den Verlauf der Epidemie recht gut mit einem mathematischen Modell beschreiben, das sich nur mit Gesamtzahlen von Ansteckbaren, Erkrankten, Genesenen und Gestorbenen befasst und den Übergang von einer Gruppe in die andere als Zufallsereignis beschreibt, mit einigen Varianten, die den speziellen Eigenschaften dieser Erkrankung Rechnung tragen.

– Populationsgenetik: Man will wissen, wie sich gewisse Gene mit der Zeit im Erbgut einer Population von Tieren oder auch Menschen ausbreiten. Welches Tier mit welchem Nachkommen zeugt, wird als Zufallsereignis modelliert („random mating“). Als ich davon zum ersten Mal las, empfand ich die Vorstellung, die Mutter meiner Kinder und ich wären durch Zufall zusammengekomen, so als hätten wir beide dieselbe Losnummer gezogen, als arg realitätsfremd. Aber darum geht es nicht: Betrachtet man ein Kollektiv, dann ist es durchaus zulässig, ein solches Zusammentreffen, das in jedem Einzelfall verschiedene Gründe hat, die man nicht kennt und die voneinander unabhängig sind, als zufällig anzusehen. „Zufall“ ist in sehr vielen Fällen eine Umschreibung für „wir wissen es nicht, und wir finden keine Regelmäßigkeit“.

Na gut. Ein kriminelles Kartell verliert beständig Mitglieder durch Verhaftungen mit anschließender Gefängnisstrafe und durch Morde. Wenn da nichts nachwächst, müsste ein Kartell auf die Dauer aussterben – was offensichtlich nicht der Fall ist. Also findet jedes Kartell neue Mitglieder. Wie? Das wissen wir nicht, die Gründe sind in jedem Einzelfall verschieden, also bleibt uns nichts anderes übrig, als das als Zufallsprozess zu modellieren. Kartellmitglied trifft Normalmenschen und motiviert ihn mit einer gewissen Wahrscheinlichkeit zum Beitritt.

Das ist wie Ansteckung bei einer Epidemie: Zuwachs an Kranken pro Zeiteinheit ist gleich Anteil der Ansteckenden mal Anteil der noch Gesunden mal einem Proportionalitätsfaktor, in dem zwei Wahrscheinlichkeiten stecken: die, sich bei einer Begegnung anzustecken, und die, sich überhaupt zu begegnen. Wir erinnern uns: In Corona-Zeiten ging es vorrangig darum, diesen Proportionalitätsfaktor niederzudrücken – mit Masken und mit Kontaktverboten –, um damit die Epidemie in Grenzen zu halten.

Genau so modellieren die Autoren den Zuwachs bei den Kartellen. Anders als bei den Epidemiemodellen genehmigen sie sich allerdings eine Vereinfachung: Eine Epidemie begrenzt sich selbst dadurch, dass die Gesunden weniger werden, bis im Extremfall niemand zum Anstecken mehr übrig ist. Da jedoch selbst in Mexiko die Kartelle nur einen sehr kleinen Teil der Bevölkerung ausmachen, verzichten die Autoren darauf, die Abnahme der Normalbevölkerung durch Abwanderung ins kriminelle Milieu mit in Betracht zu ziehen. Es würde keinen nennenswerten Unterschied machen.

Also: Zuwachs pro Zeiteinheit ist zu jedem Zeitpunkt proportional der Anzahl der Mitglieder. Oder in Formeln ausgedrückt: Es gibt mehrere Kartelle, und mit \(C_i\) sei die Mitgliederzahl des \(i\)-ten Kartells bezeichnet. Dann lautet die Formel \[{d C_i \over dt} = p C_i\] mit einem Proportionalitätsfaktor \(p\), der vorläufig unbekannt ist. Das ist eine – sehr einfache – gewöhnliche Differentialgleichung für die Mitgliederzahl in Abhängigkeit von der Zeit. Na ja – die Variable einer Differentialgleichung muss alle reellen Werte annehmen dürfen, während Mitgliederzahlen ihrer Natur nach ganzzahlig sind; aber diese Diskrepanz muss uns nicht stören, jedenfalls nicht für große Mitgliederzahlen. Andere Ungenauigkeiten sind viel größer.

Entscheidender ist die Tatsache, dass diese Differentialgleichung das unbegrenzte exponentielle Wachstum beschreibt. Das widerspricht den Realitäten, kann also nicht die ganze Wahrheit sein. Vielmehr muss es einen Mechanismus geben, der die Größe eines Kartells in Grenzen hält, und zwar auch ohne Verfolgungsdruck.

Es ist nicht schwer, sich einen solchen Mechanismus vorzustellen: Der Chef eines Kartells kann nicht einfach davon ausgehen, dass seine Anweisungen befolgt werden, und im Konfliktfall das Arbeitsgericht bemühen. Vielmehr funktioniert die Befehlskette durch persönliche Beziehungen, seien es verwandtschaftliche oder freundschaftliche Bindungen, Zuckerbrot oder Peitsche, und die sind umso schwieriger aufrechtzuerhalten, je größer die Bande wird.

Wie diese Selbstbegrenzung im Einzelfall ihre Wirkungen entfaltet, wissen wir nicht. Also wählen die Autoren den mathematisch einfachsten Weg, um diesen Effekt zu erzeugen. Obige Differentialgleichung wird ergänzt durch einen Term, der negativ und dem Quadrat der Mitgliederzahl proportional ist: \[{d C_i \over dt} = p C_i-\omega C_i^2\] Für kleine Werte von \(C_i\) macht der sich kaum bemerkbar, aber wenn die Mitgliederzahl über einen gewissen Gleichgewichtswert hinaus anwächst, dominieren die destruktiven Kräfte. Genau so modelliert man Sättigungseffekte in der Populationsdynamik. Wieder ist der Proportionalitätsfaktor \(\omega\) vorläufig unbekannt.

Und so geht das mit dem Modellieren weiter. Wenn Mitglieder zweier Kartelle in Konflikt geraten – sagen wir, es gibt Differenzen über die regionale Aufteilung der Geschäftsbereiche –, bleibt einer der Beteiligten auf der Strecke. Die Häufigkeit solcher tödlichen Begegnungen ist proportional dem Produkt der beiden Mitgliederzahlen. Das ist wie beim Massenwirkungsgesetz aus der Chemie: Da treffen sich zwei verschiedene Moleküle rein per Zufall umso häufiger, je zahlreicher sie sind.

Die Polizei fischt nach diesem Modell im Trüben. Die Anzahl der Fische, die ihr ins Netz gehen, ist proportional der Anzahl der Fische, die überhaupt in der Brühe schwimmen. Und in dem Fang kommen die Mitglieder verschiedener Kartelle in denselben Proportionen vor wie in der Freiheit – es ist halt alles ein Zufallsprozess.

Ein paar spärliche Daten sind dann doch ans Licht gekommen und gehen in die Modellierung ein. So weiß man ungefähr, in welchen Bundesstaaten Mexikos welche Kartelle aktiv sind, welche miteinander verbündet und welche verfeindet sind und daher überhaupt in Konflikt geraten können. Nicht jeder gewaltsame Todesfall ist auf Aktivitäten der Kartelle oder der Polizei zurückzuführen; an dieser Stelle ist man auf grobe Schätzungen angewiesen.

Mit diesem immer noch sehr dünnen Material macht man ein übliches Parameterschätzverfahren. Man lässt das Modell laufen, das heißt, man löst das System von Differentialgleichungen mit gewissen Werten der Parameter – Proportionalitätskonstanten, geschätzen Anfangsgrößen der Kartelle und einigen mehr. Dabei ergeben sich Werte für die beobachtbaren Größen, das sind im Wesentlichen Festnahmen, gewaltsame Todesfälle und Vermisste, die nicht wieder auftauchen. Die modellierten Werte weichen zunächst stark von den beobachteten ab; aber man kann die Parameter systematisch so nachbessern, bis das Modell die echten Werte korrekt vorhersagt – oder wenigstens einigermaßen. Man findet diejenigen Werte der Parameter, für die der Unterschied zwischen den modellierten und den beobachteten Werten minimal wird. Damit hat man konkrete Werte für \(p, \omega\) und etliche andere Zahlen, die ich nicht ausdrücklich erwähnt habe.

Mit dem so kalibrierten Modell könnte man allerlei anstellen: Schätzwerte für die Mitgliederzahlen der Kartelle finden, die Entwicklung für die Zukunft vorhersagen und verschiedene Szenarien durchspielen. Was würde passieren, wenn man die Zuwachsrate \(p\) halbierte? Oder die Erfolgsquote der Polizei verdoppelte?

Die Autoren kommen zu einem eindeutigen Ergebnis: Nur das Vermindern von \(p\) hilft; und selbst diese Maßnahme – wie immer sie zu bewerkstelligen wäre – entfaltet erst nach mehreren Jahren ihre Wirkung.

Hm. Das ist das Ergebnis, das jedem Menschenfreund das Herz aufgehen lässt: Viel besser als die Verbrecher einzusperren ist es, Bedingungen zu schaffen, die Verbrechen gar nicht erst entstehen lassen. Wahrscheinlich stimmt das sogar. Nur: Das kann man auch ohne den ganzen Modellieraufwand einsehen. Und das mathematische Modell gibt das Ergebnis nicht her. Dazu ist es einfach zu dünn.

Haben die Autoren handwerkliche Fehler gemacht? Nicht wirklich. Die Methoden entsprechen dem, was man im Hauptstudium lernt, und wurden korrekt angewandt. Wo man keine Daten hat, kann und soll man keine aus dem Hut zaubern. Das, was man nicht weiß, als Zufallsprozess zu modellieren ist gängige Praxis. Unter mehreren denkbaren Mechanismen, die ähnliche Datenverläufe erzeugen, den mathematisch einfachsten zu wählen entspricht dem Prinzip der Sparsamkeit.

Aber in diesem Fall haben die Autoren es mit der Sparsamkeit krass übertrieben. So wie das Modell gebaut ist, erklärt es das drastische Anwachsen der Kartellaktivität als Folge eines quasi-natürlichen Prozesses. Die Kartelle haben eine – na gut, durchschnittliche – Wachstumsrate \(p\), nur gebremst durch kartellinterne Auseinandersetzungen und die Aktivitäten der Polizei. Was für ein Unfug! Man stelle sich nur vor, eine gewöhnliche Firma würde aus denselben Gründen größer werden wie eine Karnickelherde.

Nein. Auch eine kriminelle Firma kann ihr Personal nur vergrößern, wenn sie ihren Absatz vergrößert. Es gibt gute Gründe anzunehmen, dass das gerade im Drogengeschäft in den letzten zehn Jahren der Fall war. Externe Einflüsse wie zum Beispiel die Nachfrage nach Drogen kommen aber im Modell nicht vor. Vielleicht haben die Autoren dazu keine belastbaren Daten gefunden, so dass sie sich außerstande sahen, solche Einflüsse in das Modell mit aufzunehmen.

Das ist der heimtückische Zug an den Parameterschätzverfahren: Sie finden eigentlich immer etwas, einerlei wie mangelhaft das Konzept ist. Führe hinreichend viele Parameter in ein Modell ein, und du kannst jeden Datensatz durch eine überzeugende Kurve wiedergeben. Nur taugen dann die Ergebnisse der ganzen Rechnung nichts.

Vorsicht beim Modellieren! Da kann die ganze Mathematik richtig sein, und trotzdem ist es unmöglich, die Ergebnisse in einem vernünftigen Sinn zu interpretieren.

Avatar photo

Christoph Pöppe (Jahrgang 1953) hat Mathematik und Physik studiert und über allerlei partielle Differenzialgleichungen geforscht, bis er 1989 ziemlich plötzlich Redakteur bei „Spektrum der Wissenschaft“ wurde. Fast 30 Jahre lang hat er für diese Zeitschrift Texte bearbeitet und selbst geschrieben, vornehmlich über Mathematik und verwandte Gebiete. Nach wie vor schreibt er gelegentlich Beiträge für die Rubrik „Mathematische Unterhaltungen“. Seine Liebe zum Fach lebt er auch in allerlei geometrischen Objekten aus, die gelegentlich – in Großveranstaltungen mit vielen Beteiligten – ziemlich monumental geraten. Nebenher bietet er in einem Internet-Laden Bastelbögen für allerlei geometrische Körper an.

55 comments

  1. Christoph Pöppe schrieb (06. Mar 2024):
    > […] gewöhnliche Differentialgleichung für die Mitgliederzahl in Abhängigkeit von der Zeit […]

    Gemeint ist “Zeit” dabei nicht etwa (“nur”) in der Bedeutung als geordnete Menge (von “Anzeigen” oder “Momenten”), die monoton parametrisiert sein mag,
    sondern stattdessen, um Differentialquotienten überhaupt als bestimmte Grenzwerte auffassen und berechnen zu können, eher als das Maß von Zeit, d.h. als Dauer;
    im vorgelegten Fall also z.B. für die Mitgliederzahl in Abhängigkeit von der Dauer seit der ersten/anfänglichen Zählung der Mitglieder.

    > Also: Zuwachs pro Zeiteinheit […]

    Wer (wie ich) sich daran stört, dass der Wert eines Differentialquotienten (oder auch die Werte von “Differenzenquotienten”) in Verbindung mit Maßeinheiten bzw. in Abhängigkeit von der Wahl einer bestimmten Maßeinheit gebracht würde,
    sollte und kann stattdessen insbesondere von Raten sprechen (sowohl von “Einzelraten” und von “Durchschnittsraten”, als auch ggf. von “Momentanrate” als gewisser Grenzwert bzw. als ein Mittelwert, der jeweils auf einen “Zeitpunkt” bezogen ist);
    hier also jedenfalls von der entsprechenden “Rate der Änderung der Mitgliederanzahl”.

    > [… dass] Mitgliederzahlen ihrer Natur nach ganzzahlig sind […] muss uns nicht stören, jedenfalls nicht für große Mitgliederzahlen.

    Das muss uns wiederum nicht davon abhalten, relevante Einzelraten jeweils als Quotient aus

    – der momentan erfolgten (i.A. von Null verschiedenen) Veränderung der Mitgliederanzahl (seit der letzten vorausgegangenen Änderung, oder ansonsten seit der ersten Zählung)

    und

    – der von Null verschiedenen Dauer des betreffenden Kartells seit der letzten vorausgegangenen (i.A. von Null verschiedenen) Änderung der Mitgliederanzahl, bzw. seit der ersten Zählung, bis zum betreffenden Moment

    ausdrücklich zu definieren.
    (Durchschnittliche Änderungsraten lassen sich entsprechend über längere Untersuchungsdauern definieren; und somit ergeben sich gewisse Zusammenhänge zu den o.g. Einzelraten.)

    > […] Modellierung [… Die Momentanrate der Änderung der Mitgliederanzahl] ist zu jedem Zeitpunkt proportional der Anzahl der Mitglieder. Oder in Formeln ausgedrückt: Es gibt mehrere Kartelle, und mit \(C_i\) sei die Mitgliederzahl des \(i\)-ten Kartells bezeichnet.

    Falls es dazu käme, dass das Symbol \(i\) gebraucht würde, um “die imaginäre Einheit” auszudrücken (falls z.B. “die Rate der Veränderung der Rate der Änderung der Mitgliederanzahl” ausdrücklich erhoben und modelliert würde), stehen übrigens Symbole wie \(j\) oder \(k\) als Index zur Verfügung.

  2. Wenn man unter „Modellieren“ ein Modell machen von einem dynamischen Vorgang versteht, dann muss man doch zuerst eine Vorstellung darüber haben welche Parameter am Geschehen teilhaben.

    Hier wird ja das drastische Beispiel von den Bandenkriegen in Mexico angeführt.
    Und letztlich geht es dabei um ein kommerzielles Modell. Es wird ja mit dem Drogenhandel Geld verdient. Und es geht um die Konkurrenz und wie man die Konkurrenz ausschaltet, also wie im Geschäftsleben, nur eben illegal.

    Im Geschäftsleben gibt es Formeln über die Preisgestaltung, über die Anzahl der Mitarbeiter, wieviel Filialen sinnvoll sind, wieviel Steuern zu zahlen sind, auch Bestechungsgelder-

    Also, wer hier modellieren will, der muss eine Ahnung haben von Betriebswirtschaft und wer für den Einkauf der Drogen zuständig ist, der sollte sogar Volkswirtschaft studiert haben.

    • Nicker schrieb (06.03.2024, 18:03 o’clock):
      > […] Also, wer hier modellieren will, der muss eine Ahnung haben von

      … Sachverhalten, Zusammenhängen, Hintergründen des Bereiches, aus dem die zu modellierenden Daten/Werte entstammen …

      Kurz:
      Wer modellieren will, muss Ahnung haben! — ??

      Ganz so unbedingt ist das wohl eher nicht. …

      Wer gegebene Daten/Werte modelliert, kann die dabei angewandten Modell-Annahmen ja als Ausdruck seiner “Ahnung von der Sache” bezeichnen und bewerben;
      und wessen Modell die demnächst eintrudelnden Daten/Werte genauer (alias “zuverlässiger”) prognostizierte, als ein von anderen favorisiertes Modell, kann sich deshalb ja bis auf Weiteres “mehr Ahnung” zuschreiben, als die anderen.

      Was jemand, der modellieren will, aber stattdessen haben muss, sind zu modellierenden Daten/Werte!

  3. Was würde passieren, wenn man die Zuwachsrate p halbierte? Oder die Erfolgsquote der Polizei verdoppelte?

    Die Autoren kommen zu einem eindeutigen Ergebnis: Nur das Vermindern von p hilft; und selbst diese Maßnahme – wie immer sie zu bewerkstelligen wäre – entfaltet erst nach mehreren Jahren ihre Wirkung.

    Warum nur das Vermindern von p? Warum nicht auch die Erhöhung von ω?

    Beides hätte doch eine Verminderung der Zuwachsrate (=linke Seite der Gleichung) zur Folge. Oder etwa nicht? Oder versteh ich die Gleichung falsch?

    Weiß zufällig jemand, wie man hier “Latex” einbinden kann? Dann würde sich die Diskussion hier wesentlich einfacher gestalten.

    • Julian Apostata,
      Gesellschaftliche Missstände durch einen Propotionalitätsfaktor darzustellen, das ist so ,als ob man eine Uhrwerk mit einem Fernrohr betrachtet.

      Dem Bauer, der z.B. Cannabis anbaut ist es egal , ob er an das Drogenkartell eine Schutzgebühr bezahlt oder legal Steuern an die Regierung abführt.

      Wir brauchen gar nicht nach Mexico zu schauen, es reicht wenn wir uns die Zustände in Sizilien ansehen. Sehr viele junge Leute sind dort arbeitslos, weil die italienische Regierung in Rom es zugelassen hat, dass das Fiat Werk in der Nähe von Palermo geschlossen wurde.
      Was machen die jungen Leute, die auch Ziele haben ?
      Die sympathisieren mit der Mafia. Das ist die europäische Form eines Kartells, der sogar Beziehungen zum Vatikan nachgesagt werden.

      Einen Proportionalitätsfaktor p lässt sich eigentlich gar nicht mehr ermitteln, weil die Sympathisanten nicht mit dem Colt am Gürtel herumlaufen, die betreiben ihre Geschäfte verdeckt, weil sie sich der Unterstützung durch die Bevölkerung sicher sein können. Die Italiener werden von einem Großteil der Sizilianer als “Besatzer” betrachtet.

      Die angegebene Formel zeigt also das Elend der mathematischen Modellierung auf.

    • Julian Apostata schrieb (06.03.2024, 20:51 o’clock):
      > […] Weiß zufällig jemand, wie man hier “Latex” einbinden kann?

      Zufällig weiß ich das zwar nicht.
      Aber da ich die Gelegenheit erkenne, somit die SciLogs-Dokumentation zur Gestaltung von Kommentaren und den Umgang mit Anliegen von SciLogs-Lesern und -Kommentatoren insgesamt öffentlich zu kritisieren, stelle ich meine Erfahrungen beim “Einbinden von Latex” in meinen SciLogs-Kommentaren gerne im Folgenden dar:

      – Es wird nur eine Auswahl von LATEX_BEFEHLEn unterstützt,

      – ob ein bestimmter LATEX_BEFEHL unterstützt wird, oder nicht, lässt sich anhand der SciLog-Kommentarvoschau nicht unterscheiden, und

      – es steht (meines Wissens, bisher) keine ausdrückliche SciLogs-Sandbox-Seite zur Verfügung.

      – Um bestimmte unterstützte LATEX_BEFEHLE “inline” einzubinden, schreibe

      \( LATEX_BEFEHLE \)

      – um bestimmte unterstützte LATEX_BEFEHLE “im Displaymode (zentriert)” einzubinden, schreibe

      \[ LATEX_BEFEHLE \].

      – Die gegebene SciLogs-Seite muss das Rendern von LATEX_BEFEHLEn ausdrücklich ermöglichen; was insbesondere offenbar dann gewährleistet ist, wenn auf dieser Seite (z.B. “im SciLog-Beitrag”) schon irgendein LATEX_BEFEHL enthalten und gerendert dargestellt ist.

      Tests:

      – “\( \LaTeX \)” wird dargestellt als: “\(\LaTeX\)”.

      – “\[ \LaTeX \]” wird dargestellt als: “\[\LaTeX\]”.

      • ps – Mehr Tests zur Einbindung von LaTeX in SciLogs-Kommentaren:

        – “ \( \LaTeX \) ” wird dargestellt als: “\(\LaTeX\)”.

        – “ \[ \LaTeX \+ ” wird dargestellt als: “\[\LaTeX\]”.

        • ps – Mehr Tests zur Einbindung von LaTeX in SciLogs-Kommentaren (anhand der durch Einreichen des SciLogs-Kommentars ermöglichten Kommentar-Vorschau):

          – “ \( \LaTeX \) ” wird dargestellt als “\(\LaTeX\)”.

          – “ \[ \LaTeX \] ” wird dargestellt als “\[\LaTeX\]”.

  4. Das beste dieses Artikels ist für mich das hier:
    “Kartellmitglied trifft Normalmenschen und motiviert ihn mit einer gewissen Wahrscheinlichkeit zum Beitritt. Das ist wie Ansteckung bei einer Epidemie (..)”
    Verbrechen ist wie eine Krankheit, einfach köstlich 🙂

  5. @Klimamodelle

    Wenn man Wetter- und Klimamodelle macht, haben wir auch den Effekt, dass wir verschiedenste Parameter nicht richtig erfasst haben. Mit dem Ergebnis, dass die Modelle zwar laufen, aber im weiteren Simulationsverlauf dann immer mehr von der Wirklichkeit abweichen. Entsprechend liefern dann auch verschiedene Modelle verschiedene Werte für die zu erwartenden Temperaturen. Woran man dann den Fehler teilweise auch einschätzen kann.

    Jetzt kommt beim Wetter und auch beim Klima aber noch dazu, dass die nicht linearen Zusammenhänge ohnehin auch noch zu chaotischem Verhalten neigen. Ganz unabhängig von einer nicht vollständigen Erfassung aller Parameter. Was dann dazu führt, das wir mit den Modellen das Wetter nicht länger als 10 Tage vorhersagen können. Und vermutlich hat auch die Klimaentwicklung einen chaotischen Anteil, und ist entsprechend nicht linear und von daher wird eine Prognose über die Jahrzehnte immer unsicherer.

    So kommt dann eine Verdopplung der Treibhausgaskonzentrationen auf einen Bereich von 2.0° bis 4.5°, wovon wir aktuell 1.5° schon erreicht haben. Was eben alles andere als exakt ist. Im Grunde eigentlich fast unbrauchbar. Wir müssen uns hier auf einen ganzen Bereich von Möglichkeiten vorbereiten, und können unmöglich wissen, was uns genau erwartet.

  6. Das Elend fehlender Daten und wie man es heute löst
    Zitat: Wo man keine Daten hat, kann und soll man keine aus dem Hut zaubern. Das, was man nicht weiß, als Zufallsprozess zu modellieren ist gängige Praxis.
    Behauptung: Heute gibt es so viele digital erhobene Daten, dass daraus indirekt auch verborgene Dinge wie etwa eine Bandenmitgliedschaft erhoben werden kann.
    Wie viele Mitglieder von kriminellen Banden es in Mexiko gibt, kann – so behaupte ich – aus den verfügbaren digitalen Daten erschlossen werden. Zu diesen Daten zähle ich etwa das Einkaufsverhalten, die von Banken abgehobenen und eingezahlten Beträge, die Art und Anzahl der besessenen Fahrzeuge, die gekauften Waffen, die Reisen mit Auto, Flugzeug, etc und vieles mehr. Wenn man die verfügbaren Daten systematisch nach Mustern absucht und die Muster vergleicht mit denen von bekannten Bandenmitgliedern, dann sollte es heute ohne weiters möglich sein, recht präzise Angaben über die Anzahl der Bandenmitglieder und ihren Zuwachs in Abhängigkeit von äusseren Faktoren wie etwa dem erzielbaren Drogenpreis zu machen. Da auch die mexikanische Polizei mit Sicherheit V-Männer hat, weiss sie womöglich recht viel über die Banden und die typischen Verhaltensweisen von Mitgliedern.
    Ein Problem ist aber womöglich, dass auch ein beträchtlicher Anteil der mexikanischen Polizisten Bandenmitglieder sind, was dann auch die Aussagekraft von V-Männern schmälern könnte.

    Eines ist aber sicher: Noch nie gab es so viele digital erhobene Daten über fast jeden Bürger und noch nie waren die Datenanalysemöglichkeiten so gross wie heute. Es gilt also:
    Zeig mir deine Daten und ich sage dir sehr viel mehr über dich als du selbst für möglich hälst?

    • Wenn man Aussagen über das Verhalten von Wählern macht, dann liegt die Genauigkeit schon bei + minus 10 %.
      Dafür gibt es schon Computerprogramme und die sollte man sich als Vorlage nehmen-
      Bei der Lebensmittelindustrie macht man auch Erhebungen über die Kassenzettel.
      Es ist schon vorgekommen, dass eine Frau Werbung für Säuglingsnahrung bekommen hat, obwohl sie noch gar nicht schwanger war.
      So dachte die Frau. Aber das Computerprogramm war schlauer, es folgert aus den Abweichungen bei den Essgewohnheiten, dass sie schwanger sein müsste, was dann auch zutraf.

      So könnte man auch bei den Mitgliedern von Verbrecherkartellen vorgehen, hier dürfen die Parameter nicht genannt werden, man will ja die Mitglieder unter Beobachtung halten.
      Herr Holzherr hat mit seiner Aussage ganz recht :Zeig mir deine Daten und ich sage dir sehr viel mehr über dich als du selbst für möglich hälst?

      Psychater wären auch gut beraten, wenn sie passende Programme verwenden.

      Und jetzt kommt die Gretchenfrage, für wen sollen wir hier eine Differentialgleichung aufstellen. Für eine Künstliche Intelligenz ?

  7. @Frank Wappler

    – Um bestimmte unterstützte LATEX_BEFEHLE “inline” einzubinden, schreibe
    \( LATEX_BEFEHLE \)

    Gut, dann schaun’mer mal, ob was Vernünftiges dabei raus kommt.

    \( \frac{\mathrm{d}C_i}{\mathrm{d}t}=pC_i-\omega C_i^2 \)

  8. Tatsächlich. Es funktioniert. Danke.
    Sollte ich also die Gleichung richtig verstanden haben, dann
    haben wir einen Mitgliederschwund bei Verkleinerung von p
    und eine Mitgliederschwund bei Vergrößerung von ω

    Nicker
    07.03.2024, 09:15 o’clock

    Julian Apostata,
    Gesellschaftliche Missstände durch einen Propotionalitätsfaktor darzustellen, das ist so ,als ob man eine Uhrwerk mit einem Fernrohr betrachtet.

    Es geht ja hier um die Mitgliederzahl von Verbrecherkartellen.
    Und wenn es um konkrete Vorhersagen geht, sollte die Gleichung noch um mehr Proportionalfaktoren erweitert werden und vor allem sollten deren ungefähren Werte bekannt sein.
    Ich hoffe, ich habe Herrn Pöppe richtig verstanden.

    • Julian Apostata schrieb (07.03.2024, 18:38 o’clock):
      > […] Es funktioniert. Danke.

      Gern geschehen.
      (Für mich lag die Herausforderung ja erkennbar jeweils in der Gestaltung der linken, ungerenderten Anteile der Test-Fälle in meinem Kommentar 07.03.2024, 10:39 o’clock, bzw. in den vorausgehenden. Eine ausführlichere “Dokumentation zur Anfertigung von SciLogs-Kommentar-Dokumentation” erspare ich mir aber — bis auf Weiteres.)

      > Sollte ich also die Gleichung

      … d.h. die zweite Gleichung aus dem obigen SciLog-Beitrag, die ich hier nochmals in mir (hoffentlich!) gefälliger Weise schreibe:

      \[ \frac{\rm d}{{\rm d}\tau} \left[ ~ \vphantom{\frac{\rm d}{{\rm d}\tau}} C_k[ ~ \tau ~] ~ \right] = (p_k ~ C_k[ ~ \tau ~]) – \left( \omega_{kk} ~ (C_k[ ~ \tau ~])^2 \right) \tag{2} \]

      > richtig verstanden haben, dann haben wir einen Mitgliederschwund bei Verkleinerung von p und [auch] bei Vergrößerung von ω

      Die linke Seite der betreffenden Gleichung stellt ja nicht an sich eine (i.A. von Null verschiedene und) Sinn-voller Weise ganzzahlige Änderung der Anzahl von Mitgliedern \(C_k\) der \(k\)-ten Kartells dar, sondern eine Rate (der Änderung der Anzahl von Mitgliedern);
      und zwar — im Sinne der Differentialrechnung — eine Momentanrate, die je nach den Einzelheiten ihrer Definition (s. 06.03.2024, 17:19 o’clock) jeweils auch ganz ohne momentane ganzzahlige Änderung der Anzahl auswertbar sein mag, und dabei durchaus einen negativen Wert haben mag.

      Außerdem irritiert mich die Auffassung (oder besser: ich muss mich erst auch daran gewöhnen), die Parameterwerte p bzw. ω als vorgegeben und somit mehr oder weniger frei wählbar zu betrachten, so dass \(C_k[ ~ \tau ~]\), die Anzahl der Mitglieder, also die gesuchte, mit der gegebenen Gleichung zu berechnende Größe wäre (insbesondere im Sinne von Vorhersagen).

      Wenn dieser Auffassung konsequent und sozusagen “mit mathematischer Blindheit” gefolgt würde, dann könnten sich für \(C_k[ ~ \tau ~]\) womöglich negative Werte ergeben;
      und in diesem Fall wäre eine (anschließende) “Verkleinerung von p” ja offenbar mit Vergrößerung des Terms \((p_k ~ C_k[ ~ \tau ~])\) verbunden, würde also zur Vergrößerung der linken Seite der Gleichung (d.h. der Rate der Änderung der Anzahl von Mitgliedern) beitragen.

  9. (Heutige) Mathematik kann nicht zwischen Staub und Staubsauger unterscheiden. Aus Sicht der Mathematik gibt es keinen Unterschied zwischen Kartellen und beliebig anderen “Arrangements”. Das ist gut und/oder schlecht.

    Zum Verständnis
    Wenn Euklid (…lebte wahrscheinlich im 3. Jahrhundert v. Chr.) noch nach plausibler Anschauung für mathematische Grundlagen suchte und somit eine interdisziplinäre Verbindung herstellte, die man als richtig oder falsch bewerten konnte, so stellt sich in der modernen Mathematik die Frage nach richtig oder falsch nicht. Euklids Definitionen sind explizit, sie verweisen auf außermathematische Objekte der „reinen Anschauung“ wie Punkte, Linien und Flächen. “Ein Punkt ist, was keine Breite hat. Eine Linie ist breitenlose Länge. Eine Fläche ist, was nur Länge und Breite hat.” Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er ausschließlich implizite Definitionen. Die Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ doch sie waren lediglich Elemente nicht weiter explizierter Mengen. Angeblich soll Hilbert gesagt haben, dass man jederzeit anstelle von Punkten und Geraden auch von Tischen und Stühlen reden könnte, ohne dass die rein logische Beziehung zwischen diesen Objekten gestört wäre.

    Apropos freie Parameter, (mehr oder weniger) am Rande bemerkt:
    Es existieren zahlreich argumentative Gründe, das die Standardmodell-Postulate der Physik, die derzeit auf 31(!) freie Parameter (25 SM, 6 ΛCDM), mehrere Dutzend postuliert essentielle Theorieobjekte]*, assoziierte Verknüpfungszahlen (Quantenzahlen), diverse Substrukturierungs-Thesen, Confinement-These,…, deren postulierte Wechselwirkungs-Szenarien beruhen, reine Versuchs-Märchen-Interpretationen sind.

    *Zählt man die Teilchen nach einer Regel, die zwischen Teilchen und ihren entsprechenden Antiteilchen sowie zwischen den vielen Farbzuständen von Quarks und Gluonen unterscheidet, ergibt sich eine Gesamtzahl von 61 Elementarteilchen.

    Fazit: Es handelt sich bei dem Standardmodell der Elementarteilchenphysik (SM) und dem Standardmodell der Kosmologie (ΛCDM-Modell) um philosophischmathematische Modelle. Die Standardmodelle sind keine physikalischen Denkmodelle!

    Zur Geschichte
    “Lustigerweise” ist das Buffonsche Nadelproblem eine “analoge” Monte-Carlo-Simulation ~ 250 Jahre bevor der Begriff geprägt wurde.

    Tatsache ist : Theoretische Modelle hink(t)en stets der (meßbaren) Realität hinterher. Der Mythos, das hochkomplexe, mathematische Theorien die Wirklichkeit beschreiben und Neues generieren konnten und können, lebt. Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht. Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (mitunter esoterischen) Konzepten geboren. Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst. Sei es durch Zusatzrechnungen, neue Quantenzahlen, neue Wechselwirkungspostulate und neuen Substrukturthesen, sowie extrem zeitintensiven, iterativ-algorithmisch nachkorrigierten Ergebnissen mittels Cluster-Rechenanlagen respektive »Super-Computern«.

    Da die Ergebnisse von den von Autoren vorgegebenen Anfangsparametern sowie den theoretischen Modellerwartungen im Hinblick auf ergebnisorientierte, experimentelle Werte abhängig sind, stellt sich, auch ohne jegliche Kenntnis der Berechnungs-Details, die zentrale Frage, ob Autoren dieser Art von “Berechnungen” – nicht realisieren, das die so erzielten Ergebnisse selbstprophetisch sind respektive einen methodischen Selbstbetrug abbilden.

  10. Dirk Freyling
    07.03.2024, 22:54 o’clock

    Dass jedoch die Voraussagefähigkeiten der theoretischen Modelle, bei genauer Sicht, Ergebnisse von immer wieder (neu) durchgeführten Nachkorrekturen sind, erschließt sich den meisten Interessierten nicht.

    Newton’s Physik lieferte gute astronomische Vorhersagen.
    Einstein’s Physik (ART) lieferte bessere Vorhersagen.
    Wieso sollte sich das den Interessierten nicht erschließen?
    Was für die meisten Interessierten allerdings nicht nach vollziehbar ist, ist Folgendes.

    (Heutige) Mathematik kann nicht zwischen Staub und Staubsauger unterscheiden.

    Oder würde außer Dirk Freyling noch jemand dieser Aussage zustimmen?

    • Julian Apostata schrieb (08.03.2024, 09:39 o’clock):
      > […] Newton’s Physik lieferte gute astronomische Vorhersagen.

      Sicherlich ist diese Behauptung oft geäußert worden, aber womöglich oft unkritisch und unreflektiert.
      Welche Begriffe könnte “Newton’s Physik” denn überhaupt zur Verfügung stellen, um damit irgendwelche “gute astronomische Vorhersagen” zu formulieren ??

      Soweit ich verstehe (und man korrigiere mich bitte, falls das nicht stimmt), beinhaltet “Newton’s Physik” z.B. nicht mal eine Definition, wie denn wenigstens im Prinzip zu messen wäre, ob eine Linie “gerade” wäre, oder in wie fern nicht.

      Wer Einstein “auf die Schultern Newtons” zu stellen versucht, hat womöglich Einsteins innovative, ja revolutionäre Forderung überlesen, dass

      »alle unsere zeiträumlichen Konstatierungen […] stets auf die Bestimmung zeiträumlicher Koinzidenzen hinaus[laufen … und zwar insbesondere auf] Begegnungen identifizierbarer materieller Punkte«;

      oder hat es nicht als vorteilhaft erfasst, dass die Beurteilung von Koinzidenz oder Nicht-Koinzidenz eigener Wahrnehmungen jedem einzelnen Beteiligten eigenverantwortlich obliegt.

      p.s.
      > […] Dirk Freyling 07.03.2024, 22:54 o’clock

      (Heutige) Mathematik kann nicht zwischen Staub und Staubsauger unterscheiden.

      > [W]ürde außer Dirk Freyling noch jemand dieser Aussage zustimmen?

      In seinem obigen Kommentar (07.03.2024, 22:54 o’clock) hat Dirk Freyling ja immerhin und ausdrücklich eine Erläuterung “zum Verständnis” beigefügt.
      Der erwähnten Erläuterung von Dirk Freyling möchte ich jedenfalls einen Hinweis auf diese Erläuterungen beifügen, und behalte mir außerdem eine direkte Erwiderung auf seinen Kommentar vor.

  11. Julian Apostata,
    Oder würde außer Dirk Freyling noch jemand dieser Aussage zustimmen?

    Ein bischen Polemik belebt die Diskussion.
    Sagen wir so, die Mathematik ist ein logisches Werkzeug, das uns hilft die Umwelt zu verstehen und zu gestalten.

    Und sie erlaubt uns auch mit der Hilfe von physikalischen Formel zwischen Staub und Staubsauger zu unterscheiden. Die Korngröße ist dabei das Unterscheidungsmerkmal.
    Herr Freyling, wollen sie uns für dumm verkaufen ?

    • »Julian Apostata(1)« und »Nicker(2)«, wer oder was auch immer das (egozentrisch motiviert(1)) bedeuten soll,

      Sie (Nicker) haben mit : “Sagen wir so, die Mathematik ist ein logisches Werkzeug, das uns hilft die Umwelt zu verstehen und zu gestalten. Und sie erlaubt uns auch mit der Hilfe von physikalischen Formel zwischen Staub und Staubsauger zu unterscheiden.” (bereits selbst) widerlegt, das Mathematik zwischen Staub und Staubsauger unterscheiden kann.

      Zur Erinnerung, Kenntnisnahme und Selbstanalyse: Werkzeuge, welcher Art auch immer sind nicht logisch.

      Werkzeuge unterscheiden nicht(s).

      Der Pinsel malt Nackte oder Vollverschleierte, je nach Wunsch des Malers respektive der Malerin, der Hammer schlägt, egal was…die Mathematik berechnet, was auch immer, berechnet werden soll…

      Mathematik kann den größten Quatsch – sogar streng axiomatisch mit Beweis – generieren, siehe das Banach-Tarski Paradoxon

      Der Versuch der Mathematik “Leben” einzuhauchen ist “altbekannt”, schon Ernst Mach bemerkte: “Wer Mathematik treibt, den kann zuweilen das unbehagliche Gefühl überkommen, als ob seine Wissenschaft, ja sein Schreibstift, ihn selbst an Klugheit überträfe, ein Eindruck, dessen selbst der große Euler nach seinem Geständnisse sich nicht immer erwehren konnte.” Vortrag, Sitzung der kaiserlichen Akademie der Wissenschaften zu Wien am 25. Mai 1882

      Der Artikelautor Christoph Pöppe weist doch explizit in seinen Ausführungen darauf hin, indem er aufzeigt das die sehr unterschiedlichen Themen immer mit dem gleichen mathematischen Ansatz “behandelt” werden.

      “Newton’s Physik lieferte gute astronomische Vorhersagen.
      Einstein’s Physik (ART) lieferte bessere Vorhersagen.”

      Ach ja? Schreibt wer?

      “Am Rande” zu Albert Einstein bemerkt,

      Ein Mythos bezüglich mathematischer Fähigkeiten

      Lee Smolin schreibt in

      Lessons from Einstein’s 1915 discovery of general relativity, December 2015 u.a.

      …”Einstein war weder sehr gut in Mathematik ausgebildet, noch sehr gut darin. Er war auf Freunde wie Marcel Grossman angewiesen, um ihm die Mathematik zu erklären, auf der die allgemeine Relativitätstheorie beruht. Und er war auf andere Freunde wie Michael Besso angewiesen, um die richtige Interpretation der Mathematik zu finden. Zeitgenossen stellten in der Tat fest, dass es viele Kollegen gab, die viel besser in Mathematik waren, wie John von Neumann. Im Gegensatz zu Newton erfand Einstein keine neue Mathematik, mit der er seine neuen Theorien ausdrückte. Die Allgemeine Relativitätstheorie verwendet Mathematik, die für die Mathematik gekrümmter Flächen und allgemeiner Geometrien entwickelt wurde, die in der zweiten Hälfte des 19. Jahrhunderts von Mathematikern entwickelt wurde. Einstein war der erste Physiker, der diese neue Herangehensweise an die Geometrie zur Beschreibung physikalischer Systeme nutzte. Aber er folgte dem Unterricht von Marcel Grossman beim Erlernen und Anwenden der Mathematik. In der Tat war Einstein nicht sehr gut darin, diese neue Mathematik anzuwenden. Nachdem er die Gleichungen der allgemeinen Relativitätstheorie aufgeschrieben und veröffentlicht hatte, wurden schnell Lösungen gefunden, die einfache Beispiele beschreiben. Diese beschreiben sehr symmetrische Situationen wie kugelsymmetrische Sterne und homogene, expandierende Universen. Diese Lösungen abzuleiten sind nun Hausaufgabenübungen in Grundstudiengängen der Allgemeinen Relativitätstheorie. Aber Einstein hat keine dieser einfachen Lösungen gefunden, es gibt tatsächlich keinen Beweis, dass er überhaupt danach gesucht hat. Sie wurden von anderen innerhalb weniger Wochen nach Veröffentlichung seiner Artikel gefunden.”

      Zur Erinnerung und Kenntnisnahme: Die postulierte vierdimensionale »Raumzeit« (eine mathematische, nicht sinnlich erfahrbare Abstraktion) wurde nicht von Albert Einstein entwickelt sondern vom Mathematiker Hermann Minkowski (1864-1909). Minkowski hielt am 21.09.1908 in Köln auf der 80. Versammlung der Deutschen Gesellschaft der Naturforscher und Ärzte seinen Vortrag »Raum und Zeit«. In diesem Vortrag führt Minkowski die mathematischen Notationen ein, mit denen die Spezielle Relativitätstheorie Einsteins zur Allgemeinen Relativitätstheorie erweitert werden kann.

      Populärwissenschaftliche Ausführungen zur Allgemeinen Relativitätstheorie (ART) sind allesamt unzulässige Interpretationen, da die zum Verständnis notwendige Komplexität nicht berücksichtigt wird. Das ist so, als wenn jemand chinesische Schriftzeichen einem diesbezüglich nicht schriftkompetenten Publikum zur Anschauung und Diskussion vorstellt. Da kann dann alles und nichts hineininterpretiert werden, da niemand die Voraussetzungen zur Dekodierung sowie niemand die Voraussetzungen der Schriftgestaltung hat. Plakativ formuliert: In der ART führen auch Schreibfehler zu neuen Lösungen und das gilt (bereits) für Leute, die Differentialgeometrie professionell betreiben.

      Übrigens: Einstein hat beispielsweise weder Schwarze Löcher postuliert, ganz im Gegenteil*, noch reale Gravitationswellen, außer als mathematische Möglichkeiten. Einstein wurde und wird nach seinem Tod bis heute, von dem Heer der Nachzügler und Nachahmer instrumentalisiert (sozusagen perfides namedropping), wenn sich diese auf ihn berufen, um im Gespräch zu bleiben und Forschungsgelder abzugreifen.

      *1939 versuchte Einstein in seiner Publikation “On a Stationary System with Spherical Symmetry Consisting of Many Gravitating Masses” (Über ein stationäres System mit sphärischer Symmetrie, das aus vielen gravitierenden Massen besteht) zu beweisen, dass Schwarze Löcher unmöglich sind, wobei er sich auf “seine” Allgemeine Relativitätstheorie stützte.

  12. @Nicker 08.03. 11:43

    „Sagen wir so, die Mathematik ist ein logisches Werkzeug, das uns hilft die Umwelt zu verstehen und zu gestalten.

    Auch wenn Modelle speziell sind und nicht soweit reichen wie man denkt, kommen wir doch in der Technik offenbar ziemlich gut vorwärts. Die Theorie für Alles fehlt uns noch, aber wir kennen schon allerhand, mit dem sich auch allerhand anstellen lässt.

    Auch wenn das alles nicht perfekt ist, so ist es allerdings alles andere als zwecklos und auch nicht jenseits jeder Wirklichkeit.

    Das Gesamtbild ist in der Tat noch nicht gefunden. Aber wir dürfen weiter danach suchen.

  13. Tobias Jeckenburger, Zustimmung.
    Wir entfernen uns von der Weltformel. Und das ist gut so.
    Was nützt ein genialer Wissenschaftler, wenn er geistig krank ist.
    Unsere materielle Welt gehorcht den Zahlen, die geistige Welt tut das nicht.

    Hollywood huldigt der geistigen Welt, sie verkauft Träume. Ohne Träume können wir nicht leben. Frauen sind in dieser Hinsicht die Realisten.
    Gerade habe ich den Lebenslauf von Robert Fischer angeschaut. Was hat ihm sein Genius geholfen ? Er ist verrückt geworden.

  14. Tobias Jeckenburger,
    ich kenne Ihre Ausführungen und Dauerkommentierungen bereits zu Genüge …
    Sie schreiben seit Jahren zu allen Themen auf Scilogs mit dem Credo: »Auch Tobias Jeckenburger möchte mal was “sagen”.«

    Da (auch hier) Ihr Kommentar keine themenbezogenen Informationen enthält, kann “man” da, wie so oft bei Ihren Kommentaren, nichts inhaltlich erwidern.

    Außer, Ihr Sprachgebrauch ist falsch, wenn Sie von »wir« und »uns« schreiben (“Die Theorie für Alles fehlt uns noch, aber wir kennen schon allerhand, mit dem sich auch allerhand anstellen lässt“). Sie haben bis heute nichts von dem fachspezifisch verstanden oder erarbeitet, was Sie befähigen könnte, hier etwas Signifikantes zu “beschreiben”. Sie rezitieren ausschließlich Systempropaganda.

    Abstrakter, allgemeiner: Das zu jeder Meinung Gegner und Befürworter existieren, ist nichts Neues. Aus wissenschaftlicher und erkenntnistheoretischer Sicht sind jedoch subjektive Meinungen über physikalische Zusammenhänge kategorisch abzulehnen, da letztendlich eine Realphysik orientierte Beschreibung stets in Einklang mit der Beobachtung stehen muß und eine Meinung mit dieser Wissens-Normforderung kohärent ist oder nicht.

    Exemplarisch: In unserem Sonnensystem gibt es weder Neutronensterne, Gamma Ray Bursts (GRBs) noch Schwarze Löcher (respektive „Anomalien“, die als solche interpretiert werden können).

    Das nächste postulierte Schwarze Loch ist in einer Entfernung von 2800 Lichtjahren. Zum Vergleich: Der nächste Stern „aus unserer Sicht“ ist mit 4,24 Lichtjahren Proxima Centauri (https://de.wikipedia.org/wiki/Proxima_Centauri). Objekt- und Entfernungs-Angaben beziehen sich auf die „Sicht des ΛCDM-Modells“.

    Das angesiedelte soziologische Wahrnehmungsproblem „besteht“ darin, dass hier, nach einfachem psychologischem Glaubens-Muster, diverse postulierte Theorieobjekte unterschiedlichster Art, teils seit Jahrzehnten – der mit rudimentärem Wissen ausgestatteten Bevölkerung – als 100% real existent sprichwörtlich “verkauft” werden. Diese fördermittelbringenden Theorieobjekte sind und bleiben jedoch Theorieelemente.

    Das theoretisch „einfachste“ Standardmodell sprich das ΛCDM-Modell basiert auf sechs freien Parametern: Parameter der physikalischen Baryonendichte, Parameter der physikalischen Dichte der dunklen Materie, Alter des Universums, skalarer Spektralindex, Amplitude der Krümmungsfluktuation und optische Tiefe der Reionisierung.

    Was passiert mit Kritikern der Standardmodelle?

    Selten, dass sich Wissenschaftler in Blog-Kommentarfeldern äußern. Hier mal eine dieser Ausnahmen, wo Prof. Dr. Pavel Kroupa (Astrophysiker) u.a. auf massive Zensur im Wissenschaftsbetrieb hinweist:

    …„Es gilt als riskant, “ketzerische” Arbeiten, zu zitieren.

    Brillanten Wissenschaftlern, mit herausragenden akademischen Qualifikationen, wird z.T. Diskussionsverbot erteilt, wenn sie sich mit physikalisch interessanten alternativen Ansätzen beschäftigen. Erst letzte Woche hatte ich einen hochbegabten jungen Physiker zu Besuch, der mir schlimmstes berichten musste.“…

    „Das obige ist beängstigend, weil nämlich einfachere Alternativen im gleichen Zuge unterdrückt werden. So kann es ja dann nicht überraschen, dass diese Alternativen nicht so gut ausgearbeitet sind, sodass Simon White “überzeugend” argumentieren kann, dass es eben keine überzeugende Alternativen gibt. Dieses ist ein zirkulares Argument, welches den Steuerzahler, der unsere Forschung finanziert, eigentlich interessieren sollte.

    Wie bitte sehr soll denn der hochbegabte junge Physiker seine Forschung zu Ende führen, wenn er keine Unterstützung bekommt? Es ist so, als würde man Galileo verbieten, durch sein Teleskop zu schauen, weil er Dinge sehen könnte, die nicht ins Weltbild passen“… Quelle: Scilogs-Anmerkungen zur Dunkle Materie Debatte

  15. @Nicker 08.03. 13:34

    „Unsere materielle Welt gehorcht den Zahlen, die geistige Welt tut das nicht.“

    Gehorchen nicht, aber berücksichtigen muss die geistige Welt die Zahlen der Welt dann schon. Geistige Wirkungen können nur im konkreten Lebenszusammenhang sinnvoll sein. Und soweit wie dieser von Zahlen beschrieben werden kann, muss sich damit auch die Geisteswelt auseinandersetzen, wenn sie mitten im Leben wirksam sein will.

  16. Tobias Jeckenburger,
    “Unsere materielle Welt gehorcht den Zahlen, die geistige Welt tut das nicht”

    Das soll eine Metapher sein, dass wir unser Leben nur zum Teil berechnen können.
    Hermann Hesse hat es allerdings wörtlich genommen in seinem “Glasperlenspiel”.
    Als der Wilde zum ersten Mal die Zahlen gesehen hat, lief er schreiend davon.

    Und auch bei Romeo und Julia hat sich die genaue Berechnung als tragisch erwiesen und hat aus einer Liebesgeschichte eine Tragödie gemacht.

    Und last but not least bei der Zahlenmystik wir aus 3 Sechser der Teufel himself.

  17. Dirk Freyling
    08.03.2024, 13:33 o’clock

    …”Einstein war weder sehr gut in Mathematik ausgebildet, noch sehr gut darin. Er war auf Freunde wie Marcel Grossman angewiesen, um ihm die Mathematik zu erklären, auf der die allgemeine Relativitätstheorie beruht.

    Das spielt doch überhaupt keine Rolle, ob und bei wem Einstein Nachhilfe in Mathe benötigte, um die ART zu entwickeln.
    Die ART kann vorhersagen, wie sich Doppelsterne einander annähern, um dann bei der Verschmelzung Gravitationswellen ab zu senden.
    Die Physik vor der ART konnte diese Annäherung nicht vorher sagen.

    Und überhaupt: Personenkult (egal ob positiv oder negativ) hat in der Mathematik und Physik nichts zu suchen.
    Wäre Einstein wirklich so ein Stümper gewesen, was hätte das dann mit der ART zu tun?
    Wollen sie vielleicht auch noch die Existenz von Amerika leugnen, nur weil Kolumbus bis an sein Lebensende glaubte, er wäre in Indien gewesen?

    • …es gibt hier keinen erwähnenswerten Aussage-Zusammenhang zwischen dem vorliegenden Erwiderungen und meinem Kommentar

      Wie auch immer,…

      Die Vorhersagen der ART-Nachturner sind – plakativ formuliert – im Sinne der ART-Axiomatik beliebig bis falsch.

      U.a. aus folgenden Gründen:

      Ohne hier auf die zahlreichen Details, insbesondere die komplizierte und komplexe Mathematik (Stichworte Differentialgeometrie, Friedmann-Lemaître-Robertson-Walker-Metrik) explizit einzugehen und ohne die notwendige These des Standardmodells der Kosmologie (Lambda-CDM-Modell) der Inflationszeit (temporär vielfache Überlichtgeschwindigkeit für eine ultrakurze Zeitspanne) an dieser Stelle zu thematisieren…

      Das basisverletzte Kovarianzprinzip

      Die allgemeine Relativitätstheorie ist eine Gravitationstheorie und geht von der Gleichheit der trägen und der schweren Masse aus [»Äquivalenzprinzip«]. Aber die ART erklärt dieses Prinzip nicht sondern setzt es voraus. Die Allgemeine Relativitätstheorie wurde u.a. aus der Forderung geboren, zur Beschreibung der Naturgesetze beliebige Koordinatensysteme verwenden zu können. Entsprechend dem Kovarianzprinzip sollte die Form der Naturgesetze nicht entscheidend von der Wahl des speziellen Koordinatensystems abhängen. Diese Forderung ist ursächlich mathematisch und führt zu einer Vielfalt von möglichen Koordinatensystemen [Metriken] bleibt aber physikalisch “unmotiviert”. Schlimmer noch: Es ergeben sich je nach Wahl des Koordinatensystems phänomenologische Interpretationsspielräume (siehe oben). Der Grund ist “relativ” einfach: Koordinatensysteme sind mathematische Konstrukte, die keinerlei physikalische Eigenschaften besitzen (müssen). Die Gleichungssysteme (Einstein, Friedmann) der Allgemeinen Relativitätstheorie, die den Aussagen des Standardmodells der Kosmologie zu Grunde liegen, liefern keine analytischen Lösungen. Erst Idealisierungen und Näherungen führen begrenzt zu rechenbaren Lösungen. Die unvermeidbaren (“kovarianten”) Widersprüche kommen mit den offensichtlich unzulässigen Idealisierungen und Näherungen des Systems von nichtlinearen, verketteten Differentialgleichungen.

      Mathematisch kann das Kovarianzprinzip nicht „verletzt“ werden, da es ja axiomatisch begründet ist. Nur diese axiomatische Voraussetzung „entschwindet mit der Verstümmelung“ (Idealisierung und Näherung) der eigentlichen Gleichungen. Mit anderen Worten: Die mathematisch korrekten Gleichungen besitzen keine analytischen Lösungen. Die reduzierten Gleichungen (Näherungen, Idealisierung) besitzen zwar Lösungen, diese sind jedoch nicht kovariant. Somit besitzt keine Lösung eine realphysikalisch begründete Bedeutung. Mit anderen Worten: Das Kovarianzprinzip ist realphysikalisch betrachtet formales Blablabla und kann jeglichen theoretischen Mist hervorbringen. Selbst Schreibfehler können im Rahmen der Differentialgeometrie der ART Lösungen generieren.

      Dazu ein exemplarischer Denkanstoss: Die zur “Schwarzschild-Metrik Lösungsmöglichkeit“ nach ihren Autoren benannte EddingtonFinkelsteinKoordinatentransformation beseitigt die Koordinatensingularität der Schwarzschildlösung und “sorgt” dafür, dass für die “avancierte” Lösung nach innen und für die “retardierte” Lösung nach außen Teilchen ins Schwarze Loch eindringen und austreten können! Mit anderen Worten: Die postulierten Schwarzen Löcher der „Ur-Version“ der Schwarzschild-Metrik waren bei genauer Betrachtung das Resultat zweier Integrationskonstanten des gewählten Koordinatensystems. Ein weiteres Koordinatensystem der Herrn Eddington und Finkelstein behebt das Koordinaten-Artefakt, “bringt” dem vermeintlich Schwarzen Loch aber nun die Eigenschaft, dass Teilchen das Schwarze Loch verlassen können. Bedeutet im Ergebnis: Kein Schwarzes Lochh.

      Ausführlicher und genauer auf Spektrum der Wissenschaft online im Kommentarbereich des Artikels »Schwarze Löcher in Größe M«, 2.Kommentar vom 26.1.2016

      Fazit: Schwarze Löcher sind populärwissenschaftlich ohne Frage sensationeller als keine Schwarzen Löcher. Doch es gibt keinen experimentellen Nachweis der Existenz auch nur eines einzigen Schwarzen Loches. Schwarze Löcher sind nichts weiter als Theorieobjekte eines mathematischen Formalismus, dessen gefordertes Kovarianzprinzip bedingt durch die Struktur der Gleichungssysteme nicht erfüllt werden kann, da nur Näherungen zu rechenbaren Lösungen führen.

  18. Dirk Freyling schrieb (07.03.2024, 22:54 o’clock):
    > […] Euklids Definitionen […] verweisen auf außermathematische Objekte der „reinen Anschauung“ wie Punkte, Linien und Flächen.
    > […] Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er […] lediglich Elemente nicht weiter explizierter Mengen. [… Diese]
    Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ [usw.]

    … wohl “für historische Kohärenz und wenigstens indirekte, von Euklid geborgte Anschaulichkeit”;
    aber im strikten, harten, rein-mathematischen Sinne sind diese Namen eben Bedeutungs-los, beliebig/austauschbar, bloß zum Zwecke der Unterscheidbarkeit gebraucht.

    Das war sicherlich Fortschritt auf dem Weg, sich u.a. von der vermeintlichen Anschaulichkeit des Euklidschen Parallelen-Axioms zu befreien.
    Damit verbunden war aber auch Akzeptanz dafür, Axiome nicht mehr unbedingt als Selbstverständlichkeiten zu betrachten und zu suchen,
    sondern alles überhaupt Formulierbare hinsichtlich logischer Konsequenzen jeweils “mal durchzuspielen”.

    Die jeweiligen Gesamtsysteme aus (abstrakten) Begriffen, damit jeweils formulierten Axiomen und weiteren Definitionen, sowie (allen) jeweils daraus folgenden logischen Konsequenzen haben Hilbert & Co. dabei ja sicherlich als “Theorien” bezeichnet (und: gedacht).

    > […] Es handelt sich bei dem Standardmodell der Elementarteilchenphysik (SM) und dem Standardmodell der Kosmologie (ΛCDM-Modell) um philosophisch–mathematische Modelle. Die Standardmodelle sind keine physikalischen Denkmodelle!

    Standardmodelle sind keine physikalischen Denkmodelle!

    Diese Formulierung erinnert (mich doch sehr) an “mein Motto (als Experimentalphysiker)”:

    “Theorien sind keine Modelle!”

    ,

    was ohne Weiteres die Umkehrung einschließt:

    Modelle, und insbesondere Standardmodelle (der Physik), sind keine (physikalischen) Theorien!.

    (Das Wort “Modell” wurde und wird nun mal in mehrfachem Sinne gebraucht; u.a. auch im Begriff “Denkmodell”. Zur inhaltlichen Abgrenzung bietet sich meines Erachtens an, das Wort “Theorie” zu nutzen.)

    > Apropos freie Parameter, […]

    Im gegebenen Zusammenhang nenne und betrachte ich diese als Messgrößen, deren Werte jeweils experimentell zu bestimmen sind. Hinsichtlich des SM insbesondere

    – Messgrößen, die im Rahmen der GWS-Theorie (der elektro-schwachen Wechselwirkung) definiert sind, z.B. die Koeffizienten der CKM-Matrix, sowie der PNMS-Matrix, Kopplungsstärken, Eich-Bosonen-Massen, Anzahl der Fermion-Generationen, …

    – Messgrößen, die im Rahmen der QCD-Theorie (der starken Wechselwirkung) definiert sind: da wüsste ich ebenfalls die Kopplungsstärke und deren “Rennen”, sowie die (damit auch verbundene) confinement scale

    – “allgemeine Messgrößen”, insbesondere die Massen der elementaren Fermionen.

    > […] Theoretische Modelle
    > […] theoretischen Modellerwartungen
    > Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst.

    Solche Formulierungen finde ich (auf Grundlage des gerade Dargelegten) sprachlich bzw. begrifflich schlicht ungenau; insbesondere redundant und den beschriebenen Begriff “Theorie” überstrapazierend.

    > […] postuliert essentielle Theorieobjekte […] Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (mitunter esoterischen) Konzepten geboren.

    Ich möchte die Problematik keinesfalls bestreiten. (Vereinfachend: “Man erkennt die Dinger eben nicht unbedingt, wenn man sieht; besonders, weil es um winzige Dinger geht.”)
    Und die Problematik ist gewissermaßen alltäglich: die relevanten Experimente verfolgen ja typischerweise das Ziel, “Neues, Spektakuläres zu entdecken”.

    Aber die Erwartung/Hoffnung oder Behauptung “das (Realobjekt), was in diesem Versuch nachweislich vorlag, entsprach genau dem folgendermaßen definierten Theorieobjekt” gehört m. E. nun mal zu den Aussagen, die Modellen und insbesondere “dem (jeweiligen) Standardmodell” zusammengefasst werden; Aussagen, die einzeln wahr oder falsch sein können und in der Gesamtheit und auch durch wiederholte Überprüfung falsifizierbar sind.

    Dirk Freyling schrieb (08.03.2024, 13:33 o’clock):
    > […] Vortrag »Raum und Zeit«. In diesem Vortrag führt Minkowski die mathematischen Notationen ein, mit denen die Spezielle Relativitätstheorie Einsteins zur Allgemeinen Relativitätstheorie erweitert werden kann.

    https://de.wikisource.org/wiki/Raum_und_Zeit_(Minkowski)

    Relevant finde ich dabei insbesondere die Notation

    \[ \tau = \int {\rm d} \tau \]

    die wohl tatsächlich von Minkowskis SR-(Herleitung und)Nutzung auf allgemeinere Fälle bezogen wurde. (Nicht unbedingt zurecht, soweit ich die Definition Riemannscher Integrale verstehe. …)

    Viel interessanter und (für mich zunächst) schwieriger finde bzw. fand ich die Aufgabe, mit den Begriffen/Mitteln der ART zu definieren, wie denn zumindest im Prinzip zu messen sei, ob eine gegebene Ereignismenge (einschl. aller Koinzidenzbestimmungen bzw. der “Kausalstruktur” aller darin tatsächlich auffindbaren oder zumindest denkbaren Beteiligten) “flach” wäre, oder nicht. (Den Rest der Raumzeit-Geometrie erledigt das Äquivalenzprinzip.)

  19. Dirk Freyling schrieb (07.03.2024, 22:54 o’clock):
    > […] Euklids Definitionen […] verweisen auf außermathematische Objekte der „reinen Anschauung“ wie Punkte, Linien und Flächen.
    > […] Als David Hilbert (1862 – 1943) im 20. Jahrhundert erneut die Geometrie axiomatisierte, verwendete er […] lediglich Elemente nicht weiter explizierter Mengen. [… Diese]
    Objekte der Geometrie hießen zwar weiterhin „Punkte“ und „Geraden“ [usw.]

    … wohl “für historische Kohärenz und wenigstens indirekte, von Euklid geborgte Anschaulichkeit”;
    aber im strikten, harten, rein-mathematischen Sinne sind diese Namen eben Bedeutungs-los, beliebig/austauschbar, bloß zum Zwecke der Unterscheidbarkeit gebraucht.

    Das war sicherlich Fortschritt auf dem Weg, sich u.a. von der vermeintlichen Anschaulichkeit des Euklidschen Parallelen-Axioms zu befreien.
    Damit verbunden war aber auch Akzeptanz dafür, Axiome nicht mehr unbedingt als Selbstverständlichkeiten zu betrachten und zu suchen,
    sondern alles überhaupt Formulierbare hinsichtlich logischer Konsequenzen jeweils “mal durchzuspielen”.

    Die jeweiligen Gesamtsysteme aus (abstrakten) Begriffen, damit jeweils formulierten Axiomen und weiteren Definitionen, sowie (allen) jeweils daraus folgenden logischen Konsequenzen haben Hilbert & Co. dabei ja sicherlich als “Theorien” bezeichnet (und: gedacht).

    > […] Es handelt sich bei dem Standardmodell der Elementarteilchenphysik (SM) und dem Standardmodell der Kosmologie (ΛCDM-Modell) um philosophisch–mathematische Modelle. Die Standardmodelle sind keine physikalischen Denkmodelle!

    Standardmodelle sind keine physikalischen Denkmodelle!

    Diese Formulierung erinnert (mich doch sehr) an “mein Motto (als Experimentalphysiker)”:

    “Theorien sind keine Modelle!”

    ,

    was ohne Weiteres die Umkehrung einschließt:

    Modelle, und insbesondere Standardmodelle (der Physik), sind keine (physikalischen) Theorien!.

    (Das Wort “Modell” wurde und wird nun mal in mehrfachem Sinne gebraucht; u.a. auch im Begriff “Denkmodell”. Zur inhaltlichen Abgrenzung bietet sich meines Erachtens an, das Wort “Theorie” zu nutzen.)

    > Apropos freie Parameter, […]

    Im gegebenen Zusammenhang nenne und betrachte ich diese als Messgrößen, deren Werte jeweils experimentell zu bestimmen sind. Hinsichtlich des SM insbesondere

    – Messgrößen, die im Rahmen der GWS-Theorie (der elektro-schwachen Wechselwirkung) definiert sind, z.B. die Koeffizienten der CKM-Matrix, sowie der PNMS-Matrix, Kopplungsstärken, Eich-Bosonen-Massen, Anzahl der Fermion-Generationen, …

    – Messgrößen, die im Rahmen der QCD-Theorie (der starken Wechselwirkung) definiert sind: da wüsste ich ebenfalls die Kopplungsstärke und deren “Rennen”, sowie die (damit auch verbundene) confinement scale

    – “allgemeine Messgrößen”, insbesondere die Massen der elementaren Fermionen.

    > […] Theoretische Modelle
    > […] theoretischen Modellerwartungen
    > Theoretisches wurde über Jahrzehnte immer wieder genaueren Meßergebnissen angepasst.

    Solche Formulierungen finde ich (auf Grundlage des gerade Dargelegten) sprachlich bzw. begrifflich schlicht ungenau; insbesondere redundant und den beschriebenen Begriff “Theorie” überstrapazierend.

    > […] postuliert essentielle Theorieobjekte […] Realobjekt-Interpretationen werden im Rahmen der Standardmodelle aus mathematisch formalisierten (mitunter esoterischen) Konzepten geboren.

    Ich möchte die Problematik keinesfalls bestreiten. (Vereinfachend: “Man erkennt die Dinger eben nicht unbedingt, wenn man sieht; besonders, weil es um winzige Dinger geht.”)
    Und die Problematik ist gewissermaßen alltäglich: die relevanten Experimente verfolgen ja typischerweise das Ziel, “Neues, Spektakuläres zu entdecken”.

    Aber die Erwartung/Hoffnung oder Behauptung “das (Realobjekt), was in diesem Versuch nachweislich vorlag, entsprach genau dem folgendermaßen definierten Theorieobjekt” gehört m. E. nun mal zu den Aussagen, die Modellen und insbesondere “dem (jeweiligen) Standardmodell” zusammengefasst werden; Aussagen, die einzeln wahr oder falsch sein können und in der Gesamtheit und auch durch wiederholte Überprüfung falsifizierbar sind.

    Dirk Freyling schrieb (08.03.2024, 13:33 o’clock):
    > […] Vortrag »Raum und Zeit«. In diesem Vortrag führt Minkowski die mathematischen Notationen ein, mit denen die Spezielle Relativitätstheorie Einsteins zur Allgemeinen Relativitätstheorie erweitert werden kann.

    … [ Link aus SciLogs-Kommentar-taktischen Gründen ins Memo verlegt. – FW ] …

    Relevant finde ich dabei insbesondere die Notation

    \[ \tau = \int {\rm d} \tau \]

    die wohl tatsächlich von Minkowskis SR-(Herleitung und)Nutzung auf allgemeinere Fälle bezogen wurde. (Nicht unbedingt zurecht, soweit ich die Definition Riemannscher Integrale verstehe. …)

    Viel interessanter und (für mich zunächst) schwieriger finde bzw. fand ich die Aufgabe, mit den Begriffen/Mitteln der ART zu definieren, wie denn zumindest im Prinzip zu messen sei, ob eine gegebene Ereignismenge (einschl. aller Koinzidenzbestimmungen bzw. der “Kausalstruktur” aller darin tatsächlich auffindbaren oder zumindest denkbaren Beteiligten) “flach” wäre, oder nicht. (Den Rest der Raumzeit-Geometrie erledigt das Äquivalenzprinzip.)

    • Solche Formulierungen finde ich (auf Grundlage des gerade Dargelegten) sprachlich bzw. begrifflich schlicht ungenau;”

      Na dann…
      Zur Erinnerung, das Standardmodell der Elementarteilchenphysik zielt darauf ab Materie-Entstehung und Wechselwirkungen durch rein abstrakte mathematische Symmetrien (Eichsymmetrien mit ihren Eichgruppen) zu erfassen.
      25 freie Parameter des Standardmodells der Teilchenphysik (SM)
      3 Kopplungskonstanten
      der starken Wechselwirkung ( 8 Gluonen, Farbladung) αs
      der elektromagnetischen Wechselwirkung (Photon, elektrische Ladung) α
      der Schwachen Wechselwirkung (W+, W-, Z0) αW
      6 Quarkmassen
      3 Massen der geladenen Leptonen (Elektron, Myon, Tau)
      4 Winkel zur Beschreibung von Quark-Zerfällen
      1 Winkel zur Beschreibung der CP-Verletzung in der starken Wechselwirkung
      Masse des Higgs-Bosons
      3 Massen und 4 Mischungswinkel massebehafteter Neutrinos

      Einige Fakten und Anregungen zur Selbstanalyse…

      Postulierte Quarks sind keine Teilchen, weder im phänomenologischen noch im quantentheoretischen Sinne, da sie nicht als isolierbare Partikel bzw. Zustände auftreten. Die physikalischen Teilchen andererseits sind als gebundene Zustände aus Quarks zusammengesetzt zu denken. Den elementaren Größen der Quantenfeld-Theorie entsprechen keine physikalischen Objekte. Die gewünschten, verschiedenen Arten von postulierten Elementarteilchen im SM unterscheiden sich durch die Quantenzahlen dynamischer Eigenschaften wie Ladung oder Isospin. Einige sind per Postulat masselos, andere nicht. Elektronen sind theoriegewünscht zum Masse- und Ladungs-Punkt verarmt. Einige andere sollten masselos sein, wie Neutrinos, sind es dann aber doch nicht. Auftretende mathematische Theoriefragmente, wie z.B. “5 Phasen” bei der CKM-Matrix werden einfach verworfen, da diese ergebnisorientiert nicht “passen”). Da heißt es lapidar zum Thema „Quarkmischungen“: …Die CKM-Matrix (Cabibbo-Kobayashi-Maskawa-Matrix) wird physikalisch eindeutig durch drei reelle Parameter sowie eine komplexe Phase beschrieben (weitere fünf Phasen, die mathematisch auftreten, haben keine physikalische Bedeutung)…“ Das bedeutet schlicht und ergreifend, dass man sich ergebnisorientiert die mathematischen Elemente nimmt, die „irgendwie passen“ und andere einfach ignoriert. Dieses beliebige Vorgehen im Rahmen mathematischer Modelle hat mit exakter Wissenschaft nichts mehr zu tun.

      Wie auch immer, …quantisierte Eigenschaften werden durch innere Symmetrien charakterisiert und haben nichts mehr mit Eigenschaften im üblichen Sinne gemeinsam, die als den Dingen inhärente physische Qualitäten aufgefasst werden können. Der Isospin der Nukleonen oder die »Farbe« der Quarks drücken überhaupt keine Qualitäten in diesem Sinne mehr aus, sondern nur noch beliebig festgelegte Basiszustände beziehungsweise Richtungen in einem abstrakten Raum, die durch Symmetrietransformationen aufeinander bezogen werden. Nahezu alle bisher bekannten Symbolsysteme werden zitiert. Mal sind es die Farben (rot, blau, grün), mal Buchstaben (u, d, s, c, b, t), mal symbolische Eigenschaften (strange, charm, beauty,…), als Begriff kommen auch noch die Aromen hinzu, für eine noch unterhalb der Quarks liegende Struktur wurden die Bezeichnungen ‘tohu’ und ‘wabohu’ aus der Schöpfungsgeschichte im Alten Testament vorgeschlagen.

      Aber die Erwartung/Hoffnung oder Behauptung “das (Realobjekt), was in diesem Versuch nachweislich vorlag, entsprach genau dem folgendermaßen definierten Theorieobjekt” gehört m. E. nun mal zu den Aussagen, die Modellen und insbesondere “dem (jeweiligen) Standardmodell” zusammengefasst werden; Aussagen, die einzeln wahr oder falsch sein können und in der Gesamtheit und auch durch wiederholte Überprüfung falsifizierbar sind.”

      Zur Erinnerung, Brigitte Falkenburg schreibt in Particle Metaphysics: A Critical Account of Subatomic Reality (2007) u.a.

      “Es muss Schritt für Schritt transparent gemacht werden, was Physikerinnen und Physiker selbst als empirische Basis für das heutige Wissen der Teilchenphysik ansehen. Und es muss transparent sein, was sie im Einzelnen meinen, wenn sie von subatomaren Teilchen und Feldern sprechen. Die Weiterverwendung dieser Begriffe in der Quantenphysik führt zu ernsthaften semantischen Problemen. Die moderne Teilchenphysik ist in der Tat der härteste Fall für Inkommensurabilität im Sinne Kuhns”….

      …”Schließlich ist die Theorieabhängigkeit ein schlechtes Kriterium, um zwischen sicherem Hintergrundwissen und unsicheren Annahmen oder Hypothesen zu unterscheiden.”

      … “Die subatomare Struktur existiert an sich nicht wirklich. Sie zeigt sich nur in einem Streuexperiment mit einer bestimmten Energie, also aufgrund einer Wechselwirkung. Je höher der Energietransfer bei der Wechselwirkung ist, desto kleiner sind die gemessenen Strukturen. Hinzu kommt, dass nach den Gesetzen der Quantenfeldtheorie bei sehr hohen Streuenergien neue Strukturen entstehen. Die Quantenchromodynamik (d. h. die Quantenfeldtheorie der starken Wechselwirkung) besagt, dass je höher die Streuenergie ist, desto mehr Quark-Antiquark-Paare und Gluonen im Inneren des Nukleons entstehen. Nach dem Modell der Streuung in diesem Bereich führt dies wiederum zu Skalierungsverletzungen, die tatsächlich beobachtet wurden.44 Dies wirft ein neues Licht auf Eddingtons alte Frage, ob die experimentelle Methode zur Entdeckung oder zur Herstellung führt. Offenbart die Wechselwirkung bei einer bestimmten Streuenergie die gemessenen Strukturen oder erzeugt sie diese?“

      44 Perkins 2000, 154; Povh et al 1999, 107 – 111

      …“Es ist nicht möglich, einen gemessenen Querschnitt auf seine individuelle Ursache zurück zu führen. Keine Kausalgeschichte setzt einen gemessenen Formfaktor oder eine Strukturfunktion mit seiner Ursache in Beziehung“…

      …“Mit den in Teilchenbeschleunigern erzeugten Strahlen kann man weder in das Atom hineinschauen, noch subatomare Strukturen sehen, noch punktförmige Strukturen im Inneren des Nukleons beobachten. Solches Gerede ist metaphorisch. Das einzige, was ein Teilchen sichtbar macht, ist die makroskopische Struktur des Targets“…

      Dazu “praktisch” respektive realistisch gesehen:

      Der LHC (LargeHadronCollider) ist darauf ausgelegt, Protonen auf Energien von 7 TeV zu beschleunigen und so Kollisionen mit einer Schwerpunktsenergie von 14 TeV zu ermöglichen. Zur Auswertung dieser Ereignisse, mit denen das postulierte Quark-Gluon-Plasma untersucht werden soll, ist das ALICE-Experiment konstruiert. Das eigentliche Verständigungsproblem beginnt schon viel früher. Der Begriff Plasma ist bezogen auf die Theorieobjekte Quark und Gluon falsch. Die gemäß SM postulierten Quarkmassen ergeben in der Summe bei weitem nicht die Nukleonenmassen. Gluonen sind postuliert masselos.

      Postulierte Up-Quark Masse: 2.3±0.7 ± 0.5 MeV/c² up (u)

      Postulierte Down-Quark Masse: 4.8±0.5 ± 0.3 MeV/c² down (d)

      938,272 0813(58) MeV/c² Protonmasse duu ~ 0,8 – 1,2 % (!!!) Quarksmassenanteil

      939,565 4133(58) MeV/c² Neutronmasse ddu ~ 1,1 – 1,4 % (!!!) Quarksmassenanteil

      Daraus folgt u.a. : Nicht gemäß einer Meinung, sondern nach dem Kenntnisstand und den Postulaten des SM wechselwirken bei Teilchenkollisionen also hauptsächlich phänomenologisch unbestimmte beschleunigte Energiepakete sprich Bindungsenergien und hauptsächlich äußere Energie miteinander, von Elementarteilchenmassen existiert so gut wie keine »Spur«.

      …Aus bestehenden Theorien werden dann mittels Kollisionssimulationen Hypothesen aufgestellt, wie beispielsweise eine Erweiterung der Theorie aussehen könnte. Dann werden Detektorsimulationen berechnet, wie eine Teilchensignatur unter diesen hypothetischen Annahmen, bei einer Teilchenkollision aussehen müsste. Dann folgt der Vergleich. Pythia, die weissagende Priesterin im Orakel von Delphi, ist Namensgeberin für ein Computerprogramm, das verwendet wird, um Kollisionen an Teilchenbeschleunigern zu simulieren.…

      Ergebnis: Im heutigen standardmodell-orientierten Denken werden also ergebnisorientiert theoretisch Befunde postuliert, nach denen dann mittels computersimulierten „Versuchsaufbauten“ selektiv gesucht wird. Diese stark theoriebeladene Suche kennt keinen einzigen direkten Nachweis und lässt sich auf Grund der vielen freien Parameter, nicht detektierbaren postulierten Theorieobjekten und deren postulierten Kaskadenereignissen beliebig ergebnis-interpretieren.

      Im Guardian schrieb die Theoretische Physikerin Sabine Hossenfelder am 26. September 2022 u.a. Folgendes:

      …”Unter vier Augen geben viele Physiker zu, dass sie nicht an die Existenz der Teilchen glauben, für deren Suche sie bezahlt werden…” …”Sie rechtfertigen ihre Arbeit damit, dass es sich um eine gute Praxis handelt, oder dass ab und zu einer von ihnen zufällig auf eine Idee kommt, die für etwas anderes nützlich ist. …”Als ehemalige Teilchenphysikerin macht es mich traurig zu sehen, dass dieses Gebiet zu einer Fabrik für nutzlose akademische Studien geworden ist….

      Seit den 1980er Jahren haben die Physiker einen ganzen Teilchenzoo erfunden, dessen Bewohner Namen tragen wie Preonen, Sfermionen, Dyonen, magnetische Monopole, Simps, Wimps, Wimpzillas, Axionen, Flaxionen, Erebonen, Acceleronen, Cornucopionen, Riesenmagnonen, Maximonen, Makros, Wisps, Fips, Branonen, Skyrmionen, Chamäleons, Cuscutonen, Planckonen und sterile Neutrinos, um nur einige zu nennen… Alle Experimente, die nach diesen Teilchen suchten, gingen leer aus”…

      “Experimentelle Teilchenphysiker wissen um das Problem und versuchen, sich von dem zu distanzieren, was ihre Kollegen in der Theorieentwicklung tun. Gleichzeitig profitieren sie davon, denn all diese hypothetischen Teilchen werden in Förderanträgen verwendet, um Experimente zu rechtfertigen. Und so halten auch die Experimentalphysiker ihren Mund. So bleiben Leute wie ich, die das Fachgebiet verlassen haben – ich arbeite jetzt in der Astrophysik – die einzigen, die in der Lage und willens sind, die Situation zu kritisieren”…

      Es gibt viele Faktoren, die zu diesem traurigen Niedergang der Teilchenphysik beigetragen haben. Zum Teil ist das Problem sozialer Natur: Die meisten Menschen, die in diesem Bereich arbeiten (ich war früher einer von ihnen), glauben wirklich, dass die Erfindung von Teilchen ein gutes Verfahren ist, weil es das ist, was sie gelernt haben, und was alle ihre Kollegen tun.

      In einigen Fällen besteht die Aufgabe der neuen Teilchen darin, eine Theorie ästhetisch ansprechender zu gestalten, aber in vielen Fällen besteht ihr Zweck darin, statistische Anomalien zu erklären. Jedes Mal, wenn eine Anomalie gemeldet wird, schreiben Teilchenphysiker schnell Hunderte von Artikeln darüber, wie neue Teilchen die Beobachtung angeblich erklären. Dieses Verhalten ist so üblich, dass es sogar einen Namen dafür gibt: “Ambulance-chasing”, nach der anekdotischen Strategie von Anwälten, Krankenwagen zu verfolgen, in der Hoffnung, neue Mandanten zu finden.

      Ambulance-chasing” ist eine gute Strategie, um die eigene Karriere in der Teilchenphysik voranzutreiben. Die meisten dieser Arbeiten bestehen die Peer Review und werden veröffentlicht, weil sie technisch nicht falsch sind. Und da die “Ambulance-Chaser” die Arbeiten der anderen zitieren, kann jeder von ihnen schnell Hunderte von Zitaten anhäufen. Aber für den wissenschaftlichen Fortschritt ist das eine schlechte Strategie. Nachdem die Anomalie verschwunden ist, werden diese Arbeiten irrelevant.

      Dieses Verfahren, Teilchen zu erfinden und sie dann auszuschließen, wird schon so lange praktiziert, dass es Tausende von Professoren mit festen Stellen und Forschungsgruppen gibt, die davon leben. Es ist zu einer allgemein akzeptierten Praxis in der Physikgemeinschaft geworden. Niemand stellt auch nur in Frage, ob dies sinnvoll ist. Zumindest nicht in der Öffentlichkeit”…

  20. Julian Apostata
    08.03.2024, 18:39 o’clock

    Die ART kann vorhersagen, wie sich Doppelsterne einander annähern, um dann bei der Verschmelzung Gravitationswellen ab zu senden.
    Die Physik vor der ART konnte diese Annäherung nicht vorher sagen.

    Dirk Freyling
    08.03.2024, 22:50 o’clock

    Die Vorhersagen der ART-Nachturner sind – plakativ formuliert – im Sinne der ART-Axiomatik beliebig bis falsch.
    U.a. aus folgenden Gründen:

    Und dann folgt eine meterlange Themaverfehlung. Er gibt nämlich kein einziges Beispiel dafür, wo die ART bei astronomischen Vorhersagen falsch liegt.

    Auch von Frank Wappler kommt da nix.

  21. @Freyling 08.03. 14:02

    „Sie rezitieren ausschließlich Systempropaganda.“

    Was soll ich sonst machen. Ich kann nur die aktuelle Kultur aufgreifen, und diese mit meinem eigenen Leben und meinen eigenen Erfahrungen irgendwie zu vereinbaren versuchen.

    Sicher sind die Standartmodelle der Teilchenphysik und der Kosmologie nicht vollständig, ich wüsste jetzt nicht mal, ob das einer behauptet. Aber es wird wohl was dran sein. Auch wenn hier eben wie im Beispiel mit der Modellierung der Entwicklung von Bandenmitgliedszahlen eine nicht unerhebliche Fehlerquelle lauert.

    Gravitationswellenmessungen und auch die Erkundung der Umgebung des zentralen Schwarzen Lochs im Zentrum der Milchstraße halte ich durchaus für ziemlich sichere Fakten. Für mich hört sich das überaus überzeugend an. Beispielsweise.

    Den Teilchenzoo in der Teilchenphysik kann ich dann weniger nachvollziehen. Das erscheint mir durchaus merkwürdig, aber Alternativen sehe ich da auch keine. Wenn denn die Wirklichkeit diese Komplexität braucht, dann ist das eben so.

    Für mich ist das Universum von Grund auf sinnvoll, wie auch immer die Details aussehen. Das ist jetzt mein Projekt dabei.

  22. Julian Apostata schrieb (08.03.2024, 18:39 o’clock):
    > Die ART kann vorhersagen, wie sich Doppelsterne einander annähern, […]

    Die ART enthält keinerlei Vorhersage, ob und wie stark bestimmte Sterne elektrisch geladen sind, magnetische Felder (Flussdichte; insbesondere auch über der jeweiligen Oberfläche) aufweisen, paarweis aufeinander Strahlungsdruck ausüben, von weiteren astronomischen Objekten umgeben sind und womöglich sogar getroffen wurden.

    Die ART enthält überhaupt keinerlei Vorhersage, die sich Ergebnis-offen testen ließe.

    Die ART erlaubt lediglich zu messen, in wie fern jeweils Masse und Ladung in einem “Stern” konzentriert und darin verteilt wären, und in wie fern sich derartige “Stern” einander annähern, falls überhaupt.

    Die ART ist schließlich eine Theorie; kein Modell.

    > Er gibt nämlich kein einziges Beispiel dafür, wo die ART bei astronomischen Vorhersagen falsch liegt.

    Selbstverständlich gibt es für sowas kein einziges Beispiel:
    Die ART ist schließlich eine Theorie; kein astronomisches Modell.
    (Und auch kein astrophysikalisches Modell. Und auch keine kosmologisches Modell. Und, und, und.)

    > Auch von Frank Wappler kommt da nix.

    Ich kann und möchte eben nichts behaupten, was nach meinem Verständnis nicht stimmt.

    Zum Zwecke der Diskussion kann ich allerdings recht einfach und ausdrücklich ein (vermutlich, wahrscheinlich) falsches astronomisches Modell nennen;
    und an diesem Beispiel nochmals erläutern, dass die (in diesem Falle wenigen) Begriffe, mit denen dieses falsche Modell formuliert ist, deshalb nicht etwa an sich “falsch” oder “widerlegt” oder “ungültig” wären;
    und dass die Theorie (ART), in der diese (in diesem Falle wenigen) Begriffe als Messgrößen definiert sind, deshalb nicht etwa an sich “falsch” oder “widerlegt” oder “ungültig” wäre.

    Nämlich das Modell: “Die Sonne dreht sich um die Erde; hat sich letztes Jahr um die Erde gedreht, und wird sich auch dieses gesamte Jahr um die Erde drehen.”

    Dieses Modell benutzt (implizit) den Begriff eines “starren, nicht-rotierenden Bezugssystems”;
    und die Sonne war im gesamten letztes Jahr vermutlich wesentlich genauer Mitglied eines solchen Bezugssystems, als die Erde;
    und das erwarte ich für dieses gesamte Jahr auch.

  23. Frank Wappler
    11.03.2024, 12:46 o’clock

    Die ART enthält überhaupt keinerlei Vorhersage, die sich Ergebnis-offen testen ließe.

    https://de.wikipedia.org/wiki/Gravitationswelle

    Für einen nennenswerten Effekt müssen die Objekte Massen von Sternen haben, aber viel kompakter als gewöhnliche Sterne sein und sich sehr eng und damit sehr schnell umeinander bewegen. Infrage kommen Neutronensterne oder Schwarze Löcher. Erstmals wurde dieser Effekt indirekt beim Doppelpulsar PSR J1915+1606 nachgewiesen. Die Messungen passen exakt zu den Vorhersagen der Allgemeinen Relativitätstheorie. Durch die abgestrahlten Gravitationswellen nähern sich die beiden Neutronensterne in diesem System jährlich um 3,5 m an und werden in ca. 300 Millionen Jahren verschmelzen.

    https://de.wikipedia.org/wiki/PSR_J1915%2B1606

    • Julian Apostata schrieb (11.03.2024, 20:32 o’clock):
      > […] Gravitationswellen […] Für einen nennenswerten Effekt müssen die Objekte Massen von Sternen haben, aber viel kompakter als gewöhnliche Sterne sein und sich sehr eng und damit sehr schnell umeinander bewegen. […]

      Das ist sicherlich ein Theorem der ART; wobei zu den Voraussetzungen dieses Theorems sicherlich auch gehört, dass die betreffenden Objekte in ihren Bewegungen umeinander nicht nenneswert “gestört” würden (etwa “wegen” eigener Ladungen, Emissionen, und/oder externen Feldern, Objekten, …).

      > Erstmals wurde dieser Effekt indirekt beim Doppelpulsar PSR J1915+1606 nachgewiesen.

      Ein “indirekter Nachweis” ?? — Sicherlich erbracht (und mit Abschätzungen systematischer Unsicherheiten ergänzt) unter Berücksichtigung der in der ART enthaltenen Definitionen, wie ein entsprechender Nachweis zumindest im Prinzip direkt, definitiv, wirklich zu erbringen wäre.

      > Die Messungen passen exakt zu den Vorhersagen der Allgemeinen Relativitätstheorie.

      Von “exakt passen” könnte wohl die Rede sein, wenn systematische Unsicherheiten als “nicht nennenswert” abeschätzt wurden. …

      Mathematische Exaktheit wird aber (oft zurecht) Theoremen zugeschrieben. Und dazu gehören womöglich auch Theoreme der ART, die sich als mathematisch-logische Konsequenzen aus den in der ART enthaltenen Mess-Definitionen ergeben,

      – wie die Verteilung von “Masse” zu messen ist (und ob diese “Masse-Verteilung” in den betreffenden Versuchen insbesondere im Wesentlichen als “in zwei kompakten, voneinander getrennten Objekten konzentriert” charakterisierbar wäre, oder in wie fern nicht),

      – wie insbesondere “Umlaufdauer” (und deren eventuelle Veränderung im Versuchsverlauf) zweier gegebener kompakter, voneinander getrennter Objekte zu messen ist,

      und

      – wie zu messen ist, ob ein gegebenes System zweier kompakter, einander unkreisender Objekte im Versuchsverlauf womöglich “ungestört” gewesen und geblieben wäre, oder in wie fern nicht.

      Bei all dem spielt in der ART die Messung von “Krümmung” in der betreffenden Region eine (wichtige) Rolle; die womöglich z.B. periodisch-Wellen-artig variierend aufgefunden werden mag; und wobei sich womöglich auch bestimmte Zusammenhänge zwischen der betreffenden Periodendauern und den o.g. Umlaufdauern als Theoreme der ART erweisen.

      > […] https://de.wikipedia.org/wiki/PSR_J1915%2B1606

      Die ART enthält insbesondere keine Vorhersagen, dass unser Universum ein kompaktes Objekt von »1,4398 Sonnenmassen« enthält oder überhaupt jemals enthalten hätte oder enthalten wird;
      ebenso wenig, dass unser Universum ein kompaktes Objekt von »1,3886 Sonnenmassen« enthält oder überhaupt jemals enthalten hätte oder enthalten wird;
      erst recht nicht, dass im uns beobachtbaren Universum zwei derartige Objekte einander umkreisen;
      und schon gar nicht, dass irgendein System zweier einander umkreisender Masse-haltiger Objekte exakt ungestört ist, war, und beleiben würde.

      Die ART ist schließlich eine Theorie, die (neben axiomatischen Begriffen und daraus formulierten Definitionen) Theoreme enthält;
      und kein Modell, das (neben bestimmten schon ermittelten Messwerten) Vorhersagen von Messwerten aus weiteren Versuchen macht, die sich als falsch erweisen könnten, falls aus den betreffenden weiteren Versuchen Messwerte ermittelt würden, die ungleich den jeweils vorhergesagten sind.

      Im Übrigen kann man sich Online-Enzyklopädien vorstellen, in denen diese Zusammenhänge jeweils insbesondere durch Verlinkung verdeutlicht sind.

    • »Abstract zur Sache«

      Bei der irdischen LIGO-Apparatur (Laser Interferometer Gravitation Wave Observatory) handelt es sich prinzipiell um ein Michelson-Interferometer, dass angeblich Meßunterschiede in der Grössenordnung von 10-22 abbilden kann. Das verwendete “LIGO-Interferometer” “arbeitet” mit Laserlicht” und besteht aus “makroskopischen” Spiegeln und mißt keine Gravitationswellen, sondern “Verschiebungen” der Teilstrahlen im Spiegelsystem. Die immer wieder zu lesende Ansage, es handelt sich um einen direkten Nachweis von Gravitationswellen ist schlicht unwahr. Noch schwerwiegender ist der Umstand, daß die Interpretation der Messung Bestandteil der Meßkonzeption ist. Bereits die Kriterien der massiven Datenfilterung beinhalten die theoriebeladene Interpretation! Die dokumentierte Wahrheit ist, die “extrem winzige”, wunschgemäß der Gravitationswelle zugeschriebene, Längenänderung wurde nicht gemessen, sondern stark theoriebeladen “errechnet”. Die Theorie zur Gravitationswelle resultiert aus einer Kovarianzverletzung, wie bereits in einem vorherigen Kommentar ausgeführt, der zugrunde liegenden Gleichungen. Salopp formuliert wird u.a. zum Meßzweck die Raumzeit pseudoeuklidisch in einen absoluten Raum und messbare Zeit aufgespalten. Konträr zu Wunsch und Forderung der Standardmodellverkünder und dem ausgelösten Gravitationswellen-Hype in den populärwissenschaftlichen Medien existieren real weder Gravitationswellen noch Schwarze Löcher, letztere sind gleichfalls ein spezielles Produkt Schwarzschildmetrik kovarianzverletzter Gleichungen, wie gleichfalls bereits ausgeführt wurde. Mehr Details zur komplexen Problematik siehe exemplarisch »Gravitationswellen-Postulat und propagierte Nachweise«*

      Bei allen kosmologischen „Beobachtungsstudien“ handelt es sich nicht um kontrollierbare Laborexperimente. Die menschliche Beobachtungs-Zeitspanne ist verglichen mit den Zeitspannen, in denen sich kosmische Bewegungen abspielten und abspielen, extrem klein. Mit den Angaben aus der menschlichen Beobachtungsdauer Annahmen zu begründen, ist „weit hergeholt“ um es mal salopp zu formulieren. Alle derzeitigen vermeintlich empirischen Messungen sind stark (Urknall-)theoriebeladen. Postulierte Zeitspannen, Entfernungen und Energiedichten sind subjektiv-theorieabhängig.

      *[Es existieren zahlreich paradoxe Forderungen und Vorstellungen der Systemphysik, die auf Grund der erkennbaren Inkonsistenzen, Widersprüche, Wirklichkeitsleugnung und fehlender Phänomenologie eine rein wissenschaftliche Auseinandersetzung unmöglich machen. Nur an Rationalität “gekoppelte” Ironie und Satire schaffen hier eine ertragbare Diskussionsnähe.]

  24. Also findet jedes Kartell neue Mitglieder. Wie? Das wissen wir nicht, die Gründe sind in jedem Einzelfall verschieden, also bleibt uns nichts anderes übrig, als das als Zufallsprozess zu modellieren. [Artikeltext]

    Es handelt sich hier um Geschäft, extra-legales, illegales Geschäft, angeschaut werden dürfen sich diesbezügliche Funktionalität meinend, auch die Filme mit den Namen ‘Godfather’ und ‘Godfather 2’.

    Statistische, stochastische Sicht ist hier (erst einmal) nicht angeraten.

    Viel besser als die Verbrecher einzusperren ist es, Bedingungen zu schaffen, die Verbrechen gar nicht erst entstehen lassen. [Artikeltesxt]
    Dr. W ist Verbrecher genug, um zu wissen, dass zu lasche Sttafverfolgung Verbrechen wirtschaftlich attraktiv werden lässt, die sog. Rendite meinend.
    Der Gedanke “Verbrechen nicht erst entstehen zu lassen”, weil die sozialen Bedingungen nett sind, ist Blödsinn.

    Verbrechen ist keine Folge sog. sozialer Benachteiligung, sondern Folge zu geringer Strafe, so dass sich Straftäter, anders als andere Personen, die weniger wagemutig sind, begründet ein höheres finanzielles Input durch verbrecherische Arbeit erhoffen können als durch ehrliche Arbeit.
    Dr. W sich hier auskennen tun.
    Insofern ist mathematisch wenig zu machen.

    Mit freundlichen Grüßen
    Dr.Webbaet

  25. Solly!, so besser ausschauen tun, Dr. W schon vom Fach sein :

    Also findet jedes Kartell neue Mitglieder. Wie? Das wissen wir nicht, die Gründe sind in jedem Einzelfall verschieden, also bleibt uns nichts anderes übrig, als das als Zufallsprozess zu modellieren. [Artikeltext]

    Es handelt sich hier um Geschäft, extra-legales, illegales Geschäft, angeschaut werden dürfen sich diesbezügliche Funktionalität meinend, auch die Filme mit den Namen ‘Godfather’ und ‘Godfather 2’.

    Statistische, stochastische Sicht ist hier (erst einmal) nicht angeraten.

    Viel besser als die Verbrecher einzusperren ist es, Bedingungen zu schaffen, die Verbrechen gar nicht erst entstehen lassen. [Artikeltesxt]

    Dr. W ist Verbrecher genug, um zu wissen, dass zu lasche Sttafverfolgung Verbrechen wirtschaftlich attraktiv werden lässt, die sog. Rendite meinend.
    Der Gedanke “Verbrechen nicht erst entstehen zu lassen”, weil die sozialen Bedingungen nett sind, ist Blödsinn.

    Verbrechen ist keine Folge sog. sozialer Benachteiligung, sondern Folge zu geringer Strafe, so dass sich Straftäter, anders als andere Personen, die weniger wagemutig sind, begründet ein höheres finanzielles Input durch verbrecherische Arbeit erhoffen können als durch ehrliche Arbeit.
    Dr. W sich hier auskennen tun.
    Insofern ist mathematisch wenig zu machen.

    Mit freundlichen Grüßen
    Dr.Webbaet

  26. Fas Geschildette war “Science-Fantasy”, vergleiche :

    Eine Epidemie begrenzt sich selbst dadurch, dass die Gesunden weniger werden, bis im Extremfall niemand zum Anstecken mehr übrig ist.

    +

    Die Polizei fischt nach diesem Modell im Trüben. Die Anzahl der Fische, die ihr ins Netz gehen, ist proportional der Anzahl der Fische, die überhaupt in der Brühe schwimmen.

    +

    Also findet jedes Kartell neue Mitglieder. Wie? Das wissen wir nicht, die Gründe sind in jedem Einzelfall verschieden, also bleibt uns nichts anderes übrig, als das als Zufallsprozess zu modellieren. Kartellmitglied trifft Normalmenschen und motiviert ihn mit einer gewissen Wahrscheinlichkeit zum Beitritt.

    Es gibt diese “Kartelle” nicht, sondern es gibt kriminelle Vereinigungen, die um der Praxis willen Gebiete abstecken.
    Neue Mitgloeder werden im gewohnten Sinne geschäftlich geworben, sie sind über zusätzliche, in der BRD – böse formuliert – absehbare geringe Strafzumessung der Richterschaften sozusagen extra-geworben.

    MFG – WB

  27. @Webbaer 11.03. 23:26

    „Verbrechen ist keine Folge sog. sozialer Benachteiligung, sondern Folge zu geringer Strafe, so dass sich Straftäter, anders als andere Personen, die weniger wagemutig sind, begründet ein höheres finanzielles Input durch verbrecherische Arbeit erhoffen können als durch ehrliche Arbeit.“

    Etwas offtopic, aber entscheidend ist schon, wieviel man mit ehrlicher Arbeit verdienen kann, und ob man überhaupt eine Arbeitsstelle findet. Demgegenüber steht der Verdienst mit krimineller Tätigkeit. In der Tat steht freilich auch die Höhe zu erwartender Strafe multipliziert mit dem Risiko erwischt zu werden wiederum da gegen.

    Zumal insbesondere jüngerer Männer fernere Risiken ziemlich gut verdrängen können. Und in der Tat auch die meisten Menschen grundsätzlich keine Lust auf illegales Verhalten haben.

    Das wären auch nochmal einige Parameter, die eine Modellierung besser machen können. Im Prinzip könnte man auch Einzelne Parameter gezielt untersuchen, z.B. der Anteil Menschen, die grundsätzlich keine Lust auf kriminelle Tätigkeit haben. Oder der Anteil junger Männer, die keine ehrliche Arbeit finden können, weil es nicht genug davon gibt.

  28. Dr. W.
    “Dr. W ist Verbrecher genug, um zu wissen, dass zu lasche Strafverfolgung Verbrechen wirtschaftlich attraktiv werden lässt, die sog. Rendite meinend.”

    Ein Blick in die Vergangenheit schafft mehr Klarheit.
    Nach 1945 waren etwa 50 % der Bevölkerung kriminell. Es ging um die Beschaffungskriminalität. Wer nicht verhungern wollte oder betteln, der besorgte sich die Lebensmittel durch Diebstahl oder Hehlerei.
    Und als diese Not abgeschafft wurde durch Lebensmittelkarten, ging auch der Diebstahl zurück.
    Menschen haben auch Stolz und Ehre. Und man klaut nicht, weil die Bestrafung zu lasch ist , sondern man klaut nicht , weil das unehrenhaft ist.Tobias Jeckenburger,
    Keine Lust auf Kriminalität zu haben trifft es auch.
    Das ist so wie mit dem Lügen, Lügen ist anstrengender als die Wahrheit sagen.
    Ein Modell, dass nur mit “Bestrafung” als Parameter funktioniert, das ist unvollständig.
    Die sozialen Bedingungen sind die Ursache für unsoziales Verhalten. Und die sozialen Bedingungen lassen sich nicht mit strafen verbessern.

  29. Dirk Freyling schrieb (12.03.2024, 16:42 o’clock):
    > […] LIGO-Apparatur (Laser Interferometer Gravitation Wave Observatory) […] Die immer wieder zu lesende Ansage, es handelt sich um einen direkten Nachweis von Gravitationswellen ist schlicht unwahr.

    Ähnliches habe auch ich schon mehrfach geschrieben, seit die Möglichkeit bestand, dieser o.g. immer wieder zu lesenden Ansage öffentlich auffindbar zu widersprechen.

    > […] handelt es sich prinzipiell um ein Michelson-Interferometer,

    Im Prinzip handelt es sich bei der LIGO-Apparatur ebenfalls um ein Zwei-Arm-Interferometer, ja.
    Ein nennenswerter Unterschied aber besteht darin, dass in den Versuchen von A. Michelson und E. Morley die (optisch relevanten) Bestandteile des Interferometers “auf einem Steinblock platziert” waren und blieben (was wohl mit Vermutungen hinsichtlich der Entfernungen zwischen diesen Bestandteilen und womöglich deren Konstanz im Versuchsverlauf zusammenhing);
    während in den LIGO-Versuchen die (optisch relevanten) Bestandteile des Interferometers an “gegen seismische Störungen gedämpften Pendeln aufgehängt” waren und blieben (was wohl mit Vermutungen zusammenhing, diese Bestandteile seien im Verlaufe der Versuche und insbesondere während der Aufzeichnung relevanter interferometrischer Signale “einzeln hinreichend frei schwingend” gewesen und geblieben).

    > Das verwendete “LIGO-Interferometer” “arbeitet” mit Laserlicht” und besteht aus “makroskopischen” Spiegeln und mißt […] “Verschiebungen” der Teilstrahlen im Spiegelsystem.

    Die Rede ist insbesondere von »strain [signals]«, die insbesondere quasiperiodisch variieren (»chirp«).

    > daß die Interpretation der Messung Bestandteil der Meßkonzeption ist. Bereits die Kriterien der massiven Datenfilterung beinhalten die theoriebeladene

    … Modell-anhängige ! …

    > Interpretation!

    Ich möchte niemanden dafür kritisieren, im übertragenen Sinne “seine verlorenen Schlüssel zuerst dort zu suchen, wohin seine Laterne leuchtet”.

    Und jede Suche nach einem (verlorenen) Schlüssel setzt ja ohnehin die nachvollziehbare Festsetzung (Theorie) voraus, was dabei überhaupt mit “Schlüssel” gemeint ist, und folglich, woran man einen “Schlüssel” überhaupt zu erkennen vorhätte, falls man einem begegnen sollte.

    Mein Grund, die bekannten LIGO-Signale nicht als “Nachweise von Gravitationswellen” zu bezeichen, ist vielmehr, dass es denkbar und sogar technisch konkret realisierbar ist (Stichwort: »injection«), genau solche LIGO-Signale auszulösen, ohne dass die LIGO-Apparatur dabei von entsprechenden Gravitationswellen passiert wurde.

    Es ist insbesondere denkbar, dass (und es wäre mit geeigneteren Apparaturen auch experimentell prüfbar, ob) genau solche LIGO-Signale im Zusammenhang mit bestimmten astrophysikalischen Vorgängen auftraten, deren entsprechende Auswirkungen auf die LIGO-Apparatur nicht (oder nicht ausschließlich) durch die Ausbreitung von Gravitationswellen übertragen wurden.

    > […] Kovarianzverletzung, wie bereits in einem vorherigen Kommentar ausgeführt, der zugrunde liegenden Gleichungen.

    Ich kann jedenfalls bestätigen, dass mir in diesem Zusammenhang noch keine Gleichungen untergekommen oder bekannt wären, die ausdrücklich und ausschließlich vermittels (geometrischer) Invarianten ausgedrückt wären (insbesondere vermittels Werten bzw. Verhältnissen Lorentzscher Distanzen, oder wenigstens der Syngeschen Weltfunktion) — derartige Gleichungen würde man ggf. sicherlich “(manifest) kovariant” nennen;

    und dass mir dazu auch keine Diskussion einer konkreten Methodik aufgefallen ist, wie Werte (oder wenigstens Verhältnisse) der Syngeschen Weltfunktion, oder wenigstens Lorentzscher Distanzen, ausdrücklich und ausschließlich aus gegebenen Koinzidenzbestimmungen zu ermitteln sind — diese Forderung Einsteins wird ja auch als “Allgemeine Kovarianz” bezeichnet.

    p.s.
    Zum oben gelegentlich (08.03.2024, 19:38 o’clock, 08.03.2024, 22:50 o’clock) genannten »Äquivalenzprinzip« möchte ich demnächst noch einen gesonderten Kommentar einreichen.

    • Frank Wappler schrieb (13.03.2024, 12:23 o’clock):
      > … Modell-anhängige ! …

      Mein bedauerlicher Schreibfehler (ich bitte um Entschuldigung).
      Gemeint war stattdessen

      … Modell-abhängige [Interpretation] ! …

      vgl. Modellabhängigkeit.

  30. Man braucht gar nicht erst versuchen, nach irgendeinem Sinn in Frank Wapplers Text zu suchen,
    https://de.wikipedia.org/wiki/Gravitationswelle#Erste_Nachweise
    vor allem wenn ein und dasselbe Signal nahezu zeitgleich in zwei Messtationen registriert wird, die 3000 Kilometer voneinander entfernt sind.

    Das Ereignis wurde am 14. September 2015 nahezu zeitgleich mit 7 ms Differenz in den beiden LIGO-Observatorien in den USA beobachtet.

    Das Signal war so intensiv (es war wider Erwarten auch „mit bloßem Auge“ in den Daten zu sehen), dass auch getestet werden konnte, ob Abweichungen zur allgemeinen Relativitätstheorie existieren, was nicht der Fall war.

    • Julian Apostata schrieb (13.03.2024, 19:34 o’clock):
      > https://de.wikipedia.org/wiki/Gravitationswelle#Erste_Nachweise

      […] Das Ereignis wurde am 14. September 2015 nahezu zeitgleich mit 7 ms Differenz in den beiden LIGO-Observatorien in den USA beobachtet.

      … und übrigens in beiden Fällen mit so gut wie vollkommen gleicher »chirp«-Signalform,

      – was dazu Anlass gibt, von (nur) einem einzigen, ein-und-dem-selben astro-physikalischen Ereignis als gemeinsamer Ursache der beiden Signale zu sprechen; und

      – was als Nachweis dafür gelten kann, dass dieses astro-physikalischen Ereignis der Simulation entsprach, entsprechend der die betreffende Signalform zunächst modelliert/berechnet wurde, um gezielt dabach suchen zu können.

      All das stellt aber keinen direkten, definitiven, unbestreitbaren Nachweis dafür dar,

      – dass die LIGO-Testmassen während der Aufzeichnungen der beiden Signale mit hinreichender Genauigkeit “horizontal frei gependelt” hätten, und nicht etwa (wegen des o.g. astro-physikalischen Ereignisses) geeignet horizontal “beschleunigt/geschubst/geführt” gewesen wären —
      denn bezüglich eventueller horizontaler Beschleunigungen dieser Testmassen, in der relevanten Größenordnung, wurden keinerlei Messungen durchgeführt; oder

      – dass die Region, die die LIGO-Observatorien enthielt, während der Aufzeichnungen der beiden Signale so gekrümmt gewesen wäre, wie sie gekrümmt hätte sein müssen, um von “Passage einer hinreichend starken Gravitationswelledurch diese Region” zu sprechen —
      denn bezüglich eventueller derartiger Krümmung dieser Region, insbesondere in der relevanten Größenordnung, wurden keinerlei Messungen durchgeführt.

      (Eine abfällige Bemerkung betreffend Julian Apostatas intellektuellen Fähigkeiten, diese geschilderten Zusammenhänge und Unterschiede zu begreifen, erspare ich mir an dieser Stelle.)

      Das Signal war so intensiv

      … (Die Intensität der Signale ist an sich freilich auch kein Nachweis der Passage einer Gravitationswelle.) …

      dass auch getestet werden konnte, ob Abweichungen zur allgemeinen Relativitätstheorie existieren, was nicht der Fall war.

      Diese Aussage steht auf der angegebenen Wikipedia-Seite offenbar ohne irgendwelche Wiki-Verlinkungen, und auch ohne eine ausdrückliche Quellenangabe. Deshalb:

      Was soll »Abweichungen zur allgemeinen Relativitätstheorie« in diesem Zusammenhang überhaupt bedeuten ?? — Gäbe es denn überhaupt irgendeine durch die LIGO-Observatorien im Prinzip auffindbare Signalform, zu der sich gar keine Verteilung von Masse/Energie, Ladungen, Feldern, … als deren “astro-physikalische Ursache(n)” modellieren ließe(n) ?;
      meinetwegen sogar unter ausdrücklicher Verwendung der Einstein-Hilbertschen Definition des Begriffes “Verteilung von Masse/Energie, Ladungen, Feldern, …”, und meinetwegen sogar unter der ausdrücklicher Annahme, dass diese “astro-physikalische Ursache(n)” diese Signalform-Auswirkungen auf die LIGO-Observatorien vermittels Erzeugung und Passage von Gravitationwellen ausgeübt hätten.

  31. Frank Wappler
    13.03.2024, 20:57 o’clock

    was als Nachweis dafür gelten kann, dass dieses astro-physikalischen Ereignis der Simulation entsprach, entsprechend der die betreffende Signalform zunächst modelliert/berechnet wurde, um gezielt dabach suchen zu können.

    Zunächst versucht man theoretisch zu ermitteln, wie ein Signal aussehen müsste, das von einer Gravitationswelle kommt.
    Und genau so ein theoretisch ermitteltes Signal hat man erhalten.

    So funktioniert nun mal Wissenschaft. Vor Galilei wusste man beispielsweise. Wäre das heliozentrische Weltbild real, dann müsste die Venus Phasen zeigen, ähnlich wie beim Mond. Beobachten konnte man das erst, nachdem Galilei das Fernrohr weiter entwickelt hat.

    Die Vorhersagen der ART sind aber noch viel genauer. Deren Theorie kann genau vorhersagen wie das Signal bei Neutronensternen oder schwarzen Löchern (bei unterschiedlichen Massen) aussehen müsste.

    Gezielt danach suchen heißt nun einfach zu schauen, ob das Signal zu einer der unzähligen Vorhersagen passt. Wenn man nun ein solches Signal an nur einem Ort fände, könnte man vielleicht noch sagen, das wäre Zufall.

    Doch man findet die vorhergesagten Signale nahezu zeitgleich an verschiedenen Orten.

    Und wieso ist das so? Da kommt von Frank Wappler nix zum Thema.

  32. Julian Apostata schrieb (14.03.2024, 09:03 o’clock):
    > […] Zunächst versucht man theoretisch zu ermitteln, wie ein Signal aussehen müsste,

    … [sowohl hinsichtlich eines einzelnen LIGO-Observatoriums, also eines Zwei-Arm-Interferometers an sich;
    also auch hinsichtlich des (auf der Erdoberfläche bestehenden) Systems mehrerer solcher LIGO-Observatorien] …

    > das von

    … [der Passage] …

    > einer Gravitationswelle kommt.

    Zusammen mit diesen/meinen ausdrücklichen Einfügungen ist das tatsächlich eine (besonders auch für mich) interessante und relevante Aufgabe (mit der sich schon Etliche beschäftigt haben; insbesondere seit den 1960ern). Nennen wir sie “Aufgabe (a)“.

    Zwei andere Aufgaben (ähnlich knapp formuliert) sind:

    “Aufgabe (b): zu ermitteln, welche detaillierte Beschreibung auf die Gravitationswellen zutrifft, die während des immer engeren Umkreisens und letztlichen Verschmelzens zweier kompakter und nicht wesentlich gestörter Objekte von jeweils ganz bestimmter Masse und Drehimpuls in deren nähere Umgebung hinein abgegeben werden.”

    und

    “Aufgabe (c): zu ermitteln, wie das Signal aussehen müsste, das daher kommt, dass die entsprechend (b) abgegebene Gravitationswelle sich so gut wie ungestört ausbreitete und die Erde einschl. LIGO-Observatorien passierte.”

    > Und genau so ein theoretisch ermitteltes Signal hat man erhalten.

    Ganz recht (jedenfalls so weit ich weiß, und zum Zwecke dieser/unserer Debatte):

    – und zwar in jedem einzelnen LIGO-Observatorium genau so eines im Sinne von Aufgabe (a), und insgesamt so, dass der “Ausbreitung des Auftretens” dieser Einzel-Signale bzgl. des Gesamtsystems mehr oder weniger bestimmte Richtung und Geschwindigkeit zuzuschreiben war, ähnlich der Ausbreitung einer Welle;

    – und genau das Signal im Sinne von Aufgabe (c) für die betreffenden ganz bestimmten Parameter der astro-physikalischen Quelle (einschl. Entfernung und Richtung bzgl. der Erde).

    Aber: Was ist deshalb/damit/dadurch nachgewiesen ?

    – Kann ein entsprechend (c) ermitteltes Signal in einem einzelnen, entsprechend der Versuchsanordnung gewissenhaft betriebenen und geeignet überwachten LIGO-Observatorium (d.h. wohlgemerkt: Zwei-Arm-Interferometer) auch dann auftreten, wenn dieses dabei ausdrücklich nicht von einer Gravitationswelle passiert wurde ? —

    Ja, es kann!, was beispielhaft durch die Existenz und Verwendung der »injection«-Hardware bewiesen ist;
    aber keineswegs auf diesen offensichtlich kontrolliert einsetzbaren, überwachten Sonderfall beschränkt ist.
    (Relevant wäre jedenfalls, dass sich Entfernungen zwischen den Interferometerbestandteilen auch dann ändern können, falls diese geeignet beschleunigt/geschubst/geführt würden. Eine Rolle spielt auch, wie, und bis zu wie geringen Beschleunigungen, die LIGO-Observatorien hinsichtlich “seismischen Störungen” überwacht werden.)

    – Ist es denkbar, dass mehrere solche, “Wellen-artig zueinander passende” in (c) ermittelte Signale in den LIGO-Observatorien zusammen auftreten; auch dann, falls dabei ausdrücklich nicht von einer Gravitationswelle passiert wurde ? —

    Ich meine: Ja — weil das Auftreten einzelner solcher Signale ohne Passage einer Gravitationswelle denkbar ist, und unter der Voraussetzung, dass die somit nachgewiesene “Signale-auslösende Welle” genau die selbe (nämlich die die in (b) ermittelte) gemeinsame astro-physikalische Ursache hatte, wie die (c) vorausgesetzte Signale-auslösende Gravitationswelle.

    – Ist es denkbar, dass eine entsprechend (c) in einem astro-physikalischen Ereignis abgegebene Gravitationswelle sich nicht ungestört bis zur Erde ausbreitet hat, sondern “unterwegs” vollständig oder auch nur anteilig durch eine Welle ersetzt wird, die Materie beschleunigt/schubst/führt, anstatt Raumzeit (“vorübergehend”) zu verbiegen ??

    Na sicher — das (damit verbundene “freie Längen”, “Umwandlungs-Querschnitte” u.s.w.) sollte mal gemessen werden!

    Insgesamt bestreite ich deshalb bis auf Weiteres, dass durch die entsprechend (c) ermittelten und genau so aufgezeichneten und vorgelegten Zwei-Arm-Interferometer-Signale der direkte Nachweis von Gravitationswellen erbracht worden sei.

    Wesentlich überzeugender, weil direkter darauf bezogen, was insbesondere im Rahmen der ART überhaupt mit “Gravitationswelle” bzw. “Passage einer Gravitationswelle” gemeint sei, wäre eben die Messung von vorübergehender Krümmung in einer Region; insbesondere in Anwendung von “Krümmungs-Detektoren” nach J. L. Synge (also von Zehn-Arm-Interferometern, falls das zur Messung der relevanten “Art der Krümmung” überhaupt ausreicht), d.h. so, wie das LISA-Observatorium nach Erweiterung auf (mindestens) fünf Satelliten-Stationen messen könnte.

    > Wenn man nun ein solches Signal an nur einem Ort [bzw. Observatorium] fände, könnte man vielleicht noch sagen, das wäre Zufall.
    Doch man findet die vorhergesagten Signale nahezu zeitgleich an verschiedenen Orten. Und wieso ist das so?

    Wie oben (und mehrfach zuvor) dargelegt: Wegen der (jeweils nachgewiesenen) astro-physikalischen Ursache, die jeweils einem der o.g. Signale zugeschrieben würde, die “genau so erhalten” (bzw. empfangen) wurden.

    Daher auch die recht mühsame Unterscheidung zwischen

    – der Frage (am Anfang dieses Kommentars): “wie ein Signal aussehen müsste, das von einer Gravitationswelle kommt”; und

    – der anderen (wohl häufiger gestellten und beantworteten) Frage: “wie ein Signal aussehen müsste, das von einer bestimmten astro-physikalischen Quelle kommt bzw. verursacht wurde”.

    p.s.
    > […] Vorhersagen der ART […] genau vorhersagen wie das Signal bei Neutronensternen oder schwarzen Löchern (bei unterschiedlichen Massen) aussehen müsste. […] unzählige[] Vorhersagen

    Gerade damit ist doch nahegelegt:
    Es handelt sich dabei gar nicht um Vorhersagen (wie z.B. “Objekte mit genau diesen Massewerten, und in genau jenen Paarungen, existieren im Universum; und alle anderen nicht”) — solche Vorhersagen sind Modellen überlassen.

    Sondern es handelt sich (“lediglich”) um allgemeingültige Festsetzungen der ART:
    Was ist mit “Masse” (insbesondere im Sinne von Einstein und Hilbert) überhaupt gemeint ?, und:
    Wie ist diese Größe zumindest im Prinzip definitiv nachzuweisen und sogar zu messen ?.

    Ohne konkrete, nachvollziehbare solche Festsetzungen lässt sich nun mal nicht gewissenhaft messen.
    (Was aber nicht unbedingt jeden davon abhält, sich trotzdem Werte “dazu” aus den Fingern saugen.)

  33. – Kann ein entsprechend (c) ermitteltes Signal in einem einzelnen, entsprechend der Versuchsanordnung gewissenhaft betriebenen und geeignet überwachten LIGO-Observatorium (d.h. wohlgemerkt: Zwei-Arm-Interferometer) auch dann auftreten, wenn dieses dabei ausdrücklich nicht von einer Gravitationswelle passiert wurde ? —
    Ja, es kann!,

    Ein Kaninchenfurz erzeugt ein Signal, was von einer Gravitationswelle stammen könnte. Und der selbe Furz könnte in 3000 km Entfernung dasselbe Signal auslösen.
    Und die Auswirkung eines solchen Furzes muss sich natürlich auch noch mit Überlichtgeschwindigkeit fort bewegen?

    • Julian Apostata schrieb (16.03.2024, 08:22 o’clock):
      > Ein Kaninchenfurz erzeugt ein Signal, was von einer Gravitationswelle stammen könnte

      … aber nicht unbedingt stammen muss, und (u.a. deshalb) nicht nachgewiesenermaßen stammt.

      Wobei der besagte “Kaninchenfurz” weiter oben (11.03.2024, 20:32 o’clock, 08.03.2024, 18:39 o’clock) noch deutlich respektierlicher wie folgt beschrieben wurde:

      [zwei] Objekte [, die die] Massen von Sternen haben, aber viel kompakter als gewöhnliche Sterne sein und sich sehr eng und damit sehr schnell umeinander bewegen [und schließlich zu einem kompakten Objekt] verschmelz[en]

      ;

      und zwar mit Intensitäts-Verlauf »chirp« des Strain-Signals im jeweiligen LIGO-Interferometer, das zu einem solchen astro-physikalischen Ereignis als (primärer) Quelle solcher Strain-Signale passt.

      > Und der selbe Furz

      … alias das selbe astro-physikalische Ereignis …

      > könnte in 3000 km Entfernung dasselbe Signal

      … d.h., Strain-Signale, deren Intensitäts-Verlauf jeweils zum selben astro-physikalische Ereignis als (primärer) Quelle passen, in (allen vorhandenen) anderen, ggf. tausende Kilometer voneinander entfernten LIGO-Interferometern …

      > auslösen.

      Ganz recht.
      Nämlich insbesondere so, wie oben (15.03.2024, 15:45 o’clock) beschrieben, dass sich Ausbreitungsrichtung und -geschwindigkeit einer entsprechenden “Signal-auslösenden Welle” gegenüber dem System der LIGO-Interferometer (bzw. gegenüber der Erdoberfläche) abschätzen ließ.

      > Und die Auswirkung eines solchen Furzes muss sich natürlich auch noch mit Überlichtgeschwindigkeit fort bewegen?

      ???
      Der Empfang eines bestimmten Signals ist definitiv (zwangsläufig) entweder nach, oder frühestens zusammen mit, dem Empfang der entsprechenden Signalfront. Sofern also von Messung (oder zumindest Abschätzung) von Ausbreitungs-“Geschwindigkeit” des Signals die Rede ist, ergäbe sich deren Wert definitiv (zwangsläufig) als kleiner, oder höchstens gleich, im Vergleich zur Signalfront-Geschwindigkeit (vulgo: “Lichtgeschwindigkeit im Vakuum”).

      (Sofern dem Auftreten der o.g., vom selben astro-physikalische Ereignis primär verursachten Signale in verschiedenen LIGO-Interferometern eine bestimmte Reihenfolge bzgl. diesem System zugeschrieben werden kann — beispielhaft mit “Delay” von wenigen Millisekunden — stellt der Quotient

      (Entfernung zweier Empfänger) / (Delay der zweiten Empfangs bzgl. des ersten)

      den Wert der entsprechenden Phasen-Geschwindigkeit dieser beiden Signal-Empfänge dar,
      der die Signalfront-Geschwindigkeit und erst recht die entsprechende Gruppen-Geschwindigkeit (als “Ausbreitungs-Geschwindigkeit”) sehr wohl überschreiten kann.)

  34. Bereits Halton Arp brachte es auf den Punkt, was jeder wissen sollte, bevor man sich überlegt, wie eine Gravitationswelle wirken könnte.

    Alle Daten über die extragalaktische Astronomie, die wir haben und die die Versuchs-Rahmenbedingungen für Messungen und Annahmen, auch der postulierten Gravitationswellen ausmachen, stammen aus elektromagnetischer Strahlung. Astrophysiker täten gut daran, sich diese einfache Tatsache immer wieder vor Augen zu halten. Allein die Tatsache, dass die Rotverschiebung von Quasaren nicht-kosmologisch sein könnte, würde das ganze Fundament der Entstehungstheorien für Galaxien und das übergeordnete Hubble Gesetz revisionsbedürftig machen.

    Der Begriff respektive das Objekt Gravitationswelle ist bereits irreführend, da die mathematisch generierten Gravitationswellen der Einstein-Friedmann-Gleichungen keine materielle Qualität besitzen. Die Gravitationswelle ist ein Konstrukt der Raumzeit, diese ist meßtechnisch selbst nichts weiter als eine mathematische Abstraktion.

    Bei allen kosmologischen „Beobachtungsstudien“ handelt es sich nicht um kontrollierbare Laborexperimente. Das ist eine allgemeingültige Aussage.

    Ein sehr gutes Beispiel, welches diese Aussage untermauert, ist die Messung der Gravitationskonstanten, die mit einer relativen Standardabweichung von 4,7 ·10-5, die „schlechteste“ Wertbestimmung aller Natur-Konstanten aufweist.

    Warum ist das so? „Ganz genau“ …, weil es keine menschliche Möglichkeit gibt, den Kosmos zum Labor aufzumotzen. Wie absurd lächerlich erscheint da im Vergleich die Annahme einer Mess-Genauigkeit von 10-22?

    Wenn wir vom Kosmos – ohne Schöntuerei der Systempropaganda-Apparate – „sprechen“, dann endet derzeit die „irdische Mess-Genauigkeit“ wohl eher im Bereich der (Un-)Genauigkeit der “experimentellen” Gravitationskonstanten-Bestimmung.

    Insbesondere im Zusammenhang mit dem rein theoretischen Konstrukt einer mathematisch generierten Gravitationswelle, gemäß genäherter Lösung und deren postulierter realer „Abbildung“ mittels Interferometer im Mess-Differenz-Bereich von 10-22, muß zwingend vorausgesetzt werden, das es sich bei dem »Kosmos«-Experiment um ein kontrolliertes Laborexperiment handelt, dessen versuchsrelevante Randbedingungen vollumfänglich bekannt sind. Diese Annahmen sind im Rahmen wissenschaftlicher Normen rational logisch mit Sicherheit auszuschließen.

    Glaubte eigentlich Albert Einstein an die reale Existenz der mathematisch generierten Gravitationswellen?

    Gläubige dieser Annahmen sind kritiklose Opfer ihrer selbsterzeugten Erhöhung, nur mit Wissenschaft, hier konkreter mit Physik, hat das nichts (mehr) zu tun.

    Um 1936 schrieb Einstein an seinen engen Freund Max Born und teilte ihm mit, dass er zusammen mit Nathan Rosen zu dem interessanten Ergebnis gekommen sei, dass Gravitationswellen nicht existierten, obwohl man sie in erster Näherung für sicher gehalten hatte. Er hatte schließlich einen Fehler in seiner Arbeit von 1936 mit Rosen gefunden und glaubte, dass es Gravitationswellen gibt. Im Jahr 1938 kam Einstein jedoch erneut zu dem Ergebnis, dass es keine Gravitationswellen geben kann. Quelle: arxiv.org: Einstein and Gravitational Waves 1936-1938 Galina Weinstein 2016

    Weiteres zum selbstständigen Mit- und Nachdenken

    Die genaueste Längenmessung ergibt sich „spektroskopisch” mittels Proton-Myon-Wechselwirkung („myonischer Wasserstoff”) für die Messung des Protonenradius mit einer „Genauigkeit” von ~ 10-17 m

    Zum Vergleich: Je nach dem, was und wie gemessen wird (…, Szintillator, Kaloriemeter,…, Penning-Falle …), ist ein QED-postuliertes, meßtechnisch erfasstes, „sehr gutes” Versuchs-Ergebnis, im Zusammenhang mit Naturkonstanten, die Messung des (anomalen) magnetischen Momentes des Elektrons mittels Doppel-Penning-Falle.

    Anomales magnetisches Moment des Elektrons relative Standardabweichung 2,3 ·10-10

    (Wobei sich die Frage stellt, inwieweit vermeintlich intrinsische Eigenschaften und deren Messwerte letztendlich aus Objekt- und versuchsinhärenten Beiträgen bestehen, siehe dazu die detaillierten Ausführungen Anatomie anomaler magnetischer Momente)

    Sollte nun ein Theorieereignis der Raumzeit meßbar sein, so muß es sich als realphysikalisches „Messobjekt“ verhalten. Handelt es sich um ein solches, so stellt sich grundsätzlich die Frage, was denn gemessen wird. Nehmen wir mal unkritisch an, es handelt sich um Gravitationswellen. Hier kann es sich dann nur um eine Überlagerung aller vom Messinstrument lokal wahrgenommenen Gravitationswellen handeln. Da das Universum nicht isotrop ist und die Massen potentieller Objekte – soweit entdeckt – nur geschätzt sind, lässt sich weder die Anzahl noch die Stärke der Gravitationswellen-„Emitter“ im Rahmen eines gemessenen Gravitationswellenereignisses identifizieren, und u.a. auf Grund der angenommenen endlichen Lichtgeschwindigkeitsausbreitung für Gravitationswellen weder räumlich noch zeitlich „verorten“.

    Selbst im Rahmen des ΛCDM-Modells kämen und kommen also argumentativ pro Gravitationswelle ja auch alle gravitationswellen-bildenden Ereignisse in Frage, die aus unterschiedlichsten Gründen nicht in den selbstgewählten Beobachtungsrahmen fallen, da sie insbesondere aus (Beobachtungs-)Unkenntnis schlicht unbekannt sind. Die suggestive Annahme, man wüsste genau, was sich kontinuierlich im Universum abgespielt hat und abspielt, zeugt von dekadenter Überheblichkeit und objektiv betrachtet ist diese (unmöglich zu realisierende) Annahme aber zwingend für eine “korrekte Versuchsauswertung”.

    Mitbürger(innen) und was es sonst noch so woke-korrekt sprachzivilisatorisch mit eigener Atmung und eigenem Stoffwechsel gibt,

    die staatliche Volksverdummung geschieht, obwohl die Faktenlage – öffentlich einsehbar – sachbezogen dokumentiert ist. Wer also glaubt, dass die Standardmodelle der Theoretischen Physik eine Berechtigung haben, weil sich nahezu alle „führenden“ Wissenschaftler dort tummeln, hat wesentliche Aspekte der vermeintlich „gemeinnützigen Meinungsbildung“ nicht verstanden. Ob CERN, LIGO oder die deutsche „alternative Energiepolitik“, nicht der Wunsch nach Erkenntnisgewinn oder praktischem Nutzen geben hier den Ton an, sondern letztendlich die von der Allgemeinheit subventionierten Nutznießer selbst, die konträr zur empirischen Gewissheit, Fakten leugnen und haltlose Aussagen verbreiten. Der Erhalt der Macht- und individuellen Versorgungsstruktur steht über allem anderen. Kritiker werden ignoriert, wenn nötig diskreditiert. Servile System-Medien verkünden und bewerben jeden denkmodell-theoretischen und anwendungstechnischen Mist der herrschenden Standardmodelle.

    Die Massenpsychologie, die hier von den Fördergeldempfängern erfolgreich angewendet wird hat Theodor Fontane aphoristisch so ausgedrückt: „Wir stecken tief in der Dekadenz; das Sensationelle gilt und nur einem strömt die Menge noch begeistert zu, dem baren Unsinn.“

    Soviel zur kapitalistischen Psychologie des “Ganzen”.

    Zum “Gravitations-Wellen-Ausklang”

    Moderner Förster und „mathematische Feldhasen“

    Stellen »Sie« sich vor, »Sie« sind ein Förster und beobachten jeden Morgen den nahe gelegenen Waldrand. Nur sind »Sie« nicht irgendein Förster, sondern »Sie« sind ein „moderner Förster“. Diese tragen eine „mathematische Brille“, die den Blickwinkel sehr stark einschränkt. Das führt dazu, dass »Sie« nur sehr selten Feldhasen sehen, die aus dem Wald ins Freie hoppeln. Eines Tages sehen »Sie« einen und erzählen stolz der ganzen Welt, »Sie« haben heute nicht nur einen Feldhasen, sondern einen „mathematischen Feldhasen“ beobachtet, der, anders als gewöhnliche Feldhasen, von dem Gleichungs-Impuls gelenkt wurde, der in der „mathematischen Hasenbibel“ steht, welche jeder „mathematische Feldhase“ neuronal-kodiert im Hasenhirn mit sich „rumträgt“. Nun, »Sie«, der besagte Förster, bekamen zu »Ihrer« Überraschung weder omnipräsente mediale Aufmerksamkeit und auch keinen Nobelpreis, sondern wurden neurologisch untersucht.

    • Dirk Freyling schrieb (16.03.2024, 23:50 o’clock):
      > […] Wie absurd lächerlich erscheint da im Vergleich die Annahme einer Mess-Genauigkeit von [ 10^{-22} ? […]

      Im LIGO-Dokument Commissioning of the Photon Calibrators, Evan Goetz, T040196-00-D,
      https://dcc.ligo.org/public/0027/T040196/000/T040196-00.pdf
      findet sich

      – die Herleitung der »displacement amplitude of the test mass« in Abhängigkeit von »amplitude« P und »angular frequency« ω der harmonisch modulierten »laser power« des “Photon-Kalibrators (und Signal-Injektors)”:

      x := -2 Cos[ θ ] P / (c M ω^2)

      (wobei mir das Minuszeichen zwar aus der Herleitung begründet, aber doch eher lächerlich erscheint),
      sowie

      – durch das Diagramm Fig. 5 eine Angabe zur maximalen kalibrierten »Output laser power«, nämlich knapp 250 mW
      (der Schreibfehler im Diagrammtitel ist wohl verzeihlich).

      Der Wert des Einfallswinkels θ := 8.8° des (Photon Calibrator (!))-Laserstrahls auf die »test mass« M := 39.6 kg findet sich auch in diversen öffentlichen Dokumenten, z.B. https://arxiv.org/abs/1602.03845

      Der relevante Frequenzbereich liegt etwa bei

      f := 20 Hz ... 2000 Hz ,

      wobei

      ω := 2 π f;

      und c steht in der obigen Formel für Signalfront-Geschwindigkeit (alias “Lichtgeschwindigkeit im Vakuum”).

      Der (so erhaltene) »displacement amplitude«-Wert x kann mit der vergleichweise unveränderten Gesamtlänge der Interferometerarme,
      nominell für “H1”:
      L := 4 km ,
      ins Verhältnis gesetzt werden.

      Und bei »blind injections« von modellierten Signalformen (»chirps«), die von den betreffenden LIGO-Interferometern dann genau so detektiert wurden, als habe es sich tatsächlich um Signale (mit astro-physikalischer Ursache) gehandelt, wurde der jeweilige “Photon-Kalibrator”-Laser vermutlich nicht mal mit maximaler »Output laser power« betrieben. …

  35. Frank Wappler
    18.03.2024, 11:23 o’clock

    Sofern also von Messung (oder zumindest Abschätzung) von Ausbreitungs-“Geschwindigkeit” des Signals die Rede ist, ergäbe sich deren Wert definitiv (zwangsläufig) als kleiner, oder höchstens gleich, im Vergleich zur Signalfront-Geschwindigkeit (vulgo: “Lichtgeschwindigkeit im Vakuum”).

    Zwei Messtationen A und B liegen auf einer Verbindungslinie s.
    Breitet sich die Gravitationswelle parallel zu s aus, so beträgt die scheinbare Ausbreitungsgeschwindigkeit c.
    Breitet sich die Gravitationswelle rechtwinklig zu s aus, so hat man es scheinbar mit unendlicher Ausbreitungsgeschwindigkeit zu tun.
    In allen anderen Fällen ist sie grösser als c und endlich.

    Das wurde seit 2015 schon über 100 mal registriert. Gut dass dieser Thread bald in der Versenkung verschwindet. Dann brauch ich auf diese wirre Wissenschaftsleugnung endlich nicht mehr zu antworten.

    • Julian Apostata schrieb (18.03.2024, 20:24 o’clock):
      > […] die scheinbare Ausbreitungsgeschwindigkeit […]

      Diese Formulierung entspringt erkennbar dem selben Mist, auf dem auch “indirekte Nachweise” gedeihen. …

      In meinem obigen Kommentar (18.03.2024, 11:23 o’clock) waren jedenfalls

      – Ausbreitungsgeschwindigkeit (eines Signals, von Quelle zu Empfänger) einerseits,

      und andererseits

      – Phasengeschwindigkeit (der Signalempfänge zweier Empfänger)

      gegenübergestellt.

      p.s.
      > Gut dass dieser Thread bald in der Versenkung verschwindet.

      Mal abwarten, ob sich (auch noch) Christoph Pöppe die Blöße geben wird, einzelne Kommentare oder gar ganze “Threads” (SciLog-Artikel einschl. aller Kommentare) zu löschen.

      > Dann brauch ich auf diese wirre Wissenschaftsleugnung endlich nicht mehr zu antworten.

      Und dennoch ist und bleibt Messung denkbar!

Leave a Reply


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +