Der Zufall

BLOG: Die Natur der Naturwissenschaft

Ansichten eines Physikers
Die Natur der Naturwissenschaft

"Rein zufälllig" sei es passiert, so flechten wir manchmal ein, wenn wir von einem Ereignis reden. Es ist eben passiert und wir können keinen Grund  dafür angeben, haben keinerlei  Erklärung dafür.  Der Zufall ist uns vertraut, wir reden von den Zufälligkeiten des menschlichen Lebens, der Philosoph etwas vornehmer von der Kontingenz. Wir wissen, dass vieles Mögliche und manches "Unmögliche" passieren kann, ohne dass wir eine Notwendigkeit dafür einsehen.  Wenige aber wissen wohl, dass der Begriff des  Zufalls in Mathematik und Physik eine lange Geschichte hat und in manchen physikalischen Theorien eine "tragende Rolle" spielt.  Der Zufall ist also wieder einer jenen Begriffe, die im Alltag zu Hause waren und auch heute noch sind, in der Wissenschaft aber eine Präzisierung erfahren haben und zum wichtigen Denkwerkzeug geworden sind.

Die  Zähmung des Zufalls
Den  vertrautesten und meistens harmlosen Umgang mit dem Zufall erlebt der Mensch beim Würfelspiel. Nach der griechischen Mythologie soll Palamedes bei der langwierigen Belagerung von Troja den Würfel  erfunden haben. Das Würfelspiel war in der römischen Antike weit verbreitet, die Germanen kannte es, im Mittelalter wurde es  zur Sucht, so dass es verboten wurde.  Aus dem arabischen Wort az-zahr für  Spielwürfel wurde der Ausdruck "Hazard" für ein spezielles Glücksspiel oder ein riskantes Unterfangen.  Ausgehend vom Würfelspiel entwickelte sich der Begriff der Wahrscheinlichkeit. Das erste Buch über Wahrscheinlichkeitsrechnung, 1524 von Gerolamo Cardano  geschrieben aber erst nach seinem Tode 1603 veröffentlicht, trug so den Titel "Liber de Ludo Aleae", Ein erster Meilenstein  für die Entwicklung des Begriffs der Wahrscheinlichkeit und für das Rechnen mit Wahrscheinlichkeiten waren die Überlegungen von Blaise Pascal und Pierre de Fermat, die sie 1654 in einem Briefwechsel bei der Diskussion über den gerechten Einsatz bei einem vorzeitigen Abbruch eines Glücksspiels anstellten.  Die moderne Wahrscheinlichkeitstheorie fußt auf dem Werk "Grundbegriffe der Wahrscheinlichkeit" von Andrej Kolmogoroff aus dem Jahre 1933.
Am Beispiel des Würfelspiels kann man noch heute am besten ein Verständnis für den Begriff der Wahrscheinlichkeit vermitteln.  Beim Werfen des Würfels gibt es sechs mögliche Ergebnisse, die Augenzahlen von 1 bis 6. Wenn der Würfel "fair" ist, werden sich beim wiederholten Würfeln alle Augenzahlen ungefähr gleich häufig ergeben und  die Unterschiede in der Häufigkeit werden mit der Anzahl der Wiederholungen immer kleiner werden.  Bei einem Sechstel der Ergebnisse wird man also im Grenzfall  z.B. die Augenzahl 1 erhalten und man ordnet diesem Ereignis so die Wahrscheinlichkeit  1/6 zu.  Wie man nun mit Wahrscheinlichkeiten rechnet und wie man sie verrechnet, das ist eben Thema der Wahrscheinlichkeitsrechnung.
Auch den Begriff einer Zufallsvariablen kann man gut mit dem Beispiel des Würfels erläutern.  Das ist eine Variable, die als Platzhalter nicht nur für einen bestimmten Wert  sondern für die Möglichkeit verschiedenster Werte einer messbaren Größe steht .  In unserem Beispiel ist diese Größe die Augenzahl, die sich beim einmaligen Würfeln ergibt;  möglich sind also die ganzen Zahlen von  1 bis 6.  Zur vollständigen Charakterisierung gehört noch die Angabe der Wahrscheinlichkeit, mit der jede der möglichen Augenzahlen bei einem Wurf "realisiert" wird;  hier also jeweils mit der Wahrscheinlichkeit  1/6.  Der Würfel ist gewissermaßen eine "Materialisation"  dieser speziellen Zufallsvariablen.  (Die Mathematiker müssen bei dieser Erklärung nun einmal sehr guten Willen zeigen.)  Auch mit solchen Variablen kann man rechnen,  weitere mathematische Begriffe entwickeln und Zusammenhänge analysieren. Manche Mathematiker und Physiker rechnen also nicht nur im Alltag oft mit dem  Zufall, sie können auch mit ihm wirklich rechnen.  
Die Physik wird gemeinhin mit dem Aufspüren und der Diskussion deterministischer Naturgesetze  gleich gesetzt.  So hat sie auch angefangen, mit der Analyse einfachster Systeme, in denen man besonders gut zufällige Einflüsse ausblenden konnte, sich diese gewissermaßen nur als eine Art Staub auf einer glänzenden Oberfläche eines deterministischen Weltbildes darstellte.  Drei Phänomenbereiche  waren es dann aber, die die Physiker dazu zwangen, sich auch mit dem Zufall und damit mit der Wahrscheinlichkeitstheorie zu befassen.  

Der Umgang mit dem Zufall in der Statistischen Mechanik
Zum einen führte die Frage danach, was Wärme eigentlich ist, schon im 18. Jahrhundert auf die Idee, dass Wärme ein Ausdruck  für  "den Aufruhr der nicht wahrnehmbaren Teile des Objektes" sei und der Druck eines Gases sich z.B. durch ein "Trommeln" dieser Teile gegen die Wände des Behälters sei. Das waren die Vorläufer der Statistischen Mechanik, in der man aus den Eigenschaften und aus dem Verhalten der  "nicht wahrnehmbaren Teile des Objektes",  später identifiziert als die Moleküle, auf die Eigenschaften und das Verhalten des Gases schließen kann.  Man betrachtet dabei wirklich im Rahmen der klassischen Mechanik  (und später im Rahmen der Quantenmechanik)  das Gas als ein System von sehr vielen Teilchen. Da es aber sinnlos wäre, die Bewegung eines  jeden  Moleküls einzeln zu berücksichtigen,  geht  man von  einer Wahrscheinlichkeitsverteilung für die Orte und Geschwindigkeiten aller Moleküle aus, die natürlich davon abhängt, welche Kräfte die Moleküle auf einander ausüben, und die  je nach den  bestimmten äußeren Umständen  verschieden aussehen kann.  Aus  einer solchen Wahrscheinlichkeitsverteilung  kann man dann alles, was man über das Gas wissen will, ausrechnen, also  z.B. wie sich der Druck mit der Temperatur bei festgehaltenem Volumen ändert oder gar, bei welcher Temperatur und welchem Druck  das Gas zu einer Flüssigkeit kondensiert.  Es ist beeindruckend, wie man auf diese Weise Eigenschaften eines  komplexen, aus sehr vielen Konstituenten bestehenden Systems auf die Eigenschaften der Konstituenten zurückführen kann – ein Paradebeispiel für Reduktionismus und auf für das Phänomen Emergenz, wie ich  in meinem gleichnamigen Blogbeitrag schon ausgeführt habe.  

Der Umgang mit dem Zufall bei offenen Systemen
Waren es nur Wahrscheinlichkeitsverteilungen, die in der Statistischen Mechanik  als mathematische Begriffe Einzug fanden, so musste man in dem anderen,  zweiten Phänomenbereich mehr von dieser Mathematik wissen und nutzen.  Dieser Phänomenbereich ist eigentlich gar kein neuer Bereich, sondern nur eine neue, genauere Sicht  auf  bisher betrachtete  Phänomenbereiche.  Um das zu verstehen, muss man sich erst einmal den Unterschied zwischen "abgeschlossenen" und "offenen"  Systemen klar machen.  Ein abgeschlossenes System ist z.B. in der klassischen Mechanik ein Teil der Welt, von dem ich annehme, dass ich alle Kräfte kenne, die die Veränderung  der Objekte in diesem System bestimmen.  Das System "Sonne-Erde" ist z.B. solch ein System, und ein sehr einfaches dazu.  Es gibt nur zwei Objekte und eine Kraft, die Gravitationskraft.  Nun könnte man sofort einwenden, dass da noch die anderen Planeten seien, die doch auch mit ihren Anziehungskräften an der Sonne und vor allem an der Erde zerren. Das ist richtig, aber diese Einflüsse sind eben sehr gering. Man kann sie einfach zunächst ignorieren und damit also das System – erfolgreich, wie sich herausstellt, d.h. schon in sehr guter Übereinstimmung mit den Beobachtungen –  als abgeschlossen betrachten.  Wenn man nun aber genauer werden will, muss man doch den Einfluss der anderen Planeten berücksichtigen. Das kann geschehen, indem  man gleich das Gesamtsystem "Sonne- alle Planeten" betrachtet,; das ist aber sehr kompliziert und mathematisch schwierig. Man könnte  sich aber auch überlegen, wie man denn pauschal den Einfluss der anderen Planeten mathematisch fassen könnte,  um diesen dann noch bei dem System "Sonne-Erde" als Einfluss von außerhalb, von der Umgebung dieses Systems zu berücksichtigen.  Dann würde man das System Sonne-Erde also als offenes System betrachten:  Man hat jetzt nicht nur das System selbst vor Augen sondern auch bestimmte Einflüsse von außen, die man auch bei der Berechnung berücksichtigt.  
Hier wird deutlich, dass eigentlich alle Systeme letztlich, wenn man es ganz genau nehmen will, als offene Systeme zu betrachten sind, denn vollständig isoliert von der übrigen Welt ist nichts.  Doch die Welt ist offensichtlich so strukturiert, dass man  viele Ausschnitte als ein abgeschlossenes System betrachten kann. Die Physik hat sich zunächst mit solchen abgeschlossenen Systemen beschäftigt, weil es eben einfacher ist, dort Gesetzmäßigkeiten zu finden.  
Die Phänomenbereiche, die man mit den Methoden der Physik studierte, wurden aber mit der Zeit immer komplexer, und immer mehr stand man vor dem Problem, wie man den Ausschnitt aus der Welt zu wählen hatte. Dabei kam es immer seltener vor, dass man den Einfluss von außen überhaupt vernachlässigen konnte, es stellte sich immer häufiger heraus, dass man zu wenig Information über die Umgebung hat, um diesen Einfluss eindeutig und deterministisch beschreiben zu können. Er sah eher  zufällig aussah und so musste man ein stochastisches Modell für diesen Einfluss entwerfen, also ein mathematisches Modell, in dem Zufallsvariablen die statistischen Eigenschaften der zufälligen Einflüsse von außen beschreiben.
Die Pionierarbeit für dieses Vorgehen in der Physik stammt von Albert Einstein. In seiner Arbeit „Über die von der molekulartheoretischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen“  setzte er sich mit der regellosen Zitterbewegung von kleinsten in einem Gas oder einer Flüssigkeit schwebenden Teilchen auseinander. Schon im Jahre 1827 hatte der schottische Botaniker R. Brown entdeckt, dass sich die kleinen, nur unter einem Mikroskop sichtbaren Teilchen, in die Pollen von Pflanzen in wässriger Lösung zerfallen, in einer permanent unregelmäßigen Bewegung befinden.  Im Jahre 1900 hat dann F.M. Exner die richtige Erklärung gegeben: Die suspendierten Teilchen werden ununterbrochen durch die Moleküle des Lösungsmittels gestoßen, aus der Vielzahl von solchen Stößen summiert sich eine stochastische Kraft, die ein größeres Teilchen in Lösung mal hier hin, mal dahin bewegt. Man nennt diese unregelmäßige Bewegung der größeren Teilchen Diffusion. Schadstoffwolken in der Luft breiten sich z.B. durch Diffusion aus, dieser kann natürlich auch eine Drift – wenn ein Wind weht — überlagert sein.  
Einstein war einer der ersten, die eine mathematische Gleichung  formulierten, in der eine Zufallsgröße auftritt. Natürlich kann man aus solchen Gleichungen keine strikten Gesetzmäßigkeiten ableiten, sondern nur Aussagen über statistische Größen wie Mittelwerte oder Varianzen. Aber solche Größen  sind in solchen Situationen ja auch nur sinnvoll. Einstein hat so Aussagen über die Größe und Anzahl der Teilchen in der Suspension machen und damit ein wichtiges Argument für die reale Existenz von Atomen oder Molekülen liefern können. Die Existenz von Atomen war ja damals in der Physik noch nicht allgemein anerkannt. „Haben’s denn eins gesehen“, hatte Ernst Mach einst immer wieder gefragt. Einstein konnte auch keines direkt sehen, aber zeigen, wie man aus Beobachtungen makroskopischer, messbarer Größen systematisch auf Größe und Anzahl der Atome schließen kann.
Die Physik "offener Systeme" ist heute ein großes und aktuelles Gebiet der Physik und wann immer man sich mit irreversiblen, adaptiven oder gesteuerten Phänomenen auseinandersetzt, muss man die Offenheit des betrachteten Systems in Rechnung stellen.

Der  Zufall in der Quantenmechanik
Die vorerst letzte und auch die größte Invasion des Begriffs des Zufalls in die Physik  geschah bei der Entwicklung der Quantenmechanik.
Um diesen Unterschied zu verstehen, muss man sich erst einmal vor Augen halten, wie wir ein Objekt in unserer Alltagswelt sehen und in der Physik mathematisch fassen.  Objekte haben verschieden Eigenschaften, haben z.B. ein bestimmte Farbe und  Masse, befinden sich zu einem Zeitpunkt an einem  bestimmten Ort und besitzen eine bestimmte Geschwindigkeit.  Wollen  wir z.B. die Bewegung des Objektes beschreiben oder studieren, so werden wir uns insbesondere dafür interessieren, wie sich Ort und Geschwindigkeit  des Objektes mit der Zeit ändern. Wir werden also das Objekt für diesen Zweck zu jeder Zeit durch seinen Ort und seine Geschwindigkeit charakterisieren und durch die Werte für diese Größen den momentanen Zustand des Objektes definieren. Seit Newton weiß  man, wie man die Änderung dieses Zustandes (also  Ort und Geschwindigkeit) in Abhängigkeit von den Kräften, die auf das Objekt einwirken berechnen kann.
Die Objekte der Quantenmechanik sind nicht Kugeln, Planeten oder Bälle sondern Quanten, und  der Zustand eines Quants muss nun ganz anders beschrieben werden.  Man kann ihn nicht durch bestimmte Eigenschaften des Quants charakterisieren, solche gibt es in der Regel  gar nicht.  Sie zeigen sich bei diesen Objekten der Mikrowelt erst, wenn man z.B. mit Geräten aus unserer Makrophysik danach fragt, also Ort oder Geschwindigkeit misst. Dabei gibt es eine merkwürdige Korrelation zwischen den Messgrößen: Je genauer man durch eine Messung den Ort bestimmt hat, um so ungenauer wird die Aussage über die Geschwindigkeit sein.  Ähnlich verhält es sich mit anderen Messgrößen wie etwa dem Drehimpuls.
Wenn man nun eine bestimmte Größe misst, und dieses viele Male unter den exakt gleichen Umständen macht, dann erhält man in der Regel eine Reihe von verschiedenen Ergebnissen mit jeweils verschiedenen Häufigkeiten.  
Der Zustand eine Quants muss also die verschiedenen Werte für eine Größe enthalten, die bei einer Messung realisiert werden können, und  irgendwie auch die Häufigkeiten, mit denen die verschiedenen möglichen Resultate bei Messung auftreten.  Und das tut er auch, in welcher Form das geschieht, geht über diesen Rahmen hinaus.
Welcher von den mehreren möglichen Resultaten bei einer einzelnen Messung auftritt, erscheint also zufällig, und alle Versuche, diesen Zufall aus der Theorie heraus zu treiben, sind misslungen. Hier herrscht offensichtlich ein ganz elementarer, natürlicher Zufall.  Es passiert offensichtlich etwas ohne Grund, aber es passiert nicht etwas beliebiges, sondern aus einer Menge von Möglichkeiten irgendetwas mit einer bestimmten Wahrscheinlichkeit, so dass sich bei wiederholten Messungen in der gleichen Situation, die entsprechende Häufigkeitsverteilung einstellt. Die mathematische Größe, die die Information über diese Wahrscheinlichkeiten in sich trägt, ist eben der quantenmechanische Zustand, und für die zeitliche Entwicklung dieses Zustands hat sich die Schrödinger-Gleichung bewährt, eine partielle Differentialgleichung. Das bedeutet auch, dass sich der Zustand eines Quants, der nur Wahrscheinlichkeiten für mögliche Resultate bei einer Messung enthält, nach einem deterministischen Gesetz mit der Zeit verändert.  
Diese Unbestimmtheit bezüglich der Eigenschaften des Quants im Hinblick auf klassisch bekannte Größen wie Ort und Impuls ist nun von ganz anderer Art  als in der "Physik offener Systeme".  Dort war es einfach der Mangel an Information, oder die Unmöglichkeit, alle Information praktisch zur Verfügung zu stellen und zu berücksichtigen – hier ist es offensichtlich "natürlicher" Zufall. Jeder Versuch, diesen dadurch zu erklären, dass die Information prinzipiell wohl vorhanden ist, aber nur nicht berücksichtigt werden kann, ist gescheitert.  Wir müssen einfach konstatieren: Es geschieht auf dieser Ebene der Natur etwas ohne Grund, aber für die Wahrscheinlichkeit, warum dieses oder jenes ohne Grund passiert, gibt es strikte Gesetze.
Diese Art von Naturgesetzlichkeit ist völlig unerwartet und überraschend, und man fragt sich natürlich, ob eine zukünftige, allgemeinere Theorie diese Art in einem anderen Lichte erscheinen lässt. Die Quantenmechanik hat ja noch ein Defizit, das sich bei den üblichen Experimenten gar nicht bemerkbar machen kann:  Raum und Zeit spielen in ihr – ganz klassisch – eine Rolle nach Newtonscher Manier. Aus der Allgemeinen Relativitätstheorie aber weiß man, dass sich in physikalischen Situationen, die "fern"  von unserer klassischen Alltagswelt sind, ganz neue Eigenschaften von Raum und Zeit zeigen, und man kann vermuten, dass es hinter diesen Begriffen von Raum und Zeit noch einen allgemeineren Begriff geben wird, der in einer Quantengravitation eine bedeutende Rolle spielen sollte und von dem aus – vielleicht – die Merkwürdigkeiten der Quantenmechanik tiefer verstanden werden können.  Es wäre wunderbar, wenn man das noch erlebte.

Avatar-Foto

Veröffentlicht von

Josef Honerkamp war mehr als 30 Jahre als Professor für Theoretische Physik tätig, zunächst an der Universität Bonn, dann viele Jahre an der Universität Freiburg. Er hat er auf den Gebieten Quantenfeldtheorie, Statistische Mechanik und Stochastische Dynamische Systeme gearbeitet und ist Autor mehrerer Lehr- und Sachbücher. Nach seiner Emeritierung im Jahre 2006 möchte er sich noch mehr dem interdisziplinären Gespräch widmen. Er interessiert sich insbesondere für das jeweilige Selbstverständnis einer Wissenschaft, für ihre Methoden sowie für ihre grundsätzlichen Ausgangspunkte und Fragestellungen und kann berichten, zu welchen Ansichten ein Physiker angesichts der Entwicklung seines Faches gelangt. Insgesamt versteht er sich heute als Physiker und "wirklich freier Schriftsteller".

17 Kommentare

  1. Sehr schön!

    Wieder ein wunderbarer und präziser Blogpost! Ich plane eine eigene Kategorie zum Bereich “Spieltheorie” auf zu ziehen und werde bestimmt oft auf “Die Natur der Naturwissenschaft” verlinken! 🙂

  2. Latex im Blog

    Vielleicht probiert ein Besucher dieser Seite die Sache mit Latex einmal selbst aus. Hatte damit auf dieser Seite leider kein Glück. Hier die hoffentlich hilfreichen Links:
    1)
    http://gettinggeneticsdone.blogspot.com/…eb.html
    2)
    http://www.codecogs.com/
    LaTeX Equation Editor
    Generate formatted equations within websites, forums and blogs, with the World’s #1 Online Equation Editor.

    Nebenbemerkung: Ich finde die Art und Weise wie Prof. Honerkamp versucht Naturwissenschaft mit Hilfe der natürlichen Sprache verständlich zu machen ganz ausgezeichnet. Dies ist nur für Blogteilnehmer in “Notsituationen” gedacht,d.h. wenn eine Formel mehr sagen kann als tausend Worte.

  3. @jmg

    Vielen Dank für Ihre Beschränkung des Latex-Gebrauches auf “Notsituationen”, und über Ihr Lob freue ich mich auch. Die Probleme und Erkenntnisse der Physik rein verbal zu formulieren, ist ja eine prickelnde Herausforderung, der man sich nicht so schnell entziehen sollte. Natürlich muss dabei aber auch klar werden, dass im Hintergrund immer die mathematische Formulierung steht und dass diese Leitschnur und Prüfstein ist. (Entschuldigen Sie bitte meine etwas altmodische Wortwahl :-)).

  4. Nur, wenn man den kulturgeschichtlichen Hintergrund unberücksichtig lässt

    Natürlich muss dabei aber auch klar werden, dass im Hintergrund immer die mathematische Formulierung steht und dass diese Leitschnur und Prüfstein ist.

    Wenn sich daraus mal nicht ein logischer Zirkel ergibt, Herr Honerkamp! Sie beziehen sich zwar auf Ihr Bemühen, etablierte Notationen von Physikern sprachlich darzustellen; dann ist der Bezug darauf selbstverständlich entscheidend. Aber Mathematisches selbst taugt weder als Leitschnur noch als Prüfstein für die Güte physikalischer oder sonst einer wissenschaftlichen Forschung oder Leistung.

    Wenn Sie den gegenteiligen Eindruck erwecken wollten, würde ich dem gerne widersprechen und darauf hinweisen, dass sich der Anschein, wissenschaftlich sei erst etwas, wenn es sich mathematisch fassen ließe, erst aus Praxis der seit der “Renaissance” entwickelten “nuova scientia” ergeben hat, in der Mess-“daten” als sog. Forschungs-“ergebnisse” gelten – und dann natürlich “mathematisch” verarbeitet werden müssen.

    Der reale “Hintergrund” dieser “Praxis” ist weit umfassender, und zwar nicht nur historisch, sondern vor allem methodisch: woher stammen denn die mathematischen und sonstigen Hilfsmittel, die in der Physik verwendet werden?

    Physikalische Symbole gehen auf normale “Sprache” zurück, die von Physikern benutzte Messtechnik auf den lebensweltlichen Umgang mit – in der kulturalistischen oder methodischen Wissenschaftstheorie ‘proto’-physikalisch genannten – Messverfahren auf der Grundlage von normativ vereinbarten Maßeinheiten wie zB. bei der Landvermessung (“Geo”-Metrie) und auf schlichtes Zählen.

    Leitschnur und Prüfstein” (griech. kritärion – von krinein unterscheiden wie “Kritik”) der Darstellung wissenschaftlichen Forschens und seiner Ergebnisse sind sachlich gesehen deswegen wie überall in der Wissenschaft die normativen Grundlagen wissenschaftlichen Arbeitens – und sollten das auch immer bleiben, dh. als solche berücksichtigt werden.

  5. Zufall auch für makroskopische Systeme essentiell?

    Zufallsgrössen in der Physik scheinen nach diesem Beitrag von Josef Honerkamp auf den ersten Blick aus zwei völlig unterschiedlichen Gründen daherzukommen. Einerseits im Zusammenhang mit Vielteilchensystemen und offenenen Systemen aus rein praktischen, rechnerischen Gründen, andererseits in der Quantenmechanik aus prinzipiellen Gründen.
    Allerdings scheinen die wichtigen, physikalisch relevanten Aussagen über ein Ensemble, also beispielsweise Gastemperatur, Schallgeschwindigkeit, usw. der statistischen Behandlung solcher Systeme zu entspringen. Somit ist die Behandlung solcher komplexer und chaotischer Systeme mit einem stochastischen Ansatz mehr als eine Krücke – sie ist physikalisch gerechtfertigt und jeder mehr deterministische Ansatz – beispielsweise mit einer Simulation des Vielteilchensystems bis auf Einzelpartikelebene müsste am Schluss statistische Auswertungen machen um die physikalisch relevanten Grössen zu ermitteln. Also kann man auf eine solch realistische Simulation verzichten und von vornherein mit statistischen Methoden arbeiten. Die Naturgesetze, die für ein Ensemble gelten (Gasgleichungen usw), entspringen also der statistischen Behandlung solcher Systeme und nicht etwa einer Einzelpartikelbetrachtung. Der Physik-Nobelpreisträger Robert Laughlin hält nun solche emergente Phänomene, die nur durch das Zusammenwirken von vielen Einzelteilen erklärt werden können, für das Normale und hält die Suche nach fundamentalen Naturgesetzen für überbewertet. Im Wikipedia-Artikel über Robert Laughlin ist sogar zu lesen:So ist er [Robert Laughlin] zunehmend davon überzeugt, dass alle – und nicht nur einige – der uns bekannten Naturgesetze aus kollektivem Geschehen durch Emergenz hervorgehen. Diese Auffassung vertritt er auch betreffend sehr sensibler Themen wie der Speziellen Relativitätstheorie. Spekulative Theorien verurteilt er grundsätzlich, da sie sich nicht auf messbare Fakten stützten. Die Urknalltheorie sei beispielsweise „nichts als Marketing“. Derartige Theorien bezeichnet Laughlin als „quasireligiös“, insbesondere solche bezüglich einer „Weltformel“.

    Die zukünftige Physik würde sich verstärkt mit makroskopischen Phänomenen wie der Selbstorganisation der Materie befassen, die nicht durch atomare oder subatomare Vorgänge erklärbar seien. Diese Auffassung führt Laughlin in seinem 2007 erschienenen Buch Abschied von der Weltformel aus.

    Laughlin setzt an die Stelle der Weltformel und der Reduktion der Welt auf Quanten die ubiquitäre Emergenz und versteht die Welt als etwas was erst durch das komplexe Zusammenwirken von vielen, stochastisch zu beschreibenden Einzelteilen entsteht und wo die Betrachtung eines Partikels/Quants allein kaum etwas zum Verständnis beiträgt. Zufallsgrössen und stochastische Behandlung sind bei diesem Weltverständnis also kaum wegzudenken und mehr als eine rechnerische Krücke.

  6. @Martin Holzherr

    Wenn man mal die Meinungen des Herrn Laughlin beiseite lässt, was meinen Sie mit:
    “Also kann man auf eine solch realistische Simulation verzichten und von vornherein mit statistischen Methoden arbeiten. Die Naturgesetze, die für ein Ensemble gelten (Gasgleichungen usw), entspringen also der statistischen Behandlung solcher Systeme und nicht etwa einer Einzelpartikelbetrachtung.”
    Was ist da der Gegensatz von statistischer Behandlung und Einzelpartikelbetrachtung? Wie will man von “vorneherein” mit statistischen Methoden arbeiten?

  7. @Ingo Kittel

    Ich kann Sie beruhigen. In dem Zusammenhang ging es nur um mathematische Formulierung physikalischer Sachverhalte. Und die sind Leitschnur und Prüfstein für die Richtigkeit der verbalen Aussagen über physikalische Sachverhalte.
    Was meinen denn Sie mit “normativen” Grundlagen? Wer setzt denn da die Norm?

  8. @Josef Honerkamp

    Was ist da der Gegensatz von statistischer Behandlung und Einzelpartikelbetrachtung? Wie will man von “vorneherein” mit statistischen Methoden arbeiten?

    Man könnten Vielteilchensysteme im Computer simulieren, indem man einen beliebigen Anfangszustand wählt und dann für jedes Teilchen die physikalischen Gesetze (z.B. Kraft-/Stossgesetze) in kleinen Zeitschritten anwendet. Um dann aus diesen Simulationen Begriffe wie Temperatur oder Druck abzuleiten müsste man Simulationszustände statistisch auswerten.

    Diese detaillierte Simulation kann man sich aber ersparen und ausgehend von Annahmen wie beispielsweise einer bestimmten Orts- und Geschwindigkeitverteilung der Teilchen von Anfang an das Verhalten des makroskopischen Systems als Resultat aller möglichen mikroskopischen Zustände bestimmen.

    Das obige sind allerdings Vorstellungen eines Nicht-Physikers.

  9. @Martin Holzherr

    Das erste nennt man Molekulardynamik (technisch sehr aufwendig), das zweite Statistische Mechanik. Das sind aber keine Gegensätze sondern sie ergänzen sich. Sind die Teilchenzahlen z.b. nicht allzu groß (viel kleiner als 10 hoch 23 z.B.) oder haben die Teilchen eine komplizierte Struktur, ist die Molekulardynamik hilfreich.

  10. @ Josef Honerkamp

    Besten Dank, Herr Honerkamp, für Ihr Einfühlungsvermögen. Über das hinaus, was Sie jetzt noch einmal unterstreichen:

    Ich kann Sie beruhigen. In dem Zusammenhang ging es nur um mathematische Formulierung physikalischer Sachverhalte. Und die sind Leitschnur und Prüfstein für die Richtigkeit der verbalen Aussagen über physikalische Sachverhalte.

    wollte ich allerdings auf weit Bedeutenderes aufmerksam machen.

    Ein wenig verwundert bin ich schon, dass Sie nachfragen, was die realen Grundlagen wissenschaftlicher Arbeit sind, wenn ich Ihre Frage richtig verstehe:

    Was meinen denn Sie mit “normativen” Grundlagen? Wer setzt denn da die Norm?

    Ich kann mir nicht vorstellen, dass Sie als ehemaliger Hochschullehrer nicht wissen, dass die normativen Grundlagen von Wissenschaft in all dem bestehen, wonach sich Wissenschaftler in ihrer Arbeit richten – was sie dann erst auch zu dem befähigt, worauf auch Sie ja rekurrieren: die Ergebnisse ihrer Arbeit als “richtig” oder “falsch” zu beurteilen, also Fragen danach zu beantworten, ob untersuchte Sachverhalte sachlich adaequat erfasst wurden, ggf. technisch richtig gemessen wurde, die erhaltenen Messdaten mathematisch richtig verrechnet worden sind, ob im Hinblick auf vorausgesetzte Theoriekontruktionen logisch folgerichtige Schlüsse gezogen und konsistente Konsequenzen abgeleitet wurden, und nicht zuletzt alles Nötige auch sprachlich richtig dargestellt wurde.

    Sicherlich wissen Sie auch und genauer als ich, dass die Kriterien und Normen dafür in historischen Zusammenhängen von daran beteiligten Menschen entwickelt oder “gesetzt” worden sind. Das habe ich vor Jahrzehnten als Medizinstudent einem Büchl des Springer-Verlags mit dem Titel Die Entstehung der exakten Wissenschaften entnommen, verfasst von einem Vertreter der Wissenschaft, die als die exakteste von allen gilt, also von einem Mathematiker.

  11. @Ingo-Wolf Kittel

    Da habe ich doch den wichtigen Punkt erwischt: “Gesetzt” sind sie nicht, diese Richtlinien, sondern sie haben sie im Laufe der Geschichte als höchst nützlich erwiesen und sind dann formuliert worden. Sie sind also eher “erkannt” worden, als ein verlässlicher Weg zu verlässlichem Wissen. “Setzen” kann man z.B. “Gesetze” für das Zusammenleben von Menschen. In der Physik gibt es zwar auch Gesetze, das sind aber eben auch “erkannte” Gesetze, und man nennt die Physik nicht eine “normative Wissenschaft”, wie etwa die Jurisprudenz.

  12. @ Josef Honerkamp

    Da haben Sie sicherlich recht, Herr Honerkamp, dass “aus grauer Vorzeit” überkommene Richtlinien seinerzeit nicht in einem förmlichen Gesetzgebungsverfahren, wie wir es kennen, beraten und dann beschlossen worden sein dürten, obwohl ich “gleichartige” Verfahren wie förmliche Absprachen irgendwelcher Art schon damals gar nicht ausschließen möchte. Ich habe “gesetzt” deswegen auch bewusst in Anführungszeichen gesetzt, wie Sie sicherlich gesehen haben.

    Es gibt ja vielfache Möglichkeiten, sich auf etwas zu “einigen” oder etwas miteinander zu “vereinbaren” – bis hin zum sog. “stillschweigenden Einverständnis”, dem einfachen “Sich-drauf-Einstellen” und praktischen “Mitmachen”.

    Sachlich gesehen sind aber auch einfach übernommene und auf diese Weise als gesetzt faktisch akzeptierte Richtlinien “Festsetzungen” oder “Festlegungen”! Unsere Gesetze sind sachlich gesehen auch ‘nur’ Vereinbarungen – und können deswegen jederzeit durch neue Vereinbarungen verändert werden. (Das ist der wesentliche Unterschied zu “Naturgesetzen”: die haben wir nicht miteinander vereinbart! Real handelt es sich bei den damit gemeinten Aussagen ja nicht einmal um “Gesetze”, sondern um Beschreibungen – in Form von gesetzesartigen Aussagen…)
    Sie irgendwann später auch sprachlich genau(er) darstellen zu können, ist aber nun kein Wesensmerkmal solcher gemeinsam geteilter Orientierungen.

    Auch die Nützlichkeit ist keine Bedingung für Festsetzungen. Es ist bloß sinnvoll, nützliche Vereinbarungen beizubehalten…

  13. Latex

    Dies ist ein Test. Ein Physik Blog ohne Formeln ist doch wie Hamlet ohne den Prinzen.

    codecogs generiert ein image file, im comment Bereich ist wg. Spam aber das image tag verboten, kann man bestimmt freischalten bei Lifetype, Autoren können ja verwenden.

    MathML kann momentan nur Firefox darstellen

    man sollte auch unter Comment mal schreiben welche man bei lifetype verwenden kann

    Link Test

Schreibe einen Kommentar