Die zweite Quantenrevolution – Vom Spuk im Mikrokosmos zu neuen Supertechnologien

In Douglas Adams Parodie auf das intergalaktische Geschehen Per Anhalter durch die Galaxis heisst es gleich zu Beginn des zweiten Buchs:

Es gibt eine Theorie, die besagt, wenn jemals irgendwer genau herausfindet, wozu das Universum da ist und warum es da ist, dann verschwindet es auf der Stelle und wird durch noch etwas Bizarreres und Unbegreiflicheres ersetzt. – Es gibt eine andere Theorie, nach der das schon passiert ist.

Passender lässt sich die Physik des 20. Jahrhunderts kaum beschreiben. Um 1900 herum erschienen physikalische Konzepte wie Felder und Wellen, die unsichtbare Kraft der Gravitation und die Entropie bereits bizarr und für ein breites Publikum nur schwer begreiflich. All diese Phänomene konnte man nicht sehen oder anfassen, doch sie waren berechenbar und vorhersagbar und gaben das, was die Menschen in ihrem Alltag erlebten, wieder. Doch trotz ihrer Abstraktheit waren sie immer noch sehr anschaulich im Vergleich zu den Gedankengebäuden, die die Physiker entwickeln mussten, um die Natur der Atome (sowie auch die Weiten des Universums) zu begreifen.

Der Siegeszug des völlig Bizarren begann mit der Beobachtung, dass auf atomarer Ebene bestimmte Grössen nicht jeden beliebigen Wert annehmen können. Zum Beispiel nimmt die abgestrahlte Energie bestimmter Körper nur festgelegte, also diskrete Werte an. Sie ist sozusagen abgepackt, in sogenannten Quanten (vom lateinischen Wort quantum – so viel). Würden die Regeln der Mikrowelt auch in „unserer“ Welt gelten, könnte man in seiner Wohnung nur eine Zimmertemperatur von 10, 20 oder 30 °C einstellen, alle Werte dazwischen gäbe es einfach nicht. Kurze Zeit darauf erkannten die Physiker, dass Licht eine Doppelnatur aufweist: Einmal ist es eine Welle, ein anderes Mal ein Teilchen. Gleiches beobachteten sie dann auch beim Elektron. Doch wie kann ein räumlich lokalisiertes Teilchen gleichzeitig eine räumlich ausgedehnte, also de-lokalisierte Welle sein? In der Welt der klassischen Wissenschaften, in der Weiss immer Weiss ist und Schwarz genau Schwarz, stellte dieser „Wellen-Teilchen-Dualismus“ eine unerhörte Provokation dar.

Im ausgehenden 19. Jahrhundert hatten sich die Physiker gerade an den Gedanken gewöhnt, dass sie mit ihren Theorien bald die Welt vollständig verstehen würden. Einen gefühlten Augenblick später waren sie plötzlich gezwungen, sich von 250 Jahre alten physikalischen und mehr als 2.500 Jahre alten philosophischen Gewissheiten zu verabschieden. Mit immer mehr „Unmöglichkeiten“ mussten sie lernen umzugehen: Quantenobjekte können mehrere Zustände gleichzeitig aufweisen, beispielsweise zum gleichen Zeitpunkt an verschiedenen Orten sein. Und dann besitzen Quantenobjekte noch nicht einmal objektiv festgelegte Eigenschaften: Ihre Eigenschaften lassen sich nur mit Wahrscheinlichkeiten angeben, Messergebnisse sind vom Beobachter abhängig und ihre Zustände (Wellenfunktionen) zerfallen einfach so ausserhalb jeglicher Zeit. Und schliesslich ist da noch das merkwürdigste aller Quantenphänomene: die Verschränkung räumlich getrennter Teilchen. Selbst wenn sie weit voneinander entfernt sind, können zwei Teilchen wie durch Zauberei aneinander gekoppelt sein. Unterm Strich lässt sich sagen: Das Wesen und die Eigenschaften von Quantenobjekten sind hochabstrakt und lassen sich nicht mehr mit unseren Alltagsvorstellungen und Denktraditionen vereinbaren.

Trotz all dieser unanschaulichen Unwägbarkeiten sagt die heutige Quantentheorie den Ausgang von Experimenten und Naturgeschehnissen mit einer in der gesamten Wissenschaft unübertroffenen Exaktheit vorher. Wieder ein kontra-intuitiver Zusammenhang, der jeder Alltagserfahrung widerspricht: Aus etwas, das unbestimmt und nicht fassbar ist, wird ein zu 100 Prozent berechenbarer Vorgang.

Weil wir immer exakter berechnen können, was sich auf atomarer Ebene abspielt, beherrschen wir den Mikrokosmos immer besser. Längst sind Anwendungen der Quantenphysik konkreter Bestandteil unseres Lebens geworden. Elektronik, Digitaltechnologien, Laser, Mobiltelefon, Satelliten, Fernseher, Radio, Nukleartechnik, die moderne Chemie, medizinische Diagnostik – all diese Technologien beruhen auf den Gesetzen der Quantentheorie. Von moderner Chemie bis zur Festkörperphysik, von der Signalverarbeitung bis zu den modernen bildgebenden Systemen in der Medizin – überall treffen wir heute auf sie. Tagtäglich vertrauen wir ihren Gesetzen, wenn wir in ein Auto steigen (und uns auf die Bordelektronik verlassen), unseren Computer hochfahren (der aus integrierten Schaltkreisen, d.h. einer auf Quantenphänomenen beruhender Elektronik, besteht), Musik hören (CDs werden durch Laser, einem reinen Quantenphänomen, ausgelesen), Röntgen- oder MRT-Aufnahmen unseres Körpers machen, uns von GPS leiten lassen oder mittels unseres Handys kommunizieren. Nach verschiedenen Schätzungen beruht heute zwischen einem Viertel und der Hälfte des Bruttosozialprodukts der Industrienationen direkt oder mittelbar auf Erfindungen mit quantentheoretischer Grundlage. Wir vertrauen uns also vollständig den Quantentechnologien an, auch wenn die dahinter stehende Theorie – unserem alltäglichen Verständnis nach – eine Welt mit sehr unsicheren und unbeständigen Erscheinungsformen und scheinbar paradoxen Eigenschaften beschreibt.

Seit einigen Jahren beginnen die Physiker zu realisieren, dass die Quantenphysik einen bedeutenden Vorrat an noch nicht ausgeschöpften technologischen Möglichkeiten besitzt. Der renommierte Quantenphysiker Rainer Blatt sagt für das 21. Jahrhundert daher ein weiteres „Jahrhundert der Quantentechnologie“ voraus, das sowohl die Wirtschaft als auch die Gesellschaft noch einmal fundamental verändern werde. Wir beginnen gerade erst zu verstehen, was uns durch diese Revolution an Möglichkeiten erwächst, so Blatt. Konkret: Wir stehen am Anfang einer weiteren atemberaubenden technologischen Entwicklung, einer neuen, zweiten Quantenrevolution!

Was macht diese zweite Quantenrevolution aus? Physikalisch gesehen beruht die erste Quantenrevolution des 20 Jahrhunderts auf der Kontrolle des Verhaltens grosser Ensembles von Quantenteilchen: der Steuerung des Flusses vieler Elektronen, der gezielten Anregung einer grossen Anzahl von Photonen, der Messung des Kernspins massenhafter Atome. Konkrete Beispiele sind der Tunneleffekt in modernen Transistoren, die Kohärenz von Photonen beim Laser, die Spin-Eigenschafen der Atome bei der Magnetresonanztomographie, die Bose-Einstein-Kondensation oder die diskreten Quantensprünge in einer Atomuhr. Bei der zweiten Quantenrevolution geht es um etwas ganz Neues: die gezielte Präparation, Kontrolle, Manipulation und nachfolgende Auslese der Zustände einzelner Quantenteilchen und ihre Wechselwirkungen miteinander. Von entscheidender Bedeutung ist hier eines der ominösesten Phänomene in der Quantenwelt, mit dem sich bereits die Gründungsvätern der Quantentheorie (zuletzt erfolglos) herumschlugen: die Verschränkung. Die wohl aufregendste Technologie der zweiten Quantenrevolution ist der Quantencomputer, der heutige Computer um ein millionenfaches überbieten könnte, was Schnelligkeit und Recheneffizienz angeht.

Mein neues Buch „Die zweite Quantenrevolution“, erschienen im August 2018 bei Springer, nimmt den Leser mit in die völlig verrückte, grossartige, unglaubliche Welt der Quanten. Auf dieser Reise wird er zunächst die neue Welt der Quantentechnologien betrachten, die unsere Welt bereits heute massgeblich zu prägen beginnt. Dabei wird er genauer erkennen, weshalb wir am Anfang einer weiteren atemberaubenden technologischen Entwicklung stehen. Im zweiten und im dritten Teil schauen wir uns die bizarre Entdeckungen in der Quantenwelt genauer an, die, wie im vierten Teil des Buches erläutert werden soll, auch das philosophische, spirituelle und religiöse Denken des 20. Jahrhunderts bedeutend prägen sollten. Der fünfte Teil führt uns schliesslich zum viel diskutierten Kern der Quantenwelt und zugleich Basis zahlreicher aufregender zukünftiger Quantentechnologien: das Phänomen der Verschränkung, das die Physiker erst in den letzten Jahren so richtig zu erfassen vermochten. Hier lösen sich, wie wir sehen werden, endlich einige der hartnäckigsten Widersprüche der Quantentheorie auf, die Einstein, Bohr und ihren Kollegen noch so schwer im Magen lagen. Im letzten Kapitel soll dann ein konkreter Ausblick gewagt werden, wie neue Quantentechnologien unseren zukünftigen Alltag prägen werden.

Veröffentlicht von

www.larsjaeger.ch

Jahrgang 1969 habe ich in den 1990er Jahren Physik und Philosophie an der Universität Bonn und der École Polytechnique in Paris studiert, bevor ich am Max-Planck-Institut für Physik komplexer Systeme in Dresden im Bereich theoretischer Physik promoviert und dort auch im Rahmen von Post-Doc-Studien weiter auf dem Gebiet der nichtlinearen Dynamik geforscht habe. Vorher hatte ich auch auf dem Gebiet der Quantenfeldtheorien und Teilchenphysik gearbeitet. Unterdessen lebe ich seit nahezu 20 Jahren in der Schweiz. Seit zahlreichen Jahren beschäftigte ich mich mit Grenzfragen der modernen (sowie historischen) Wissenschaften. In meinen Büchern, Blogs und Artikeln konzentriere ich mich auf die Themen Naturwissenschaft, Philosophie und Spiritualität, insbesondere auf die Geschichte der Naturwissenschaft, ihrem Verhältnis zu spirituellen Traditionen und ihrem Einfluss auf die moderne Gesellschaft. In der Vergangenheit habe ich zudem zu Investment-Themen (Alternative Investments) geschrieben. Meine beiden Bücher „Naturwissenschaft: Eine Biographie“ und „Wissenschaft und Spiritualität“ erschienen im Springer Spektrum Verlag 2015 und 2016. Meinen Blog führe ich seit 2014 auch unter www.larsjaeger.ch.

8 Kommentare Schreibe einen Kommentar

  1. Im ausgehenden 19. Jahrhundert hatten sich die Physiker gerade an den Gedanken gewöhnt, dass sie mit ihren Theorien bald die Welt vollständig verstehen würden.

    Ganz genau, dies war ein schwerer Fehler, weil er den skeptizistischen Ansatz negiert.
    Der skeptizistische Ansatz ist bereits in einem sogenannten Höhlengleichnis von Altvorderen erkannt worden, vergleiche :
    -> https://de.wikipedia.org/wiki/Höhlengleichnis

    Allerdings ist dieses Gleichnis vom Gedanken beseelt, dass Verirrten geholfen werden kann, dass sozusagen der in die Höhle Einkehrende und das Ausmaß der Verirrung Verstehende nicht selbst in einer Höhle, sozusagen, sitzt.
    Die Quantentheorie und die zauberhafte (“zauberhaft erscheinend”, einigen) Verschränkung können womöglich durch geeignete (dann anti-intuitiv erscheinende) physikalische Erklärung aufgelöst werden, so dass womöglich, im schlimmsten Fall sozusagen, der Zustand der Naturwissenschaftler wie im Zitat beschrieben erreicht wird, als irgendwie wissend, als Quantenphysiker.

    Hoffentlich war’s nicht allzu ketzerisch angemerkt,
    MFG + weiterhin viel Erfolg,
    Dr. Webbaer (der insbesondere weiteren Anwendungen der QM harrt)

  2. Nur wer die Quantenwelt als Realwelt interpretiert kommt zu Urteilen wie The quantum world is mind-bogglingly weird (Sie ist “schräg”, verdreht).
    Wer die Quantenwelt dagegen als Reich der Möglichkeiten, der Wahrscheinlichkeiten betrachtet, als eine zwar leere, aber von imaginierten Figuren bespielte Bühne, als eine Bühne auf der nichts wirklich passiert, sondern wo nur vorbeiretet wird, was später passiert, der hat das Problem weniger, denn für ihn ist das, was viele als Quantenrealität beschreiben eher ein Reich des noch nicht Bestimmten, ein Möglichkeitsraum also. So einer wird auch nicht davon sprechen, Quantenobjekte könnten zum gleichen Zeitpunkt an verschiedenen Orten sein, denn für ihn ist die korrekte Sprechweise: Quantenobjekte sind an überhaupt keinen Orten, sondern sie testen nur einmal wie es wäre an einem bestimmten Ort zu sein. Erst wenn die Quantenwelt zusammenbricht, erst dann wird im Moment des Zusammenbruchs der Quantentwelt festgelegt, wo sich das Objekt befindet.

    Für jemanden, der die Quantenwelt gar nicht für eine reale Welt hält, sondern sie als Vorbereitungs- und Möglichkeitsraum auffasst, der hat auch keine Mühe beispielsweise mit der Überlagerung, der Superposition von Zuständen wie sie in der Quantenmechanik vorkommen. Bei Superpositionen kommen beispielsweise Überlagerungen von mehreren Möglichkeiten vor, beispielsweise der Möglichkeit, dass ein Spin nach oben oder unten zeigt. Das ist etwas was es in der Realität nicht geben kann, doch da die Quantenwelt ja gar keine Realität, sondern ein Bühne für mögliche Zukünfte ist, ist das kein Problem. Tatsächlich sind Superpositionen mathematisch überhaupt kein Problem, denn in der Mathematik ist eine Superposition nichts anderes als die Summe von zwei oder mehr Lösungen. Superpositionen werden erst dann zum Problem, wenn man nach einer Entsprechung in der Realität sucht und es gibt nun mal in der Realität keine Katze, die gleichzeitig lebendig und tot ist.

    Die Quantenwelt als Reich der noch nicht realisierten Möglichkeiten erklärt dann auch, warum man in gewissen Experimenten, den Eindruck hat, bei den beobachteten (Quanten-)Objekten handle es sich um Wellen, während bei anderen Experimente, die gleichen( Quanten-)Objekte sich wie Teilchen verhalten. Das liegt einfach daran, dass man durch die Art des Experiments, durch seine Anlage, bestimmt hat, welche der Möglichkeiten im Möglichkeitsraum eine Chance hat, Realität zu werden.
    Bei Doppelspaltversuchen (eng benachbarte Schlitze) beispielsweise scheint ein einzige Quantenobjekt sich so zu verhalten als würde es durch beide Spalte gleichzeitig gehen – aber nur dann, wenn die Situation in Bezug auf die Spalten absolut symmetrisch ist. Sobald die beiden Spalte ungleich sind oder so beschaffen sind, dass man durch das Experiment bestimmen könnte durch welche Spalte das Quantenobjekt hindurchfliegt, verhält sich das Quantenobjekt nicht mehr wie eine Welle, die durch die Anordnung hindurchschwingt, sondern wie ein Teilchen, das genau durch eine Spalte geht. Einfach deshalb, weil man durch die Einbau der Welcher-Weg-Information den Möglichkeitsraum in eine bestimmte Richtung “manipuliert” hat. So ähnlich wie der Regisseur eines Theaterstücks für eine bestimmte Rollenbesetztung zuerst mehrere Möglichkeiten sieht, dann aber durch eine weitere Nebenbedingung, die auch noch erfüllt sein muss, alle Schauspieler bis auf eine Schauspielerin eliminiert. Der Regisseur hat also den Möglichkeitsraum eingeschränkt/kastriert, und damit eine gewisse Realisierung erzwungen. Genau so ist es auch bei Quantenexperimenten: Durch ihre Anlage bestimmen sie, was sich realisiert, was schliesslich gemessen werden kann.

  3. Der Wikipedia-Eintrag Quantum-Superposition passt gut zur Sicht auf die Quantenwelt als Raum von Möglichkeiten, der zerstört oder eingeengt wird, sobald eine Entscheidung die Anzahl der Möglichkeiten reduziert, im Extremfall auf eine einzige Möglichkeit reduziert . Das Zitat von Anton Zeilinger über die Quantensuperposition macht das besonders klar: “Die Überlagerung von Amplituden …. ist nur dann gültig, wenn man auch im Prinzip nicht weiß, welchen Weg das Teilchen genommen hat. Es ist wichtig zu wissen, dass dies nicht bedeutet, dass ein Beobachter das Geschehen tatsächlich zur Kenntnis nimmt. Es genügt, das Interferenzmuster zu zerstören, wenn die Weginformation prinzipiell aus dem Experiment heraus zugänglich ist oder wenn sie in der Umgebung und jenseits jeder technischen Möglichkeit, wiederhergestellt zu werden, verstreut ist, aber im Prinzip immer noch “da draußen”. Das Fehlen einer solchen Information ist das wesentliche Kriterium für das Auftreten von Quanteninterferenzen[2].”
    Nur wenn also die klassische Realität (und nur die ist überhaupt eine Realität) nichts über den Weg eines Teilchens wissen kann, ja man nicht einmal auf den Weg schliessen kann, nur dann kann sich das Teilchen so verhalten, als habe es mehrere Pfade durchlaufen. Wobei: Die Aussage, das Teilchen habe mehrere Wege gleichzeitig genommen, ist problematisch oder sogar falsch. Die einzig richtige Aussage ist eben: Es gibt keine Informationen darüber welchen Weg das Teilchen genommen hat.

    Der Autor dieses Wikipedia-Artikels betont im Text die Analogien, die Ähnlichkeit, der Regeln, die in der Quantenwelt gelten mit den Regeln, die in der Wahrscheinlichkeitstheorie gelten (Zitat): In der Wahrscheinlichkeitstheorie gibt es ein ähnliches Prinzip. Wenn ein System eine probabilistische Beschreibung hat, gibt diese Beschreibung die Wahrscheinlichkeit einer beliebigen Konfiguration an, und bei zwei verschiedenen Konfigurationen gibt es einen Zustand, der zum Teil dieser und zum Teil dieser ist, bei positiven reellen Zahlenkoeffizienten die Wahrscheinlichkeiten, die sagen, wie viel von jedem vorhanden ist.

    Wenn wir zum Beispiel eine Wahrscheinlichkeitsverteilung haben, wo sich ein Teilchen befindet, wird es durch den “Zustand” beschrieben.

    ∑ x ρ ((x) | x ⟩ {\ |displaystyle \sum _{x}\rho (x)|x\rrangle } \sum_x \rho(x) |x\rrangle

    Wo ρ {\displaystyle \rho } \rho die Wahrscheinlichkeitsdichtefunktion ist, eine positive Zahl, die die Wahrscheinlichkeit misst, dass das Teilchen an einem bestimmten Ort gefunden wird.

    Die Evolutionsgleichung ist aus fundamentalen Gründen ebenfalls linear. Wenn das Teilchen eine gewisse Wahrscheinlichkeit hat, von Position x nach y zu gehen, und von z nach y, ist die Wahrscheinlichkeit, von einem Zustand ausgehend, der halb x und halb z ist, eine Mischung aus der Wahrscheinlichkeit, von jeder der Optionen zu y zu gehen. Dies ist das Prinzip der linearen Überlagerung in der Wahrscheinlichkeit.

    Allerdings gibt es einen Unterschied zur Quantentheorie. In der Quantentheorie können “Wahrscheinlichkeiten” auch negativ sein.

    Und wie kann man dann erklären, dass es in der klassischen Realität keine Überlagerungen gibt, dass also eine Katze nicht gleichzeitig tot und lebendig sein kann. Nun, eine einfach Erklärung ist einfach die, dass die Verschränkung eines, ja jeden Objekts mit seiner Umgebung zu einem gemischten Quantenzustand führt, der nicht von der klassischen Realität unterschieden werden kann (Zitat): Wenn man über die Quantenzustände der Umwelt mittelt – ein physikalisch sinnvolles Verfahren, es sei denn, der Quantenzustand aller Teilchen, aus denen sich die Umwelt zusammensetzt, kann genau kontrolliert oder gemessen werden – ist der resultierende gemischte Quantenzustand für die Katze sehr nahe an einem klassischen probabilistischen Zustand, in dem die Katze eine bestimmte Wahrscheinlichkeit hat, tot oder lebendig zu sein, wie es ein klassischer Beobachter in dieser Situation erwarten würde.

    Es ist also für jeden und jede ganz einfach, dem Schicksal eines Quantenobjekts (mit seinen Verrücktheiten) zu entgehen: Vermische dich mit der Umwelt, vermeide die totale Isolation und du gehörst dazu. Zur klassischen Welt nämlich.

  4. Seit mindestens 20 Jahren lesen wir schon zu was für Supertechnologien die Quantenphysik führen wird. Bis jetzt ist dabei aber nicht irgend etwas anwendbares heraus gekommen. Nur sehr viel Papier.
    Diese ganze “Unschärferelation” etc. kann genau so gut eine Sackgasse auch sein.

  5. Guten Tag Herr Jaeger,
    Sie haben in Ihrem Blog-Artikel-Linkhinweis ein w zuviel.
    „Tausche“ den Hinweis auf ein erkanntes w zuviel gegen (m)einen Kommentarfeldbeitrag* mit Verweis auf QFT-Alternative.

    Sonnige Grüsse,
    Dirk Freyling

    *In der Bewertung der Anwendungserfolge im Zusammenhang mit Quantenfeldtheorien (QFTn) wird gerne und häufig verschwiegen, dass hier die Theorie stets dem Experiment „hinterhängt“. Die zielführenden Standardprozeduren der Renormierung und Regularisierung wurden und werden den experimentellen Ergebnissen angepasst. Anwendungserfolge, wie vom Autor aufgeführt (Computer, medizinische Diagnostik,…) basier(t)en auf Trial & Error.

    Heute bestimmen nicht messbare postulierte Theorieobjekte, deren gewünschte mathematische Symmetrien, freie Parameter und willküraffine Substrukturthesen das Denken der Theoretischen Grundlagenphysik
    Beispiel: „Licht“ ist je nach subjektiver Theoriebetrachtung ein nicht weiter phänomenologisch bestimmtes Objekt der Geometrischen Optik, ein Ensemble, beispielsweise im Sinne der mathematischen Beschreibung der Interferenzfähigkeit oder (randbegrenzte) Elektromagnetische Welle oder formal postulierte »mathematische Mischung« (Vektorboson) der Elektroschwachen Theorie, ein „stoßfähiges“ Photon (siehe exemplarisch die Comptonstreuung) real und/oder virtuell…

    Bei genauer Sicht erscheinen QED-Berechnungen als solche mit zunehmender Genauigkeit auch zunehmend selbstprophetisch, da als „historisch dynamische Referenz“ die Messergebnisse letztendlich die Renormierungstaktik steuer(te)n. Das Beispiel der (vermeintlich) anomalen magnetischen Momente verdeutlicht das Grundproblem heutiger Grundlagenphysik.

    Die Geschichte gibt hier exemplarisch eine praktische Vorstellung von dem mathematischen und zeitlichen Aufwand, sowie der „Fehlerlast“, selbst der ersten Rechnungen, die im Verhältnis zu Korrekturen höherer Ordnung zu den „einfach lösbaren“ gehören. Neben dem Schwinger-Term (α/2π) beinhaltet der quadratische Korrekturterm 7 Feynman-Diagramme.

    Nach Richard Feynmans Geschichte [1] dauerte es 2 Jahre bis zwei „unabhängige“ Physiker-Gruppen diese berechnet hatten. Es stellte sich jedoch heraus, daß diese signifikante Fehler* machten und in der Endphase ihre „unabhängigen“ Ergebnisse verglichen und anglichen. In der „wahren“ Geschichte waren die unabhängigen Gruppen eigentlich zwei Kollegen [2] (Robert Karplus und Norman M. Kroll). Die Berechnung dauerte etwas weniger als ein Jahr und der Fehler* wurde erst 8 Jahre später von Andre Petermann entdeckt. Das bedeutet, das veröffentlichte, viel gesehene scientific paper zirkulierte für 8 Jahre und galt als theoretische Referenz, bevor es in Hinblick auf experimentelle Befunde signifikant korrigiert werden musste.

    [1] Calculation of the anomalous magnetic moment of the electron Dan Styer 21 June 2012 http://www2.oberlin.edu/physics/dstyer/StrangeQM/Moment.pdf
    [2] Veröffentlichung aus 1949/1950 von Robert Karplus and Norman M. Kroll zur (falschen) Berechnung des magnetischen Momentes, Ergebnisse siehe Seite 549 http://www7b.biglobe.ne.jp/~kcy05t/twoloop.pdf

    *Nur was bedeutet hier „Fehler machen“? Zum damaligen (Veröffentlichungs-)Zeitpunkt waren die theoretischen Ergebnisse in guter Übereinstimmung mit den Messwerten. In der Folgezeit wurden diverse mathematische Ergänzungen und Umformungen durchgeführt, um das theoretische Ergebnis den jeweils veränderten experimentellen Ergebnissen „anzupassen“. Das war und ist aber nur möglich, weil es sich um ein rein mathematisches Modell handelt, welches mit dem Umstand “spielt”, daß denkmodell-inhärente Unendlichkeiten jedwede Addition oder Subtraktion vertragen. Wäre die (Störungs-)Theorie “präziser”, gäbe es keine Möglichkeit im Hinblick auf “neue” Messwerte theoretische Anpassungen nachzuliefern.

    Um einen Eindruck von der grundsätzlichen Theorie-Problematik der „Strahlungskorrekturen“ in einem historischen Zusammenhang zu bekommen, empfiehlt sich auch folgender Beitrag von Mario Bacelar Valente :
    The renormalization of charge and temporality in quantum electrodynamics http://philsci-archive.pitt.edu/3991/1/charge_renormalization_and_temporality_in_QED.pdf

    An konkreten Beispielen zeigt Valente auf, wie ergebnisorientierte, teils willkürliche „mathematische Erweiterungen und Umformungen“ in die Berechnungen einfließen und wie „hier und da“ Terme als unphysikalisch erklärt und deren Divergenzen nicht weiter berücksichtigt werden. Des Weiteren wird deutlich, daß keine physikalischen Interpretationen existieren, die die mathematischen Prozeduren mit phänomenologischen Inhalten „füllen“.

    Zur Kenntnisnahme: Der dritte Term α3 benötigt 72 Diagramme. Er wurde bis zum Jahre 1996 nur numerisch „errechnet“. S. Laporta und E. Remiddi gaben dann 1996 eine analytische Lösung an. Letztendlich dauerte es fast 50 Jahre nachdem Schwinger seine Berechnungen zur „zweiten Ordnung“ vorstellte, bis die 72 Feynman-Diagramme analytisch gelöst wurden. Das bedeutet aber auch, die (nur) analytische QED-Berechnung einschließlich 3.Ordnung verfügt über eine relative Standardabweichung von “nur” ~ 4,37e-8 zum Messwert, statt der ~ 2,6e-13 (CODATA 2014) zum experimentellen Wert, wie später ausführlicher beschrieben wird. Der “Rest” ist “Glaubensarbeit” in Form von jahrelangen Monte-Carlo-Integrationen auf Rechner-Clustern.
    Der vierte Term α4 bedeutet 891 Diagramme mit jeweils 100.000! Termen für jedes Diagramm.
    Die-α5 -Entwicklung liefert 12672 Diagramme.

    Die heutige angestrebte Berechenbarkeit entspricht der Entfernung Erde-Mond mit sprichwörtlicher Haaresbreite-Genauigkeit. Messtechnisch kommt die Frage auf, ob die Information verloren gegangen ist, daß der propagiert messbare „Spiegelstrom“ oder „Spin-Flip“ einzelner Elektronen und Protonen, beispielsweise in der Doppel-Penning-Falle, u.a. bedeutet, daß die makroskopische Messapparatur als „quantenmechanischer Beobachter“ Einfluss auf die Beobachtung (Messung) nimmt.
    Zur Erinnerung: „Zu jeder Messung einer quantentheoretischen Größe ist ein Eingriff in das zu messende System nötig, der das System unter Umständen empfindlich stört. Die Messung der Strahlungsenergie in einem mathematisch scharf begrenzten Teil eines Hohlraumes wäre nur möglich durch einen ”unendlichen“ Eingriff und ist deshalb eine nutzlose mathematische Fiktion. Ein praktisch durchführbares Experiment kann jedoch nur die Energie in einem Bereich mit verwaschenen Grenzen liefern.“ [Aussage Werner Heisenberg 1931]

    Grundsätzlich beginnt also das „moderne“ Missverständnis zur Interpretation eines (quantenmechanischen) Versuches mit der „Idealisierung“, respektive Reduktion, daß der Versuchsaufbau – der additiv Energie in Form von elektrischen oder magnetischen Feldern „zur Verfügung stellt“ – nicht als (energetischer) Wechselwirkungspartner wahrgenommen wird. Werte vermeintlich intrinsischer Objekt-Größen, wie beispielsweise die Feinstruktur der Spektrallinien oder hier magnetische Momente entstehen aber erst durch das „Anlegen“ von äußeren „Feldern“. Dieser logisch nachvollziehbare unvermeidbare „Beobachtungs-Effekt“ wird kategorisch von den Protagonisten der Standardmodell-Physik verdrängt. Es wird so getan, als ob die zusätzliche Energie nur die inneren energetischen Verhältnisse ans „Licht“ bringt, die auch ohne Beobachtung, sprich ohne äußere Energiezufuhr, bereits existieren.
    Die Genauigkeitswünsche und Korrekturmaßnahmen sind zwar nachvollziehbar, aber es bleibt der Verdacht komplexer Idealisierungen, die Ergebnisse produzieren, die weit über die Fertigkeitsmöglichkeiten makroskopischer Versuchsaufbauten gehen. Im Verhältnis zu einem einzigen Elektron oder Proton ist leicht nachvollziehbar “Alles” sozusagen makroskopisch. Es wäre begrüßenswert, wenn sich der ein oder andere Forscher der Penning-Falle etwas weniger theoriebeladen aber deutlich analytischer nähert. Losgelöst von historischen quantenmechanischen Fantasien (der Kopenhagener Deutung) und resultierenden inhärenten Beobachter-Beobachtungsobjekt-Wechselwirkungen die das Messergebnis beeinflussen, sowie in der Folge abenteuerlich-präzisen Messkonstellationen, ist das übergeordnete naturphilosophische Grundproblem schnell benannt. Es gibt schlicht keine Entkopplung zwischen theoretischer Konzeption und experimenteller Realisation und keinen Konsens über die Anatomie des zu Messenden aus Sicht der herrschenden Physik. Bedeutet: Die Messungen sind stark theoriebeladen und unter Berücksichtigung der zur Messung gehörenden propagierten Theorie-Objekte eine wilde Mischung aus klassischen und quantenfeldtheoretischen Begriffen und Größen. Die plausible und logisch erfassbare Aussage, daß sowohl die (angelegten) elektrischen Felder als auch das magnetische Feld, selbst Beiträge zu den vermeintlich intrinsischen magnetischen Momenten der zu untersuchenden Ladungsträger liefern, wird von den QED-Theoretikern und Experimentatoren komplett ausgeblendet.

    Wie sieht die Realität fernab der QED und QCD aus?

    Bemerkenswert ist die Tatsache, daß die experimentellen Ergebnisse, sofern man diese ohne theoriebeladene Erwartungen in Richtung “leptonischer “Strukturlosigkeit” bzw. quarks-basierender Substruktur betrachtet, eine leicht feststellbare Gemeinsamkeit aufweisen. Die zusätzlichen (vermeintlich anomalen) magnetische Moment-Beiträge zu den semiklassisch zu erwartenden sind sowohl für Proton, Neutron als auch für das Elektron ~ 1•10-26 Joule/Tesla.
    U.a. das magnetische Moment des Neutrons und die Neutronen-Masse lassen sich aus einer inelastischen Proton-Elektron-Wechselwirkung ableiten, Details siehe http://www.kinkynature.com/ektheorie/indexNeutron.htm

  6. Herauszufinden wozu das Universum da ist und warum es da ist, ist nicht die Aufgabe der Physik des 20. Jahrhunderts.

    Sie untersucht nur, wie es sich entwickelt hat und liefert Prognosen, wie es sich in Zukunft entwickeln wird.

    Wer in der Physik nach Sinnfragen sucht, hat das Thema verfehlt.

  7. “Wenn irgend jemand herausfindet, wozu das Universum da ist, dann verschwindet es auf der Stelle…”
    Dieser Satz suggeriert wiederum eine Art herausragende Stellung des Menschen im Universum,denn wer außer den Menschen kann geniale Erkenntnisse schaffen ? Vielleicht verschwindet der Mensch auf der Stelle, wenn er herausfindet, dass das Universum wesentlich bessere evolutionäre Über-Lebens-Varianten anbietet als diesen egoistischen Homo Sapiens !?

  8. Für jemanden, der die Quantenwelt gar nicht für eine reale Welt hält, sondern sie als Vorbereitungs- und Möglichkeitsraum auffasst, der hat auch keine Mühe beispielsweise mit der Überlagerung, der Superposition von Zuständen wie sie in der Quantenmechanik vorkommen. [Herr Holzherr]

    Diese Welt ist sozusagen per se für den Naturwissenschaftler ein “Möglichkeitsraum”, denn er sucht sie zu beschreiben, kann aber letztlich nie wissen, wie sie funktioniert.
    IdT sind ET, RT und QT für einige nur intuitiv plausibel, idealerweise auch so verstanden, als Plausibilitätsbekundung im Rahmen der Verständigkeit, nicht wahr.
    ‘Reale Welt’, hmm, hmm, es gibt ja die Welt, das was ist und waltet, die Realität, Sachlichkeit, die Wirklichkeit, die Actualitas, die physikalische Sicht, die religiöse Sicht, die Voreingenommene, die einen zuvor ergangenen besonderen Glaubensentscheid benötigt, und unzählige denkbare Sichten, die mal dieses und mal jenes besonders in den Vordergrund stellen, Philip K. Dick [1] und Terry Pratchett seien im Denkmöglichen an dieser Stelle zitiert.
    Der Schamanismus, der die Ratio ablehnt, bemüht sich ebenfalls i.p. Fortkommen der Einzelnen, soll an dieser Stelle abär direkt verdammt werden.
    Dr. W wünscht sich, Herr Holzherr, dass Sie demnächst die Schicht genau benennen, in der Sie zu argumentieren wünschen.

    MFG
    Dr. Webbaer

    [1]
    Ein kleiner Teufel sozusagen, der die Denkmöglichkeit sozusagen besonders ausgereizt hat; Dr. W sind bei der Lektüre keine Denkfehler, wie sie manchmal anderen SciFi-Autoren passierten, aufgefallen.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +