Falsifiziert oder einfach fallen gelassen? – Über den Niedergang physikalischer Theorien
BLOG: Die Natur der Naturwissenschaft
Darüber, wie wissenschaftlicher Fortschritt entsteht, herrschen beim Durchschnittsbürger unterschiedlichste Vorstellungen. Von genialen Einfällen ist oft die Rede und vom Umsturz eines Weltbildes. Mit genaueren Analysen des Fortschreitens einer Wissenschaft begann man Anfang des letzten Jahrhunderts, als im Wiener Kreis um Moritz Schlick der logische Empirismus entwickelt wurde. Am bekanntesten als Wissenschaftstheoretiker wurde aber wohl Karl Popper, der in seinem Hauptwerk “Die Logik der Forschung” [1] formulierte: “Ein empirisch-wissenschaftliches System muss an der Erfahrung scheitern können. ” Dieses Aussage war für ihn das Kriterium, das eine empirische Wissenschaft von anderen Wissenschaftssystemen wie z.B. Mathematik oder Jurisprudenz unterscheidet.
Diese Einsicht gilt heute jedem Naturwissenschaftler als selbstverständlich, auch wenn ihm der Charakter der Aussage als Abgrenzung nicht immer voll bewusst ist. Die Folklore bei diesem Thema kennt aber noch eine weiter gehende Aussage, nämlich die, dass eine Theorie schon dann als widerlegt anzusehen ist, wenn man eine ihrer Behauptungen als falsch erkennt. Mir ist nicht klar, wie weit Popper dafür verantwortlich ist. Das soll hier auch nicht interessieren, ich will ja nicht Popper studieren sondern das, was Popper beschäftigt hat. Ich will stattdessen die Geschichte der Physik befragen [2] und verschiedene Situationen analysieren, in denen zwei Theorien in Konkurrenz zu einander standen, irgendwann aber eine davon sich gegen die andere durchsetzte. Ich will aufzeigen, warum dieses geschah, wie das “Scheitern” einer Theorie jeweils konkret ausgesehen hat und ob wirklich irgendwann eine Theorie als Ganzes verworfen werden musste, weil sich eine ihrer Folgerungen als falsch erwiesen hatte.
Theorien der Bewegung: Descartes und Newton
Das erste Beispiel handelt von den beiden Theorien der Bewegung, die es im 17. Jahrhundert gegeben hat. Neben der Newtonschen Mechanik, die wir heute noch kennen und für die Berechnung von Bewegungen bei nicht zu hohen Geschwindigkeiten nutzen, gab es damals noch eine Theorie von Rene Descartes. Dieser war in seinen naturphilosophischen Überlegungen zum Schluss gekommen, dass zwei Körper sich nur beeinflussen können, wenn sie sich berühren. Er fühlte sich durch seine Untersuchungen der Stoßprozesse in dieser Ansicht bestätigt und hatte für die Bewegung der Planeten um die Sonne die Vorstellung entwickelt, dass der gesamte Raum mit einem bestimmten Stoffgemisch angefüllt ist, in dem sich aufgrund seiner Art Wirbel ausbilden. Solche um die Sonne wirbelnden Stoffmassen nehmen die Planeten mit und sind somit auch für den Lauf der Erde um die Sonne verantwortlich, entsprechend bestimmen die um die Erde wirbelnden Massen die Bahn des Mondes.
Das war noch keine Theorie in dem Sinne, wie wir sie von Newton kennen. Dazu hätte es eines mathematischen Modells bedurft, mit dem man die Bewegung auch quantitativ hätte beschreiben können. Die Vorstellung von herum wirbelnden Körpern um die Sonne wäre aber denkbar ungeeignet für eine Mathematisierung zur damaligen Zeit gewesen.
Somit scheint es unfair zu sein, diese Vorstellung in Konkurrenz zur Newtonschen Theorie der Bewegung zu sehen, die dann ja bald nach ihrer Veröffentlichung die Erklärung Descartes für den Lauf der Planeten vergessen ließ. Hier ein naturphilosophischer Ansatz, der zu keinen nachprüfbaren Folgerungen führte, dort ein Satz von Gleichungen, aus denen man streng mathematisch ableiten konnte, dass die Planeten auf Ellipsen um die Sonne kreisen.
Ein hoher Preis war allerdings mit der Newtonschen Theorie zu zahlen. Man hatte sich mit einem Begriff abzufinden, der von allen Denkern als ein Rückfall in scholastische Vorstellungen betrachtet wurde, und er wurde auch selbst von Newton als “absurd” bezeichnet. Dieser Begriff war aber zentral für Newton gewesen: Er postulierte, dass sich alle Körper aufgrund ihrer Masse gegenseitig anziehen. Er nannte diesen Einfluss eines Körpers auf den anderen “Kraft” und gab auch an, wie diese Kraft von den Massen und dem Abstand der beiden Körper abhängt. Dieser Begriff eröffnete ihm die Möglichkeit, die Ursache für die Bewegungsänderung eines Körpers durch einem einfachen mathematischen Ausdruck zu beschreiben und aus dieser Relation ließ sich die Bewegung eines Planeten um ein Zentralgestirn in Abhängigkeit von der Zeit explizit berechnen.
Diese Kraft ist aber eine “Fernwirkungskraft”, also ein Einfluss, der augenblicklich und auf die Ferne wirkt, wie weit auch die beiden Körper voneinander entfernt sein mögen. Das stand im Widerspruch zur allgemein akzeptierten Vorstellung, dass sich zwei Körper nur über Berührung beeinflussen können, und auch heute wäre uns eine solche spukhafte Wechselwirkung nicht vermittelbar, wenn wir wirklich unvoreingenommen an die Sache herangingen.
So stand also eine Theorie mit einer Vorstellung, die vom naturphilosophischem Standpunkt inakzeptabel ist, gegen einen Ansatz, bei dem nach gängigen Vorstellungen “alles mit rechten Dingen” zuging. Warum gewann die Newtonsche Theorie aber trotzdem so schnell die Oberhand?
Es war einfach ihr Erfolg, und dieser hing eindeutig damit zusammen, dass Newton seine Hypothesen so zubereitet hatte, dass er diese in mathematischer Form präsentieren konnte und auf diese Weise auch Schlüsse daraus ziehen konnte, die dann auch einer präzisen Nachprüfung unterzogen werden konnten. Dagegen sah der Ansatz von Descartes “alt” aus und wirkte höchst unprofessionell. Aber es war keine Rede davon, dass sich seine Vorstellung von den um die Sonne herum wirbelnden Massen explizit als falsch erwiesen hätte. Die Newtonsche Theorie war so überzeugend, ihre Vorhersagekraft so beeindruckend, dass die Descartessche Vorstellung keine Chance hatte, weiter verfolgt zu werden.
Der Grund für den Niedergang einer Theorie bestand darin, dass sie wird einfach fallen gelassen wurde, weil es etwas Besseres gab. Und das “Bessere” konnte sich sogar noch den Makel leisten, mit einer Hypothek auf begrifflicher Ebene belastet zu sein. (Es brauchte mehr als 200 Jahre, um diese Hypothek durch Einführung der Allgemeinen Relativitätstheorie aufzulösen.)
Theorien der Wärme: Eine Substanz oder Bewegung der Konstituenten
Der Frage, woran es liegt, dass ein Körper warm oder kalt sein kann, hat man sich erst im 18. Jahrhundert in quantitativer Weise nähern können. Der schottische Chemiker Joseph Black entwickelte um 1740 die Vorstellung, dass ein Körper sich deshalb als wärmer anfühlt, weil er mehr von einer gewissen Substanz enthält. Diese nannte er Caloricum und sie sollte eine Art Flüssigkeit sein, deren Teilchen sich gegenseitig abstoßen, von den Teilchen der übrigen Materie aber angezogen würden. Bei Erwärmung müsse also Caloricum zugefügt werden und beim Erkalten entschwinde Caloricum aus dem Körper.
Dem gegenüber stand die Vorstellung, dass ein Körper umso wärmer ist, je größer “der Aufruhr der nicht wahrnehmbaren Teile des Objektes” ist, je heftiger also die Konstituenten des Körpers in ungeordneter Bewegung sind. Robert Boyle hatte um 1680 diese Hypothese entwickelt, auch Leibniz kam zu denselben Schluss und in der Basler Schule um Bernoulli und Euler konnte man schon typische Geschwindigkeiten für die Konstituenten abschätzen.
Beide Theorien konnten Erfolge in der Erklärung von Naturvorgängen aufweisen, bei beiden gab es aber auch Probleme. Mit der Caloricum-Theorie konnte man zwanglos verstehen, dass die Sonne die Erde erwärmt, nämlich durch einen Zustrom von Caloricum, der von der Sonne ausgesandt wird. Ebenso einfach erklärte sich das Phänomen der Wärmeleitung als ein Strom von Caloricum. Auf der Basis dieser Vorstellung wurden sogar Aussagen gefunden, die heute noch als gültig angesehen werden: Der Mathematiker Joseph Fourier stellte eine mathematische Gleichung für die Wärmeleitung auf und der Physiker und Ingenieur Sadi Carnot bestimmte den maximalen Wirkungsgrad einer idealen Dampfmaschine, also einer Vorrichtung, die Wärme in physikalische Arbeit umwandelt.
Aber es gab auch große Probleme. Ein besonders schwerwiegendes war das Phänomen, dass bei Reibung immer auch Wärme entsteht. Der Amerikaner Benjamin Thompson (nicht zu verwechseln mit den englischen Physikern Joseph und William Thomson) brachte dieses Problem auf den Punkt: Die Arbeit, die beim Bohren von Kanonenrohren aufgewendet wird, geht zum Teil in Wärme über und die Menge dieser hängt von der Dauer der Reibung ab, die mit der Bohrung einher geht. Caloricum könnte man so in unbegrenzter Menge produzieren, wenn man nur lange genug bohrte. Natürlich fanden einige eine Ausrede: Das Caloricum könne ja aus der Umgebung, die dafür ein unerschöpfliches Reservoir sei, in die Rohre strömen.
Aber auch die Bewegungstheorie hatte ihre wunden Punkte. Wie sollte denn damit die Übertragung der Wärme durch ein Vakuum hindurch, z.B. die Wärmestrahlung der Sonne zu erklären sein? Heute wissen wir, dass dafür die elektromagnetische Strahlung verantwortlich ist; aber die kannte man damals noch nicht.
Bis 1840 hatten beide Theorien ihre Anhänger und Verteidiger. Eine Entscheidung über das Schicksal beider Theorien vollzog sich im Rahmen der Entwicklung des Energiebegriffes. Bei immer mehr Naturvorgängen entdeckte man, dass es dabei eine gewisse Größe gibt, die konstant bleibt. Galilei und Newton hatten schon eine solche angegeben. Diese entspricht der mechanischen Energie, wie wir heute wissen. Benjamin Thompson hatte bemerkt, dass man beim Bohren der Kanonenrohre immer etwas in Form von Wärme bekommt, was der aufgewandten Arbeit entspricht. Robert Mayer konnte diese Relation präzisieren, und Hermann von Helmholtz fügte diese und viele weitern Puzzlestücke zusammen, und zeigte, dass es bei allen Prozessen, sei es eine Bewegung oder ein Vorgang, bei dem Wärme entsteht, eine Größe gibt, die stets gleich groß bleibt, also erhalten bleibt. Er nannte diese Größe noch “Kraft”. Bald fand man für sie den Namen “Energie”, weil sie ja doch verschieden von dem Kraftbegriff Newtons ist.
Die Vorstellung, dass “Wärme eine Form der Bewegung” war konstitutiv für diese Entdeckung einer Größe, die in all den betrachteten Prozessen erhalten bleibt. Die Entdeckung des Begriffs der Energie war aber so beeindruckend, dass hiermit der Niedergang der Caloricum-Theorie besiegelt war. Es zeigte sich, dass die Ableitung der Wärmeleitungsgleichung und die Überlegungen zum maximalen Wirkungsgrad einer idealen Dampfmaschine genau so schlüssig sind, wenn man mit der Energie in Form von Wärme argumentiert statt mit der Existenz einer Substanz Caloricum. Aber noch blieb ein Problem: Die Wärmestrahlung. Man musste zunächst damit leben, bis man die elektromagnetische Strahlung kennen gelernt hatte und die Wärmestrahlung als eine solche erkannt hatte.
Bei dem Niedergang der Caloricum-Theorie gab es also auch keine explizite Falsifizierung. Es wurde wiederum nur eine Theorie überzeugender. Und hier galt wieder: Auch die siegreiche Theorie löste nicht sofort alle Probleme.
Theorien der elektromagnetischen Effekte: Weber oder Maxwell
Beim dritten Beispiel schauen wir auf die Geschichte der Elektrodynamik. Wer heute in dieses Gebiet der Physik eingeführt wird, lernt die Maxwellsche Theorie der elektrischen und magnetischen Effekte kennen, mit ihr eine Feldtheorie und als Grundgleichungen einen Satz von Differentialgleichungen mit einer Struktur, bei der manche von mathematischer Schönheit reden. Selten aber erfährt er oder sie davon, dass es im 19. Jahrhundert noch eine andere Theorie für den Elektromagnetismus gab. Der Göttinger Physiker Wilhelm Eduard Weber hatte schon 1846 ein “Grundgesetz der Elektrodynamik” formuliert. Er hatte gesehen, dass die drei großen Gesetze in der Theorie der Bewegung, der Theorie der elektrischen Effekte und in der Theorie der magnetischen Effekte alle die gleiche Struktur haben. Es waren diese das Newtonsche Gravitationsgesetz, das Coulombsche und das Ampéresche Gesetz. Weber inspirierte das zu einer Erweiterung des Ampérschen Gesetz, bei der er noch die Beschleunigungen der Teilchen der “elektrischen Fluida” berücksichtigte. Bemerkenswert ist, dass Weber damit weiter auf die Existenz einer Fernwirkung setzte; die Bedenken aus Newtonscher Zeit hatte man wohl verdrängt, so erfolgreich waren diese Gesetze gewesen. Das Webersche Gesetz beschrieb damals alle bekannten elektrodynamischen Effekte richtig und es gab große Konkurrenz zwischen dieser “kontinentalen” Elektromagnetik und der “britischen”, die auf dem Feldbegriff aufbaute und erst im Jahre 1873 ihre endgültige Form in den Maxwellschen Gleichungen fand. Es standen sich hier zwei grundverschiedene Konzepte gegenüber: Einerseits die Vorstellung, dass alle physikalischen Phänomene irgendwie mechanischer Art sind, was sich ja auch in der gleichen Struktur von Newtons und Coulombs Gesetz ausdrückte, und andererseits die ganz neue Vorstellung von einem “elektromagnetischen Feld”, einer im Raum kontinuierlich verteilten physikalischen Größe.
Auf dem Kontinent gab es viel Sympathie für die Webersche Theorie. Der berühmte Physiker und Physiologe Hermann von Helmholtz fand aber mehr Gefallen an der feldtheoretischen Formulierung und führte seinen Assistenten Heinrich Hertz in die Problematik ein. Dieser bekam mit seiner Arbeit “Über die Beziehung zwischen den Maxwellschen elektrodynamischen Grundgleichungen und den Grundgleichungen der gegnerischen Elektrodynamik” einen tiefen Einblick in die Vor- und Nachteile beider Theorien. Ein wesentlicher Unterschied war der, dass man aus den Maxwellschen Grundgleichungen ableiten konnte, dass es Wellen des elektromagnetischen Feldes geben müsse. Diese stellte man sich zunächst als Wellen von Verzerrungen im Äther vor. Die Webersche Grundgleichung gab so etwas nicht her. Man konnte also eine Entscheidung herbeiführen, wenn man zeigte, dass elektromagnetische Wellen wirklich existierten. In der Tat hat Heinrich Hertz im Jahre 1886 einen solchen Nachweis erbringen können und damit der Maxwellschen Theorie zum Durchbruch verholfen; die Webersche Theorie verschwand aus den Lehrbüchern.
Wiederum kann man nicht von einer Falsifizierung sprechen, die Webersche Theorie behauptet ja nicht, dass es keine Wellen gibt. Wir haben es hier wieder mit einer Art Wettlauf von zwei Theorien zu tun gehabt, bei dem eine sich irgendwann als bessere erweist, weil sie eine größere Erklärungsfähigkeit besitzt.
Im Nachschlag kann man auch noch erwähnen, dass auch der Äther nicht durch eine Falsifizierbarkeit aus dem Inventar der physikalischen Substanzen ausgeschieden wurde. Nach den Einsichten, die man mit der Speziellen Relativitätstheorie gewonnen hatte, gab es einfach keinen Grund mehr dafür, von der Existenz einer solchen, den ganzen Raum ausfüllenden Substanz auszugehen.
Niedergang als Niederlage
Nach diesen Beispielen, die in der Geschichte der Physik einen großen Teil der Konkurrenzsituationen abdecken, kommt man zum Schluss, dass eine Falsifizierung wohl schwer als Grund für einen Niedergang einer Theorie vorstellbar ist. “Das Bessere ist ein Feind des Guten” gilt hier eher. Wenn Popper nun sagt: “Ein empirisch-wissenschaftliches System muss an der Erfahrung scheitern können” , dann ist das eine Aussage, zu der ein rein logisch argumentierender Denker geführt wird, wenn er nach einem Kriterium sucht, mit dem er beliebige, als wissenschaftlich bezeichnete Systeme von einem empirisch-wissenschaftliches System abgrenzen kann. Nur hat diese Aussage den üblichen Mangel vieler logischen Wahrheiten. Sie ist sehr allgemein und für konkrete Einsichten ist damit noch nicht viel gewonnen. Das “Scheitern” kann eben von verschiedener Art sein, und das, was hier nahe gelegt wird, nämlich ein “direktes sich als falsch erweisen” passiert eben so gut wie nie.
Thomas Kuhn [3] hat schon der These widersprochen, dass Theorien aufgrund einer Falsifizierung aufgegeben werden. Dafür hat er neue schiefe Bilder über den Wissenschaftsprozess in die Welt gesetzt, die wiederum große Kritik hervorgerufen haben. Der schlimmste Vorwurf war, dass Kuhn den Wissenschaftsprozess als irrational hingestellt habe; so sahen schon einige eine Rationalitätskrise der Wissenschaften herauf kommen. Der Philosoph Wolfgang Stegmüller hat versucht, diesen Vorwurf auszuräumen [4], in dem er die Kuhnschen Thesen durch J. D. Sneeds [5] genauere Charakterisierung einer naturwissenschaftlichen Theorie ergänzte. Dieser “wissenschaftstheoretische Strukturalismus” ist näher an der Realität der physikalischen Theorien und des Wissenschaftsprozesses. Leider aber ist er aber viel weniger bekannt als die Popperschen oder Kuhnschen Ideen, die sich mehr zu holzschnittartigen Thesen eignen. Ich werde bei Gelegenheit darauf eingehen.
[1] Popper, Karl: Die Logik der Forschung, J.C.B. Mohr, Tübingen, 9. Auflage 1989
[2] Ich stütze mich hier auf: Honerkamp, Josef: Die Entdeckung des Unvorstellbaren – Einblicke in die Physik und ihre Methode, Spektrum Akademischer Verlag, Heidelberg, 2010
[3] Thomas Kuhn: Die Struktur wissenschaftlicher Revolutionen, suhrkamp taschenbuch, 1967
[4] Stegmüller, Wolfgang: Hauptströmungen der Gegenwartsphilosophie, Band III, 8. Auflage, 1987, Alfred Kröner Verlag, Kapitel 3: Die Evolution des Wissens
[5] z.B. in Stegmüller, Wolfgang: Hauptströmungen der Gegenwartsphilosophie, Band II, 8. Auflage, 1987, Alfred Kröner Verlag, Kapitel 3.4 : J.D. Sneed u.a.: Das strukturalistische Theorienkonzept
Maxwell
Maxwell vertrat anscheinend noch eine sehr mechanistisch geprägte Vorstellung von Feldwirkung, im Gegensatz insbesondere zu Ludvig Lorenz, der unabhängig von aber zeitgleich mit Maxwell eine mathematische Theorie des Lichts entwickelt und bereits den Aether als unphysikalisch abgelehnt hat.
J. D. Jackson, L. B. Okun. Historical roots of gauge invariance. [arXiv:hep-ph/0012061v5], p. 11.
N.B. Maxwells Schriften sind (wenngleich derzeit noch unvollständig) bei wikisource.org zugänglich, und neben Weber wird 1865 tatsächlich Carl Neumann genannt. Im Preface von 1873 erwähnt Maxwell hingegen “J. and C. Neumann”, gemeint war dabei vermutlich noch Franz Ernst Neumann – könnte es ein, dass Maxwell bei der Familie Neumann etwas den Überblick verloren hatte? In diesem Fall wäre es ihm nicht viel anders ergangen als mir jetzt.
Paradigmenwechsel als Partythema
Wirklich ein interessanter Artikel, der Dinge ans Licht bringt, von denen man kaum je hört und dabei auch klar macht, dass gehobenes Partygeplauder und sich geradezu viral verbreitende Meme wie Kuhns Paradigmenwechsel mit der Realität des behandelten Gegenstands sehr wenig zu tun haben.
1) Es war mir überhaupt nicht bewusst, dass viele physikalische Theorien einfach in der Versenkung verschwunden sind, weil eine neue Theorie so überzeugend war, dass sich niemand mehr mit der alten herumschlug.
2) Poppers und Kuhns Ansichten zur Wissenschaft sind unter Geisteswissenschaftlern fast mehr bekannt als unter Naturwissenschaftlern und schon einige Male habe ich selbst hier auf scilogs Urteile von Autoren und Kommentatoren der Art gehört: “Die Naturwissenschaftler revidieren ihre Theorien ja mindestens so häufig und radikal wie die Geisteswissenschaflter” oder wörtlich auf einem Blog zum Klima von einem (gebildeten) Klimaleugner:
“Ich bin sowohl von der griechischen Philosophie (Sokrates: Ich weiss, dass ich nichts weiss) als auch von Karl Popper und Thomas S. Kuhn (Die Struktur wissenschaftlicher Revolutionen) stark beeinflusst. Deshalb ist mir besonders bewusst, wie sehr wissenschaftliches Wissen vorläufig ist, dass morgen das Gegenteil des bisher als gesichertes Wissen Geltenden als richtig gelten kann, dass wir uns oft Jahrhunderte lang innerhalb eines Paradigmas bewegen und dann grosse Geister (Galilei, Einstein) alles über den Haufen werfen können – wieder bis zum Beweis des Gegenteils. Diese Haltung, diese Bescheidenheit fehlt mir leider bei vielen Naturwissenschaftern.”
tl;dr
Josef Honerkamp deckt in diesem Beitrag verbreitete falsche Vorstellungen auf, dies über die Ablösung von physikalischen Theorien durch andere gibt und ich komme zum Schluss: Auch worüber gescheite Leute so plaudern ist nicht selten Unsinn und von falschen Urteilen/Vorurteilen geprägt.
Kurz zu Popper: Popper war erklärter Gegner der sogenannten “Sofortfalsifikation”. Also dem Glauben, dass wenn eine Aussage einer Theorie widerlegt wird, sie also im Widerspruch zu Beobachtungen steht, dass damit auch die Theorie falsifiziert ist.
Popper ging von einer Systemfalsifikation aus: Aus einer Theorie werden anerkannte Basissätze gebildet, die werden mit Beobachtungen verglichen. Entsteht ein Widerspruch, so sind nicht automatisch die Basisätze falsch oder gar die Theorie selbst. Es bedeutet nur, dass im System aus Theorie-Sätze-Beobachtungen ein Widerspruch besteht, der aufgelöst werden muss. Auch Beobachtungen sind theorieabhängig (die Theorie bestimmt was wir wann und wie beobachten können) und können somit auch falsifiziert werden. Dass eine Theorie Gültigkeit besitzt, muss es aus ihr anerkannte Basissätze geben und es darf kein Widerspruch zu anerkannten Beobachtungen bestehen.
Wer bestimmt was “anerkannt” ist? Die beteiligten ForscherInnen, es ist ein gesellschaftlicher Prozess.
Zu Thomas Kuhn: Der hat nur wenige Jahre später (1969), Teile seiner Thesen zurückgenommen. Auch seine Beispiele mit der er seine Thesen untermauern wollte (Weg zur Relativitätstheorie) sind absolut kritisierenswert, teilweise einfach nur falsch. Vor allem hat er ganz offenbar nicht Logik der Forschung gelesen… 😉
Wen stören Paralleltheorien?
Wo steht eigentlich geschrieben, dass es nicht auch zu denselben Phänomenen durchaus mehrere Theorien geben darf. Eigentlich ist es doch ein Zeichen lebendiger Wissenschaft, wenn mehrere Theorien im Wettstreit miteinander liegen.
In diesem Sinne kann man durchaus auch zu den Beispielen noch aktuelle Entwicklungen anführen. Z.B. Dunkle Materie vs. MOND Theorie, Thermodynamik zusätzich Falk’sche Thermodynamik, GENERIC Projekt, Welle-Teilchen-Dualismus (- wer schreibt eigentlich dem Photon vor, wann es sich wie zu verhalten hat?), Bilder der Quantenmechanik: Schrödinger-, Heisenberg-, Wechselwirkungsbild, Pfadintegrale, relativistische Quantenmechanik, usw.
Standardmodell vs. Supersymmetrie in diversen Abstufungen bspw. MSSM
Manchmal sind “alte” Theorien auch aus didaktischen Gründen wertvoll, so wird der Begriff der “thermischen Masse” in den ingenieurwissenschaftlichen Disziplinen noch gepflegt (in der Regel im Sinne der Wärmekapazität).
Für die Forschung sind solche diversen Theorien doch eher willkommener Anlass neu nachzudenken – (bzw. Gelder zu beantragen).
Lediglich im Bereich der Gesetzgebung bzw. der Normung kann es gute Gründe geben, dem Vorhandensein von parallelen Theorien misstrauisch zu begegnen. – Allerdings haben Gesetzgebungsverfahren und Normungsausschüsse in der Regel ihre eigenen Vorstellungen – unabhängig von aktueller Forschung oder der Tatsache, wieviele Theorien im Wettstreit liegen.
@Gustav – Patentrecht
Wer bestimmt was “anerkannt” ist? Die beteiligten ForscherInnen, es ist ein gesellschaftlicher Prozess.
– Stimmt. Wobei die Abgrenzung, ob Erkenntnisse “neu” und “erfinderisch” sind – oder quasi naheliegend aus einer anerkannten Therorie folgen, durchaus juristisch relavant sein kann.
Patentanwälte, Patentprüfer und Patentgerichte leben davon, dass diese Abgrenzung teilweise “schwierig” ist.
Randbemerkung
„Mit genaueren Analysen des Fortschreitens einer Wissenschaft begann man Anfang des letzten Jahrhunderts, als im Wiener Kreis um Moritz Schlick der logische Empirismus entwickelt wurde.“
Die Wissenschaftstheoretiker hatten für das Forschreiten einer Wissenschaft, und dies als empirische, historische Forschungsaufgabe verstanden, in der Tat wenig Interesse. Dieses Interesse setzte in der ersten Hälfte des 20. Jahrhunderts allmählich ein, fraglich ist aber, ob man den logischen Empiristen dabei eine so große Rolle zuschreiben darf; allenfalls wirkten sie insofern, als sie als Empiristen zu einem günstigen Klima für empirische Forschung überhaupt beitrugen. Ludwik Fleck, den man wohl als den wichtigsten Vorläufer Kuhns ansehen muß, gehörte nicht zu ihnen. Und mit Kuhn erst wurde ein solches empirisches Verständnis von „Wissenschaftstheorie“ dominierend.
Die Fragen der in der ersten Hälfte des 20. Jahrhunderts tonangebenden Theoretiker der sog. exakten Wissenschaften – das waren vor allem Neukantianer, aber auch „kritische Rationalisten“ wie Popper – waren ganz anderer Art. Man interessierte sich für die „Logik der Forschung“, nicht für ein realhistorisches Geschehen, man war Philosoph, nicht Forscher. Sehr schön sieht man den Unterschied daran, wie Popper und die Popperianer auf die Erkenntnis reagierten, daß die Wissenschaftler gewöhnlich keineswegs ihre Theorien so anlegen, daß sie ein hohes Falsifikationsrisiko eingehen, vielmehr am Hergebrachten kleben, immer nur nach Verifikationen ihrer Theorien suchen usw.: solche Wissenschaftler mag es geben, sie mögen sogar in der Mehrheit sein, aber sie sind für den Fortschritt der Wissenschaft bedeutungslos. Fortschritt ist normativ/em> verstanden worden, als Fortschreiten auf eine Idee zu, nicht wie bei Kuhn, der seine Vorstellung von wissenschaftlichem Fortschritt an Darwin orientierte und als ein empirisch zu beschreibendes Geschehen in einem sozialen System auffaßte.
Es gab noch eine ganz andere, insgesamt nicht weniger einflußreiche Tradition von Wissenschaftstheorie, die nicht weniger empirisch mit einzelnen Wissenschaften befaßt war als z. B. Kuhn und die mit dem Wiener Kreis und allem ähnlichen so gut wie gar keine Verbindung hatte, nämlich in Frankreich; als Gipfel wird wohl meist Foucault angesehen. Da hatte man aber kaum die Physik im Blick, sondern z. B. die Biologie und die Ökonomie.
Warum ich das schreibe? Weil es mich ärgert, wenn, wie heute üblich, die Wissenschaft mit Physik und die Wissenschaftstheorie mit Wissenschaftstheorie der Physik gleichgesetzt wird und als Geschichte der Wissenschaftstheorie allein die angloamerikanische (womit unvermeidlich der Wiener Kreis einbezogen ist) gilt.
@Honerkamp
Zustimmung. Können Sie in diesem Zusammenhang die (neuartige) IT-gestützte modellbasierte Klimatologie mit dem auf dem “zusätzlichen” anthropogenen CO2-Ausstoß basierenden Erwärmungstrend einordnen?
MFG
Dr. W
@Honerkamp
v2.0:
Zustimmung. Können Sie in diesem Zusammenhang die (neuartige) IT-gestützte modellbasierte Klimatologie mit dem auf dem “zusätzlichen” anthropogenen CO2-Ausstoß basierenden Erwärmungstrend einordnen?
Ergänzung: Die aktuellen Klimatheorien sind nur sehr begrenzt falsifizierbar.
MFG
Dr. W
PS: Eine Kommentar-Voransicht wäre nicht schlecht.
Die Schrägschrift
Test: die Kursivschrift geht jetzt wohl nie mehr weg?!
@Dr. Webbaer: Modelle + Simulationen
Komplexe Systeme wie das Wetter und das Klima werden heute mit physikalischen Modellen simuliert. Modelle scheinen aber auch sonst eine entscheidende Bedeutung zu haben. Nate Silver hat in seinem Buch “The signal and the noise” dargelegt, dass ohne gute Modelle Signal und Rauschen schwierig auseinanderzuhalten sind und reine statistische Korrelationen ohne zugrundeliegende Modelle wenig aussagen.
Ihrer Aussage “Die aktuellen Klimatheorien sind nur sehr begrenzt falsifizierbar” würde ich überhaupt nicht zustimmen, denn die Klimaszenarien enthalten Fehlerschranken und obere und untere Schranken für ungenau bekannte Grössen wie die Klimasensitivität. Durchbricht die reale Klimaentwicklung diese oberen und unteren Schranken ist das Klimamodell falsifiziert. Das einzige Problem sind die grossen Zeiträume die es dauert bis solch ein Falsifikationsfall überhaupt eintreten kann. Das liegt aber in der Natur des Klimas. Es ändert sich nur sehr langsam, mindestens in menschlichen Masstäben. Gerade kürzlich erschienene Studien legen dar, dass Emissionsreduktionen bei den Treibahausgasen, die jetzt stattfinden, die Entwicklung der nächsten 30 bis 50 Jahre kaum beeinflussen, sondern sich erst Ende dieses und Anfang des nächsten Jahrhunderts voll auswirken.
Formatkorrektur
Nachfrage
Wer hat den kursiv gehaltenen oben sichtbaren Text produziert?
MFG
Dr. W
@Webbaer
“Die (neuartige) IT-gestützte modellbasierte Klimatologie” ist keine physikalische Theorie sondern nutzt nur Gleichungen und Modelle bekannter etablierter Theorien. Es stimmt genau, was . sagt. Klimatologie ist eine angewandte Wissenschaft und lebt von Klimamodellen, in denen noch viele Annahmen über Parameter, etc. stecken. Diese Modelle können sehr wohl falsifiziert werden.
@Ludwig Trepl
– Ich stimme Ihnen zu, dass man Wissenschaftstheorie einerseits empirisch betreiben kann, andererseits als “Logik der Forschung”. Popper wollte explizit seine “Methodenlehre” nicht als empirische Wissenschaft verstanden wissen. Und Kuhn hat von Fleck sicher vieles gelernt, insbesondere den empirischen Ansatz.
Ich interessiere mich als “Naturalist” nur für den empirischen Ansatz, und es wäre durchaus interessant genauer zu wissen, welche Rolle dieser bei den logischen Empiristen gespielt hat.
@Honerkamp
Aber die IT-gestützte Modellierung der Klimatologie/Klimaprognostik ist 1.) neuartig und 2.) wegen ihrer Einmaligkeit das Ergebnis betreffend und wegen ihrer fortdauernden Entwicklung nicht falsifizierbar.
Zu 2:
Das ist so ähnlich wie mit einem Unternehmenserfolg, der nicht sinnvollerweise wegen Einmaligkeit mathematisch/statistisch erfasst oder beurteilt werden kann.
Wir vergleichen hier -ein gerne angeführtes Beispiel- auch mit dem Roulettegerät, das immer und immer wieder statistischerseits neu auf Kesselfehler und Theoretisierung geprüft werden kann, nicht aber das Gesamtunternehmen, dass diesen Kessel betreibt. Weil dieses Unternehmen nur einmal stattfindet.
Es irritiert ein wenig, dass Sie hier keine Besonderheit/Neuheit zu erkennen vermögen.
MFG
Dr. W
@Dr. Webbaer: Natürlich ist die “IT-gestützte modellbasierte Klimatologie” falsifizierbar.
Hier wird eine Theorie aufgestellt – denn vor den Modellen existiert immer die Theorie – und daraus ergeben sich Schlussfolgerungen, also Basissätze (die durch die Modelle gebildet werden). Diese werden mit den Beobachtungen verglichen. Besteht hier ein Widerspruch, so ist es zu einer Systemfalsifikation gekommen. Also ein Widerspruch im System “Theorie-Sätze-Beobachtungen”. Dieser Widerspruch muss gelöst werden, in dem die Theorie, die Sätze oder auch die Beobachtungen (die ja auch theorieabhängig sind) neu überdacht werden.
Beispiel Klimaforschung: Die kalten Winter. Sie stellen ansich einen Widerspruch zur Theorie da. Gelöst wurde das ganze mit der Annahme von veränderten Luftströmungen in der Arktis. Eine typische Ad-hoc-Hypothese. Die sind laut Popper dann erlaubt, wenn dadurch die Falsifizierungsmnöglichkeiten des ganzen System (also Theorie-Basissätze-Beobachtungen-Ad-hoc-Hypothesen) steigt. Dadurch steigt auch der Erkenntnisgewinn des Systems.
Und das ist hier natürlich gegeben. Denn wenn die Ad-hoc-Hypothese falsifiziert wird, gibts nicht nur einen Widerspruch in der Ad-hoc-Hypothese, sondern es entsteht ein neuerlicher Widerspruch im “alten” System aus Theorie-Sätze-Beobachtungen.
Es kommt daher überhaupt nicht auf die Art der Modellierung an, wie diese erfolgt, sondern auf das Wechselspiel zwischen anerkannten Basissätze einer Theorie und anerkannten Beobachtungen. Das ist das Kriterium für Falsifizierbarkeit. Und was “anerkannt” ist, bestimmt, wie schon weiter oben gesagt, die ForscherInnengemeinde. Es ist ein gesellschaftlicher Prozess. Und es gibt kaum eine “anerkanntere” Theorie als die Theorie vom menschenversuchachten Klimawandel (Evolutionstheorie vielleicht noch).
@Gustav
Kommt darauf an, wo Sie wohnen.
Ansonsten: DIE Theorie mit dem menschenverursachten Klimawandel gibt es nicht, wie sich schon an den unterschiedlichen Klimamodellen und der unterschiedlichen Prognistik offenbart.
Der Schreiber dieser Zeilen hat keine Probleme mit dem klimatologistischen Bemühen an sich, aber u.a. die prädiktiven Größen stimmen nicht. – Bei all der Plausibilität mit den klimarelevanten Gasen, die zurzeit verstärkt gelöst werden, gibt es verschiedene Probleme mit dem aktuellen Prognosewesen.
Zum Beispiel die Prognosehöhe, die ca. 0,35K/Dekade bis 2100 erwartet, wobei die Datenlage (GISS, Handen) für den Zeitraum 1880-2012/12 nur ca. 0,06K/Dekade belegt.
Und natürlich das Erkenntnistheoretische, das eben an einer Datenprobe der Größe 1 zu bemessen ist; siehe oben. – Die Argumentation mit den Einzeltheorien, die jeweils falsifizierbar seien, überzeugt nicht, auch weil zusammengesetzte Theorien, die hier behandelte Klimatologie ist eine Interdisziplinarität, in ihrer Konstitution, als Gesamttheorie, andere Eigenschaften und Wirkungen aussagen muss.
Die Konstituenten als neue Eigenschaften gebend, die sozusagen emergieren, Honerkamp pur sozusagen, lol.
Das nur als Kritik-Einstieg.
MFG
Dr. W (der sich neben der Theoretisierung mit der anscheinend zu großen Prognosehöhe aber auch über Maßnahmenkataloge, die defensiv, undemokratisch und rückbauend angelegt sind, ärgert)
Dr. Webbaer: “Ansonsten: DIE Theorie mit dem menschenverursachten Klimawandel gibt es nicht, wie sich schon an den unterschiedlichen Klimamodellen und der unterschiedlichen Prognistik offenbart.”
Ich würd sie bitten sich mit Wissenschaftstheorie zu beschäftigen. Danke.
@Gustav
Die Klimamodellverwalter pflegen u.a. unterschiedliche Prognosehöhen und unterschiedliche Theorien, was die Wirksamkeit der sog. klimarelevanten Gase betrifft, die Beschaffenheit sog. CO2-Senken und bei der Einschätzung/Modellierung anderer Faktoren (die Sonnenleistung z.B., sie wird erst seit 3 Jahrzehnten extraterrestrisch bemessen, Aerosole) ist man sich auch nicht einig. – Insofern gibt es ein Rudel AGW-Theorien, die unterschiedlich ‘anerkannt’ sind, also nicht nur regional unterschiedlich.
HTH
Dr. W
@Dr.Webbaer
Der Weltklimarat gibt in seinen Assessment Reports den Konsens der Klimawissenschat wieder. Der entscheidende Parameter ist die Klimasensitivität, also der Temperaturanstieg bei Verdoppelung der Treibhausgase. Nach dem 4. Assessment Report beträgt er zwischen 2 und 4.5 Celsius, wobei nur ein Teil der Erwärmung eine unmittelbare Folge des Treihausgasanstiegs ist und positive Rückkoppelungen wie der ICE-Albedo Feedback (Abschmelzen der Gletscher und der Pole) auch lange Zeit nach dem CO2-Anstieg noch zur Erwärmung beitragen. Folgerung: Ist die globale Durchschnittstemperatur bei 560 ppm CO2 (irgendwann in den 2050-ern) um deutlich weniger als 2 Celsius angestiegen gegenüber dem präindustriellen Niveau, kann man die Aussagen des IPPC in Zweifel ziehen, wobei auch dann noch eine Möglichkeit besteht, dass noch Erwärmungspotenzial in der Pipeline steckt.
@Synoptiker: Jenau
, man passt dann beispielsweise die Klimasensivität an oder theoretisiert die “Pipeline” anders.
Weil man aber nur eine (siehe oben) Ereignisfolge betrachten kann, kann es passieren, dass eine sinnvolle Parametrisierung durch eine weniger sinnvolle ersetzt wird, auch weil man das Grundrauschen nicht genau kennt.
Als Dilettant und konstruktiver Empirist hat der Schreiber dieser Zeilen natürlich wenig Probleme mit dem Artikeltext. Theorien stehen im Wettbewerb und verschwinden unfalsifiziert oder verbleiben, idealerweise empirisch adäquat, no prob!, dieser Kommentar störte mit seiner Sehr-Wohl-Möglichen-Falsifikation-Des-Gesamtmodells ein wenig, aber vielleicht kann hier noch jemand erklären?
MFG
Dr. W
@Dr.Webbaer:Frage Was wird falsifiziert?
Treibhausgase machen den Unterschied zwischen hothouse earth und Eiszeit. Das ist die Aussage der IPCC-Klimawissenschaflter. Und diese gilt es zu falsifizieren, nicht etwa die Behauptung, dass Treibhausgase die Erde erwärmen, denn das tun sie aufgrund unserer physikalischen Kenntnisse mit grosser Sicherheit. Treibhausgase müssen deswegen aber nicht DER grosse Klimatreiber sein.
Es gibt andere Kandidaten.
5% weniger Wolken => hothouse earth, 5% mehr Wolken => Eiszeit
Wie Jasper Kirkby, der Leiter des CERN-Cloud-Experiments im Interview Creating Clouds in the Lab sagt, haben Wolken einen überraschend grossen Einfluss auf die Wärmebilanz der Erde: “Clouds on average have a net cooling effect of roughly 20 to 30 watts per square meter. It’s quite a large total effect of clouds. And using the same numbers, all of mankind’s activities are thought to have added 1.5 watts per square meter to the heat flux at ground level. So, you can see instantly that you really have to understand possible changes in clouds — to a few percent of precision — if you want to eliminate those as some contributor to climate change.”
Gäbe es einen dem Menschen unbekannten Einfluss auf die Wolkenbildung, der periodisch zu mehr oder weniger Wolken führte, könnte dies einen bestimmenden Einfluss auf das Klima haben. Um die Wolkenphysik und -chemie näher abzuklären gibt es das Cloud-Experiment. Dabei werden auch viele andere wenig verstandene Dinge der Atmosphärenpyhsik abgeklärt, zum Beispiel wie und unter welchen Bedingungen Aerosole die Wolkenbildung beeinflussen.
Synopsis: Die IPCC-Klimawissenschaflter sind widerlegt, wenn nicht Treibhausgase, sondern etwas anderes die Wärmebilanz der Erde so ändern kann, dass es zum Phänomen hot-house earth und snow ball earth kommt.
Opinion: Vieles spricht dafür, dass Treibhausgase der entscheidende Klimatreiber sind. Die Klimavariabilität und die Verzögerungen sind aber wahrscheinlich so gross , dass sich das in Bezug auf die anthropogenen Treibhausgase erst nach Jahrzehnten voll auswirkt.
@Synoptiker
Ihr Kommentatorenfreund, der Webbaer, wäre geneigt Ihnen hier zuzustimmen:
… merkt aber gerne an, dass dann die Prognosehöhe zu hinterfragen wäre, wir erinnern uns: Man will hier hoch hinaus und ist schnell bei bis zu 10K plus, manche denken auch aktivistisch die Venusfikation (Hansen) herbei und man möchte hier auch anfragen, ob ein Bock ein guter Gärtner ist.
“10K plus” befinden sich im Rahmen dessen, was bisher den Klimaschwankungen der letzten 500 Millionen Jahre zugetraut worden ist, d.h. es geht um Hals und Kragen oder um Hysterie.
Unklar bleibt, warum ein relativ nur leicht zunehmender anthropogener CO2-Ausstoß derart apokalyptische Auswirkungen haben kann. Man fragt sich u.a.: Reagiert ein Klimasystem wie das terrestrische nicht vielleicht und sozusagen aus sich heraus gegensteuernd? Balanciert es besser als man zuvor annahm? Hätte ein bestimmter die Säugetiere oder Saurier befallender Darmvirus nicht jederzeit innerhalb der letzten 500 Millionen Jahre eine vergleichsweise hohe Lösung von Gasen bewirken können und damit den terrestrischen Exitus?
Wie dem auch sei. Sollte der Zeitrahmen vor der “Venusfikation” größer sein, sich vielleicht auf 1.000 Jahre erstrecken, hätte der Mensch (und Bär) ganz andere Möglichkeiten gegenzusteuern. Geo-Engineering oder “Terra-Forming auf der Erde” böten sich an. Man ist nicht mehr weit davon entfernt diese Möglichkeiten betreffend.
Die Zustandsbeschreibungen und angedachten Maßnahmen wie den gesamt-industriellen Rückbau sind nicht wirklich sexy und Ältere fühlen sich vielleicht an Vorkommnisse wie das Waldsterben erinnert, das es ganz bevorzugt nur in D gab (Studieren Sie bspw. die Online-Enzyklopädien, da sind die Texte deutsch und man amüsiert sich noch am ehesten französisch über ‘Le Waldsterben’)
Sorry für das Gesülze, aber scheinen sind postreligiöse Elemente im Spiel, die man auch mal ausbreiten darf. – Das Einverständnis des hiesigen Inhaltemeisters vorausgesetzt.
MFG
Dr. W
Korrektur
* aber anscheinend
Der Infinitiv war wohl – im Review – fehl am Platze.
Betrifft: Sack oder Esel?
Gustav schrieb (16.01.2013, 16:08):
> Kurz zu Popper: […]
> Auch Beobachtungen sind theorieabhängig (die Theorie bestimmt was wir wann und wie beobachten können)
Eine Theorie, die sich mit Beobachtungen beschäftigt (und darüberhinaus vor allem damit, wie aus gegebenen Beobachtungsdaten eventuell Messwerte zu ermitteln sind), enthält natürlich den Begriff “Beobachtung” einschließlich einer Beschreibung, was überhaupt als “Beobachtung” gilt bzw. wie Messoperatoren darauf anzuwenden sind.
Eine Theorie enthält aber keine Erwartungen oder Vorbehalte, welche konkreten solchen Beobachtungen (“von wem”, “in welcher Reihenfolge”, …) gesammelt werden würden, falls überhaupt.
> und können somit auch falsifiziert werden.
Wodurch denn? — Etwa durch Beobachtungen bzw. daraus gewonnene Messwerte??
Nein!
Beobachtungen sind auch nicht falsifizierbar;
d.h. Theorien sind auch nicht falsifizierbar.
Stattdessen sind Modelle/Erwartungen/Vorhersagen falsifizierbar, die aus den Begriffen der betrachteten Theorie formuliert wurden.
Zum Beispiel:
Gustav schrieb (18.01.2013, 17:21):
> Beispiel Klimaforschung: Die kalten Winter. Sie stellen an sich einen Widerspruch zur Theorie da[r].
Nein:
der Messwert “kalte(r) Winter” stellt weder einen Widerspruch zum Begriff “kalt” (bzw. zur zugrundegelegten Definition von “Kälte” oder “Temperatur” als Messgröße) noch zum Begriff “Winter” (bzw. zur zugrundegelegten Definition von “Jahreszeit” als Messgröße) dar;
sondern allenfalls einen Widerspruch zu den Modellen (Erwartungen/Vorhersagen)
“dieser Winter wird nicht kalt” oder z.B. “Winter sind nie kalt”.
Und der (eventuelle) Widerspruch zwischen einem bestimmten experimentllen Befund und einer bestimmten Erwartung/Vorhersage/Modellierung wird natürlich dadurch aufgelöst, dass man das entsprechende Modell verwirft (als experimentell falsifiziert); nicht aber die Begriffe/Theorie, die eingesetzt wurden, um dieses Modell zu formulieren, und die auch weiterhin unverändert zur Verfügung stehen, um andere Modelle zu formulieren.
@Frank Wappler: Wichtige Klärung
Frank Wappler hat in seinem Kommentar eine wichtige Differenzierung des ganzen Theorie-/Modell-Komplexes vorgenommen, indem er festhielt, dass aus Theorien Modelle erwachsen und diese Modelle dann die Basis von Vorhersagen/Szenarien sind. Diese Vorhersagen/Szenarien können dann anhand von Beobachtungen verifiziert bezwugsweise falsifiziert werden.
Wenn die Beobachtung die Vorhersagen des Modells verifiziert heisst das aber nicht dass die Theorie verifiziert ist, sondern nur dass Theorie, Modell und Beobachtung zusammenpassen. Falsifiziert die Beobachtung das Modell, so falsifiziert das potenziell die Theorie, aber nur wenn das Modell korrekt aufgebaut wurde.
Jetzt ein vereinfachtes Beispiel dazu:
Theorie: Das Newton-sche Gravitationsgesetz beschreibt die Bewegung aller Planeten in unserem Sonnensystem.
Modell: Wir modellieren das Planetensystem als Kollektion von Punktmassen und errechnen durch schrittweise Lösung der zugehörigen Differentialgleichungen ihre Bahnen für einen interessiereden Zeitraum
Beobachtung: Die beobachtete Merkurbahn weicht signifikant von der modellierten Merkurbahn ab
Schlussfolgerung Unter Annahme “guter” Beobachtungsdaten kann nun entweder das Modell falsch sein oder aber die Theorie. Das Modell könnte beispielsweise die Theorie falsch modellieren, weil die Abstraktion der Planeten als Punktmassen unzulässig ist. Wenn dies abgeklärt ist und das Modell als “korrekt” betrachten werden kann so ist die Theorie, dass das Newton’sche Gravitationsgesetz unser Planetensystem beschreibt falsifiziert. Wobei auch hier noch zu diskutieren bleibt, was diese Falsifikation genau bedeutet.
Differenzierung 101
Synoptiker schrieb (21.01.2013, 10:24):
> Jetzt ein vereinfachtes Beispiel dazu:
> Theorie: Das Newton-sche Gravitationsgesetz beschreibt die Bewegung aller Planeten in unserem Sonnensystem.
Das ist eher beispielhaft für ein Modell:
mehrere bestimmte Mess- oder Erwartungswerte betreffs “Bewegung” bestimmter Beteiligter (bzw. konkreter sicherlich: “Abstände r_jk” und “Beschleunigungen a_j”) zusammengefasst;
oder auch betreffs sonstiger “Eigenschaften” der einzelnen Beteiligten (z.B. deren Werte “G M_j”, und deren eventueller Veränderlichkeit);
oder auch betreffs sonstiger “Eigenschaften” des Systems insgesamt, bzw. von Teilsystemen
(z.B. deren “Abgeschlossenheit”, oder eventueller Abweichungen davon).
Die zugrundeliegende Theorie bestünde dagegen in den Definitionen der zur Formulierung des Modells erforderlichen Messgrößen, also wenigstens:
– wie die Werte “a_j” für verschiedene Beteiligte miteinander verglichen werden sollen,
– wie die Werte “G M_j” für verschiedene Beteiligte miteinander verglichen werden sollen,
– wie die Werte “r_jk” für verschiedene Paare von Beteiligten miteinander verglichen werden sollen.
> Modell: Wir modellieren das Planetensystem als Kollektion von Punktmassen
… das wäre wohl bedingt dadurch, was mit “r_jk” gemeint ist, und welche Beteiligten überhaupt als voneinander unterscheidbar gelten sollen …
> und errechnen durch schrittweise Lösung der zugehörigen Differentialgleichungen ihre Bahnen für einen interessierenden Zeitraum
… im Prinzip sicher für jede denkbare Kombination von (Anfangs-)Werten “a_j”, “r_jk”, “G M_j”, und sowohl unter der Bedingung von “Abgeschlossenheit” wie auch jeder denkbaren Abweichung davon;
wobei wohl insbesondere die Definitionen der Messgrößen “a_j” und “r_jk” es im Zusammenhang erforderlich machen, Differentialrechnung anzuwenden …
> Beobachtung: Die beobachtete Merkurbahn weicht signifikant von der modellierten
Merkurbahn ab
Erstens geht es dabei offenbar weniger um (elementare) Beobachtung (“Ich seh Merkur und …”)
sondern um quantitative Messwerte (zu deren Gewinnung i.A. sehr viele geeignete Beobachtungen erforderlich sind, auf die der Messoperator anzuwenden wäre, der den Begriff “Bahn” definieren soll).
Und zweitens: Ob sich unter den vielen, vielen modellierten (oder zumindest modellierbaren) “Merkurbahnen” nicht doch mindestens eine befände, die (noch) nicht vom Messwert abgewichen ist?
Die wesentliche Schwäche des “Newtonschen Modells” liegt stattdessen darin, dass ihm überhaupt
keine ernsthafte, nachvollziehbare Theorie zugrundeliegt. (Nicht umsonst flachste ja schon Eddington, angeblich: “Any body remains in a state of rest or uniform motion; except as far as it doesn’t.”)
Und überhaupt sollte man doch zuerst Geometrie/Kinematik abgesichert haben, bevor man damit Variationsrechnung/Dynamik betreibt.
> Wenn die Beobachtung [bzw. Messwerte] die Vorhersagen des Modells verifiziert heisst das aber nicht dass die Theorie verifiziert ist, sondern nur dass Theorie, Modell und Beobachtung zusammenpassen.
Stimmt. Von einer Theorie ist ja stattdessen zu fordern, dass sie nachvollziehbar ist (aus gegebenen geeigneten Beobachtungsdaten sich also im Einvernehmen mit allen Beteiligten reelle oder Boolesche Messwerte gewinnen lassen),
und dass sie möglichst effektiv ist (also allein mit den schon gesammelten Beobachtungen etwas Reelles, Einvernehmliches ermitteln lässt, anhand dessen sich Modelle in “schon falsifiziert” und “noch korroboriert” unterscheiden lassen).
> Falsifiziert die Beobachtung [bzw. der Messwert] das Modell, so falsifiziert das potenziell die Theorie, aber nur wenn das Modell korrekt aufgebaut wurde.
Ersetze das Wort “Theorie” konsequent durch “Definitionen (von Begriffen, bzw. von Messoperatoren, durch deren Anwendung Messwerte ermittelt werden)”.
Kann denn eine Definition an sich falsch sein bzw. falsifiziert werden??
Kann denn eine Definition insbesondere dadurch falsifiziert werden, dass man sie benutzt hat (um einen bestimmten Messwert zu ermitteln)??
Nein! Falls ein bestimmter Messwert ein bestimmtes Modell falsifiziert, dann bleibt die Definition des Messoperators (wie jeder Messwert aus gegebenen Beobachtungen zu ermitteln war, ist, und bleibt) davon unbeschadet.
@Frank Wappler : Theoriebegriff
Ihr Theoriebegriff scheint mir mehr eine messtechnische/messbegriffliche Abstraktion/Filterung der Realität zu sein, wenn sie sie mit folgendem verbinden:
1)nachvollziehbar: “wie .. aus geeigneten Beobachtungsdaten … reelle oder Boolesche Messwerte gewinnen lassen”
2)effektiv: sich “allein mit den schon gesammelten Beobachtungen etwas Reelles, Einvernehmliches ermitteln lässt”
Nach Wikipedia scheint Theorie von den meisten als Abbild eines Aussschnitts der Realität aufgefasst zu werden mit deskriptiven und kausalen Aussagen, die empirisch überprüfbar sind.
Nach dieser Defintion ist Theorie und Modell nahe beisammen.
Auch ich sehe eine Nähe von Modell und Theorie, sehe aber im Modell mehr einen “Use Case” (in Analogie zum Begriff im Softwareengineering), also eine Konkretisierung der Theorie für einen bestimmten Betrachtungsfall und einen bestimmten Zweck. Ein Klimamodell beispielsweise benutzt physikalische Theorien um das Klima zu modellieren bereits mit einer Absicht und vereinfacht schnell einmal dort, wo eine präzisere Abbildung keinen Einfluss auf die Qualität des Klimamodells hat.
Ihr Theoriebegriff scheint mir nur einen Teil dessen zu umfassen, was als Bestandteile von Theorien in der Wikipeia aufgelistet ist und von den Elementen dieser Liste, nämlich Grundannahmen, Grundbegriffe, Theoriekern, Messkonzepte, Empirische Belege scheinen sie den Theoriekern mit seinen beschreibenden und erklärenden Aussagen bereits als Modell aufzufassen.
@Synoptiker
@Synoptiker
“Falsifiziert die Beobachtung das Modell, so falsifiziert das potenziell die Theorie, aber nur wenn das Modell korrekt aufgebaut wurde.”
Was heißt schon korrekt aufgebaut? Ihr Beispiel spiegelt auch nicht die Verhältnisse richtig wider, denn
– das Newtonsche Gravitationsgesetz ist keine Theorie sondern eine Annahme innerhalb der Theorie “Newtonsche Mechanik”, die auf den Newtonschen Prinzipien für das Aufstellen von Bewegungsgleichungen gründet. Mit jeder Bewegungsgleichung haben wir ein Modell vorliegen.
– Am Beispiel der Merkurbahn kann man zeigen, dass man Diskrepanzen in einem Modell bekommen kann, ohne dass man gleich von einer Falsifizierung reden muss. Die Diskrepanzen können zurückgeführt werden auf: Einfluss weiterer Planeten, Einfluss der Raumkrümmung (siehe Allgemeine Relativitätstheorie) . Alles in der Geschichte passiert. Also auch bei Modellen ist schon oft nicht klar, was “korrekt” heißt. Theorien und Modelle sind wie Gebäude. Sie brechen nicht sofort ein, wenn ein Stein herausbricht oder eine ganze Wand. Wenn etwas wirklich falsifizierbar ist, dass sind es Vorhersagen.
– Das theoretische und abstrakte Reden über den Erkenntnisprozess führt m.E. immer auf Glatteis. Deshalb favorisiere ich die “naturalistische” Wissenschaftstheorie, in der man sich die Erkenntnisprozesse in der Geschichte der Wissenschaften anschaut und aus diesen Lehren zieht.
Angabe
Frank Wappler schrieb (21.01.2013, 15:23):
> […] schon Eddington, angeblich: “Any body remains in a state of rest or uniform motion; except as far as it doesn’t.”
Vgl.
http://archive.org/…ofthephysi000971mbp_djvu.txt
S. 124
Parelleltheorien
Zur Frage, ob mehrere Theorien zu demselben Problem erlaubt sind, habe ich folgende Punkte gefunden:
1. Ockhams Rasiermesser
Hier ist die Frage, ob das Kriterium der Einfachheit anhand heutiger Computermodelle und insbesondere auch automatisierter Messdatenerfassung noch gilt.
2. Deterministisches Chaos
Wie ist damit umzugehen, dass Modelle eventuell Chaotische Ergebnisse liefern. Es ist ja in der Regel weder klar, ob alle relevanten Parameter, noch ob alle Anfangsbedingungen genau bekannt sind?
3. Interpretation und Modell
Auch bekannte Modelle wie die Quantenmechanik scheinen immer noch von der Interpretation her umstritten zu sein. Siehe dazu:
http://www.pro-physik.de/…er_Interpretation.html
Mir persönlich ist die “Shut up and calculate” Interpretation sympathisch.
Hoheitsfragen
Synoptiker schrieb (21.01.2013, 16:35):
> […] was als Bestandteile von Theorien in der Wikipeia aufgelistet ist und von den Elementen dieser Liste, nämlich
> Grundannahmen, Grundbegriffe, Theoriekern, Messkonzepte, Empirische Belege
Es ist ja jedenfalls sinnvoll, das, was unterscheidbar ist, verschieden zu nennen und aufzulisten. (Obwohl ich dabei u.a. einen Verweis auf den Begriff http://de.wikipedia.org/wiki/Theorem vermisse; sowas würde ich ansonsten wohl unter “Theoriekern” einordnen …)
Ob zwischen diesen verschiedenen Begriffen wohl eine bestimmte (logische, konstruktive) Reihenfolge besteht (in der sie möglicherweise auch aufgelistet wurden)?
Insbesondere: Ob sich eine Theorie wohl erst auf bestimmte “Messkonzepte” festlegen muss, um (damit, eventuelle) “Empirische Belege” zu erlangen?
Und ob man überhaupt von irgendeinem der genannten Bestandteile ggf. sagen könnte: “Dieser Bestandteil insbesondere hat sich als falsch herausgestellt; bzw. dieser Bestandteil insbesondere ist (experimentell) falsifiziert worden.” ?
@Thimm
Das Rasiermesser ist der Rat mit einer möglichst geringen Anzahl von Entitäten eine Theorie zu formulieren.
Ist eine Theorie aber erst einmal formuliert, kann mithilfe des Occamschen Rates nur die Konsistenz ein wenig besser bearbeitet werden, vielleicht gelingt eine Kürzung, wenn nicht, dann nicht.
Sie können mit Hilfe einer Theorie ein “deterministisches Chaos” ohne Bedeutung erzeugen, das nichts beschreibt und nichts erklärt, aber die Vorhersage erlaubt.
Ist wohl so. Man kann sogar immer noch an verborgene Variablen glauben.
MFG
Dr. W
(Web-)Seiten-Strang-(Urs-)Ulierung
Zur Frage, ob mehrere Theorien zu demselben Problem erlaubt sind, habe ich folgende Punkte gefunden:
http://math.stackexchange.com/…proofs-of-the-sam
http://www.google.de/…+%22reverse+mathematics%22
[[YMMV]]
Imre Lakatos
@Wappler
Vielen Dank für den Hinweis auf Imre Lakatos. Der Begriff des Forschungsprogramms scheint mir weit weniger missverständlich zu sein als Theorie oder Paradigma.
Flanken und Direktabnahmen
Wolfgang Thimm schrieb (29.01.2013, 12:15):
> Vielen Dank für den Hinweis auf Imre Lakatos.
Jedenfalls (noch) jemand, dessen Äußerungen zum Thema hier leicht wiederholbar wären; auch wenn er hier leider nicht (mehr) kommentieren kann, um zu versuchen, sie uns ggf. nachvollziehbar zu machen.
> Der Begriff des Forschungsprogramms scheint mir weit weniger missverständlich zu sein als Theorie oder Paradigma.
Dann wäre es sicher interessant, den Begriff des „Forschungsprogramms“ zu definieren bzw. zu beschreiben, ohne den Begriff (oder nur das Wort?) „Theorie“ dabei einzusetzen bzw. vorauszusetzen; d.h. anders als z.B. in http://de.wikipedia.org/…atos#Falsifikationismus …
Klare Begriffe
@Wappler
Grundsätzlich zu Ihrem Vorschlag: JA !!!!
– allerdings habe ich auch 2 ABER gefunden.
a) Es bringt m.E. nichts den “halbklaren Begriff” Theorie durch “eine handvoll unklarerer Begriffe” im Umfeld des Forschungsprogramms zu ersetzen. Beispiele für solche unklaren Begriffe finden sich auf den Web-Seiten der EU bzw. des BMBF.
b) Irgendwann ist es wahrscheinlich nötig zu klären, ob “Amateure” es nicht Profis wie z.B. Prof. Dr. Hans Rott
Professor für Theoretische Philosophie, Uni Regensburg, überlassen sollten, die Details auszuarbeiten.
Immerhin wäre am Ende solcher Überlegungen wahrscheinlich eine deutlich klarere Bestimmung von Begriffen wie Theorie, Paradigma oder Forschungsprogramm zu erwarten! – inwieweit diese allerdings allgemein bekannt und verinnerlicht wären s.o. Artikel von Hrn. Prof. Honerkamp.
Grundsätzliches und Belegbares
Wolfgang Thimm schrieb (31.01.2013, 23:52):
> Grundsätzlich zu Ihrem Vorschlag [30.01.2013, 14:32]: JA !!!!
Toll! (Ich hatte mich schon gewundert …)
Wo implementieren wir das denn mal, öffentlich (wenn nicht sowieso gleich in Wikipedia)?
> ABER […]
> a) Es bringt m.E. nichts den “halbklaren Begriff” Theorie durch “eine handvoll unklarerer Begriffe” im Umfeld des Forschungsprogramms zu ersetzen.
Stimmt, das bringt sicherlich nichts.
Welche Begriffe wären denn geeignet?
Mir fällt z.B. auf, dass zumindest das Wort “Grundannahme” an mehreren Stellen auftaucht; z.B. oben (21.01.2013, 16:35; 22.01.2013, 21:38) als auch in
http://de.wikipedia.org/…tos#Forschungsprogramme
Oder gilt auch der entsprechende Begriff (“Grundannahme”/”Axiom”/”Selbstverständliches”) als missverständlich und unbrauchbar?
> b) Irgendwann ist es wahrscheinlich nötig zu klären, ob “Amateure” es nicht Profis […]
überlassen sollten, die Details auszuarbeiten.
Falls man Begriffe hat, um sie anderen zu überlassen, die sie (sich) wiederum selbst aneignen/erarbeiten/nachvollziehen mögen, ist doch gerade toll.
> wie z.B. Prof. Dr. Hans Rott Professor für Theoretische Philosophie, Uni Regensburg
Hat der hier schon kommentiert?
Oder wo/wie lässt er, als Vorbild, denn seine Begriffe in Frage stellen bzw. auf Nachvollziehbarkeit untersuchen?
Nur ein schwaches Brainstorming…
Das liegt aber – möchte ich einwerfen – nicht daran, dass Descartes ein “Naturphilosoph” war, der deshalb nur verbal-argumentierend irgendwelche Ansichten verbreitete, quasi nur ein Schwätzer war, während Newton ein “Naturwissenschaftler” war, der sofort mathematisch gearbeitet hat.
1. War Descartes nebenbei auch Mathematiker und hat als solcher ebenso Arbeiten veröffentlicht wie als Philosoph.
2. Bezeichnete Newton sein Hauptwerk als mit den Titel (übersetzt aus dem Lateinischen) “Die Mathematischen Prinzipien der Naturphilosophie”. Er beschäftigte sich außerdem mit Hermetik, die wir wohl kaum als sehr naturwissenschaftlich ansehen würde…
(Was wohl daran liegen könnte, dass “Naturphilosphie” damals ein Synonym für “Naturwissenschaft” gewesen sein könnte. Physik war jedenfalls lange Zeit teil der (Natur-)Philosophie, ebenso wie Botanik etc.)
Betreffend der Auseinandersetzung Kopernikaner – Scholastik wird es oft so dargestellt als stünde dort moderne Mathematisierung und Experiment (Galilei) gegen “Geschwätz”, das sich einleuchtend anhört und mit Syllogismen vernebelt wird auf der anderen Seite (Scholastiker). Ob das stimmt kann ich nicht sicher beurteilen, aber Galilei scheint sich auch verbaler Argumente bedient zu haben.
Das lag wohl eher daran, dass Newton die Integralrechnung zur Verfügung stand, Descartes aber noch nicht. Deshalb wird man sich wohl weniger Hoffnung in Bezug auf die Mathematik gemacht haben. Und auch Newton stand ja eine Differenzialgeometrie nicht zu Verfügung, die Einsteins Theorie voraussetzen soll.
Überspitzt gefragt: Wäre es vielleicht möglich, dass der Fortschritt in der Physik im Anwenden neuster Mathematik besteht?
Nun, das griffe wohl auch etwas zu kurz…
Da muss ich ihnen (nach meinen Wissenstand) zustimmen.
Das liegt aber vielleicht auch einfach daran, wie scharf man “Theorie” definiert. Man kann ja immer eine Theorie so modifizieren, dass sie zu den Beobachtungen passt.
Nun würde sich die Frage stellen, wie gut man eine Theorie z. B. darüber wie die Messung mit einem Apperat funktionier, von einer anderen Theorie, etwa über die Bewegung von Teilchen, abgrenzen kann.
@Martin Holzherr
Da sprechen sie ein sehr interessantes und vielleicht sogar relevantes Thema an. Die Theorie Poppers darüber, wie wissenschaftlicher Fortschritt stattfinden sollte, scheint mir vor allen unter Philosophen und einer gewissen Gruppe von “Rationalisten” (Atheisten, häufig) verbreitet zu sein.
Auch viele Naturwissenschaftler aus diesen Kreisen argumentieren so.
Es wäre interessant, zu untersuchen, wie viel Prozent der Naturwissenschaftler wirklich z. B. die methodologischen Ansichten z. B. eines Poppers teilen. Und dann vielleicht wie viele Prozent sich wirklich an die Methodiken halten.
Aber letzteres wird schwer zu untersuchen sein, selbst stichprobenartig.
Nunja, wer seine Ansichten wie häufig “radikal” revidiert ist zugleich eine empirische und schwer quantifizierbare Frage.
Man müsste sich zur ihrer Beantwortung zunächst Gedanken darum machen, wie man eine radikale Revision feststellen will. Dabei handelt es sich ja auch wieder um einen unscharfen oder vagen Begriff.
Aber selbst wenn wir das ignorieren, wäre es doch fraglich, welchen Nutzen die Beantwortung dieser Frage hätte. Würde es (1) die Geisteswissenschaften oder Naturwissenschaften in Frage stellen, wenn sie häufiger oder nicht häufig genug radikale Revisionen erleben? (Ich könnte mir vorstellen, dass Historiker eher von solche radikalen Revisionen verschont bleiben als Physiker. Aber sagt das wirklich etwas über die “Wissenschaftlichkeit” dieser beiden Disziplinen aus oder eher über den unterschiedlichen Gegenstand?)
2. Mir scheint der Begriff “Geisteswissenschaft” vielleicht ein bisschen zu umfassend zu sein. Er umfasst so unterschiedliche Disziplinen wie Literaturwissenschaft, Soziologie, Geschichte, Philosophie und Politologie.
Ein Historiker hat z. B. eine ganz andere Faktenbasis, mit der er arbeiten kann als ein Philosoph. Und der hat wieder eine ganz andere Zielsetzung als ein Literaturwissenschaftler. Einige dieser Disziplinen könnte man sicherlich sehr “positivistisch” betreiben, bei anderen steht diese Option gar nicht zu Verfügung.
@Wolfgang Thimm
Sofern zwischen ihnen ein Widerspruch besteht, will man den natürlich auflösen, weil sie sich nach klassischer Logik gegenseitig ausschließen würden.
In der Tat existieren aber offenbar auf manchen Gebieten parallele Theorien…
Beispiel “Licht”
@Wegdenker
“Sofern zwischen ihnen ein Widerspruch besteht, will man den natürlich auflösen, weil sie sich nach klassischer Logik gegenseitig ausschließen würden.”
-> Historisch ist das Beispiel bekannt, dass sich “Licht” je nach Situation mal als Welle und mal als (Quanten-)Teilchen besser beschreiben lässt. Dieses Problem kann man auch in Experimenten zeigen.
Die Frage liegt nahe, wer damit eigentlich das Problem hat, die Physiker oder die Philosophen?
@Frank Wappler
Siehe
Rott, Hans (1994) Zur Wissenschaftsphilosophie von Imre Lakatos. Philosophia naturalis 31, S. 25-62.
http://epub.uni-regensburg.de/25355/
@Wegdenker
@Wegdenker
– Ich stimme Ihnen zu, ich wollte auch in keiner Weise Descartes als Schwätzer hinstellen. Man muss aber auch nicht glauben, dass der Übergang von der Naturphilosophie zur mathematisch formulierten Physik abrupt vor sich ging. So standen Galilei und Newton auch immer noch mit einem Bein in der Naturphilosophie (was wir damit heute bezeichnen). Die Newtonsche Mechanik, wie wir sie heute kennen, ist von Euler etc. ausgebaut worden.
– Eine Theorie ist ein “Gedankengebäude einer hinreichenden Größe”, d.h. eine logisch geordnete Menge von Fakten, wobei die Ordnung durch “Erdachtes” (Einstein) d.h. durch Prinzipien oder Grundannahmen hergestellt wird. Ist dieses Haus aber nur eine “kleine Hütte”, so ist diese nicht viel wert und muss irgendwann einem größeren Gebäude Platz machen. Insofern ist der Begriff “Theorie” notwendig unscharf, so wie der Begriff “Reishaufen” (siehe mein Beitrag “Über Begriffe und Begriffsbildung” vom Februar 2012 mit der Frage: Ab wann ist eine Ansammlung von Reiskörnern ein Haufen?).
@Wolfgang Thimm, Frank Wappler
Eigentlich ist es gar nicht so schwer, mit den Begriffen “Theorie”, “Grundannahmen” und “Axiom” klare Vorstellungen zu verbinden, wenn man sich konkret an die bestehenden (oder fallen gelassenen) physikalischen Theorien hält. (Das sollte man sowieso tun, sonst redet man wie ein Pfarrer von der Ehe). “Forschungsprogramm” zu favorisieren, scheint mir die Unklarheiten bei Laien und bei solchen, die die Theorien nicht kennen, nur noch zu vergrößern.
Theorien
…sind Sichten auf Daten, wobei es auch Meta-Daten sein dürfen.
MFG
Dr. W
Eigendekomposition
Wolfgang Thimm schrieb (02.02.2013, 08:23):
> Siehe
Rott, Hans (1994) Zur Wissenschaftsphilosophie von Imre Lakatos. Philosophia naturalis 31, S. 25-62.
http://epub.uni-regensburg.de/25355/
Vielen Dank für die Referenz.
Darin findet sich (S. 32) die recht überschaubare Problemstellung
.
Gilt es dabei als selbstverständlich, dass der Begriff “Test” selbst ganz und ausschließlich nur zu einem dieser beiden Teile gehört?
Exp. prüfbar o. einfach nachvollziehbar
Josef Honerkamp schrieb (03.02.2013, 11:41):
> Eigentlich ist es gar nicht so schwer, mit den Begriffen “Theorie”, “Grundannahmen” und “Axiom” klare Vorstellungen zu verbinden, wenn man sich konkret an die bestehenden (oder fallen gelassenen) physikalischen Theorien hält.
Wie schwer das fällt (und offenbar keineswegs nur denjenigen, die sich selbst als Laien betrachten), zeigt sich insbesondere daran, wie oft allen Ernstes “experimentelle Tests von Theorien” gefordert werden.
Mir scheint, dass jede Gelegenheit genutzt werden sollte, um darauf hinzuweisen, dass es sich dabei allenfalls um “experimentelle Tests von (empirischen) Hilfshypothesen” handeln kann,
aber nicht um “experimentelle Tests von Axiomen/Grundannahmen”, “experimentelle Tests von Begriffen/Definitionen”, “experimentelle Tests von Theoremen” oder “experimentelle Tests von Testmethoden/Messoperatoren”.
Zum Beispiel:
die Begriffe der RT (die u.a. benutzt werden können, um bestimmte Hypothesen/Modelle hinsichtlich “Kosmologie” oder “Astronomie” oder “Geographie” oder “Baugleichheit” oder “-ungleichheit” usw. zu formulieren) wären keineswegs in Frage gestellt, falls irgendwelche dieser Modelle (in Anwendung der entsprechenden Messoperatoren) experimentell widerlegt würden.
@Wappler
Ihr Problem ist halt, dass Sie Nachbauten oder Modelle für notwendig halten Sichten (“Theorien”) (bspw.: empirisch) zu prüfen und ggf. wegzulegen.
Das ist aber falsch.
MFG
Dr. W (der aber auch ein wenig amüsiert ist, wenn Theorien in ihrer Begrifflichkeit als ‘notwendig unscharf’ charakterisiert werden; ja, sie sind unscharf, aber nur den Grenzen der Erkenntnis der diesbezüglichen Subjekte geschuldet)
Theorie als Ordnungsprizip
“logisch geordnete Menge von Fakten”
Dabei ist zu bedenken, dass “Theorie” wohl auch noch weitere Aspekte beinhaltet, die aus der Verwendung resultieren.
a) Es gibt eine Informationsflut von wissenschaftlichen Artikeln. – Inwieweit diese “Fakten” sind, sei dahingestellt. Es besteht Bedarf diese Informationsflut zu ordnen. – Dabei kann “Theorie” im Sinne eines Schlagwortkatalogs helfen.
b) Beim “Verkaufen” von Wissenschaft scheint ein Übergang zu Personen zu erfolgen, die dann als Schlagwort verwendet werden, noch eher als die Theorien an sich. Beispielsweise “Newton”, “Maxwell”, “Einstein”, “Feynman”. Der Ausgangsartikel ist ein Beispiel dafür.
@Thimm
zu a) Artikel sind nie Fakten, Artikel präsentieren bestenfalls Theorien oder Sichten auf Datenlagen (“Fakten”) und diese sind notwendig oder potentiell hilfreich.
zu b) Der “Verkauf” von Theorien ist idT oft personengebunden, weil auch Theorien anthropogen und personen(mengen)-gebunden sind, Theorien sind ein Wechselspiel zwischen Erkennenden (“Feststellenden”) und Datenlage.
HTH
Dr. W
Not even
Dr. Webbaer schrieb (06.02.2013, 10:32):
> Ihr Problem ist halt, dass Sie Nachbauten oder Modelle für notwendig halten Sichten (“Theorien”) (bspw.: empirisch) zu prüfen und ggf. wegzulegen.
> Das ist aber falsch.
Diskutiere diese Feststellung am Beispiel der Grundannahmen/Begriffe
“deutsche Schriftsprache” und
“Fehler (eines gegebenen Textes hinsichtlich der deutschen Schriftsprache)”,
sowie der (empirischen) Hypothese
“alle SciLogs-Kommentare von Dr. Webbaer sind in fehlerfreiem Deutsch geschrieben”.
p.s.
Im Übrigen betrachte ich das Fehlen einer (am besten wahlweisen) Kommentar-Vorschau (trotzdem) als eine Missachtung der Leserschaft.
@Wappler
Man kann mit Theorien bekanntlich arbeiten, wenn sie entweder beschreiben oder erklären oder die Vorausschau erlauben. Wobei eine Eigenschaft zumindest pflichtig erscheint, sonst könnte ja jeder kommen.
Es ist auch richtig, dass die Theoretisierung an Erkenntnissubjekte gebunden ist; nicht richtig bleibt aber, dass diese notwendigerweise Modelle oder Nachbauten, gar realistische (r. = “eine Sachlichkeit annehmend”) Nachbauten alleine oder im Theorienrudel, erzeugen, wenn sie Abfragen oder Sichten oder Theorien auf Datenlagen formulieren.
HTH
Dr. W
Erst erlegen, dann beschauen.
Dr. Webbaer schrieb (06.02.2013, 12:38):
> […] entweder beschreiben oder erklären oder die Vorausschau erlauben.
In dieser Reihenfolge. Und von “expectations” war dabei noch keine Rede.
> […] Abfragen oder Sichten […] auf Datenlagen formulieren.
Wo wären denn “Datenlagen” hergekommen, bevor “man sich” (eingedenk aller “Freunde”) darauf festgelegt hätte, wie eventuelle Rudel von Beobachtungsdaten in mitteilbare Form gebracht/gelegt werden sollten?
@Wappler: Historisierung von Theorien
Erst herrscht einmal die Theorienfreiheit, die Freiheit Sichten auf Datenlagen zu erdenken.
Datenlagen werden dann wahlfrei zur Hand genommen und theoretisiert. Hier mag es eine Voreingenommenheit geben, eine an das Resultat Gebundene, aber ein generelles Sich-Erklären-Müssen warum welche Datenlage wie betrachtet worden ist, gibt es nicht.
Wobei wir auch rückschlüssig zum Artikel des werten Inhaltegebers werden, der nichts anderes verlangt als das Theorienwesen, im auf- oder absteigenden Ast, als anthropogen und in gewissem Sinne auch als modisch anzunehmen.
Ganz wie es im altehrwürdigen Skeptizismus oder im neumodischeren Konstruktiven Empirismus (Bas van Fraassen) metatheoretisiert worden ist.
Auch Sie bleiben eingeladen in Ihren Nachrichten sozialakzeptanter zu werden, denn Theorien sind bekanntlich an Datenlagen wie an Subjekte gebunden. Werben Sie ruhig ein wenig, gehen Sie aus sich heraus. Schließen Sie sich bitte nicht ab.
MFG
Dr. W
Frybear
Dr. Webbaer schrieb (08.02.2013, 13:56):
> Erst herrscht einmal die Theorienfreiheit […]
Erst einmal besteht die Möglichkeit, das, was unterscheidbar ist, einzeln zu benennen (vgl. Synoptiker, 21.01.2013, 16:35) und (auch) einzeln in Betracht zu ziehen.
Herrscht also “Freiheit” (oder: “Beiliebigkeit”?) etwa in der Wahl von “Grundannahmen” bzw. “Grundbegriffe“?
Sicher nicht: denn man sollte dahingehend ja bestimmt nur Solches, Nachvollziehbares, wählen, das einem zugleich auch jeder andere mit dieser Wahl konfrontierte Beteiligte als unverzichtbar zugestehen müsste.
Herrscht etwa “Freiheit/Beliebigkeit” hinsichtlich der weitergehenden Begriffe, Definitionen und “Messkonzepte“, die aus den “Grund“-Lagen zu konstruieren wären?
Wohl auch nicht ganz: zumindest sollten Wertebereiche von Messoperatoren i.A. mehr als ein Element enthalten, d.h. mehr als “Wert x ist immer und von vornherein richtig/wahr/zutreffend”.
Kann man sich dann vielleicht aussuchen, welche Daten man aufsammelt?
Ja und nein, mein Petztier.
Sobald man sich jedenfalls gewissenhaft festgelegt hat, welche “Messkonzepte” anzuwenden sind und welche “Versuche gelten” sollen, und welche nicht, dann kann man sich hinsichtlich der resultierenden “Empirischen Belege” auch keine Freiheiten mehr erlauben.
Sogar Erwartungen/Hypothesen/Modelle (sofern deren Nachvollziehbarkeit und Falsifizierbarkeit gefordert ist) sind nicht ganz frei/beliebig/willkürlich zu formulieren, sondern nur unter Einsatz der vorhandenen Begriffe, Messoperatoren bzw. entsprechenden Wertebereiche.
Aber mit welchem Wert man im nächsten Versuch rechnen möchte, steht natürlich jedem frei.
> […] Sichten auf Datenlagen
… nennt man: “Phänomenologie(n)”.
Damit aber irgendetwas Bestimmtes/Ansehnliches/Nachvollziehbares überhaupt zu liegen kommt und so liegen bleibt … muss der Bock erst mal umgefallen sein.
@Frank Wrapper
Die Theorienfreiheit (vgl. mit dem ‘erst einmal’ weiter oben) ist tatsächlich beschränkt durch das Wesen des Erkenntnissubjekts, durch dessen Möglichkeiten die Erfassung betreffend, und durch seinen sozialen Kontext.
Die Suche nach Erkenntnis ist also evolutionärer Art (Honerkamp hat das mal ähnlich formuliert) und das Sozialgefüge betreffend, auch das evolutionär bestimmt, die Suche nach Erkenntnis also als evolutionär-sozialer Akt. [1]
Erkenntnis also als Zusammenspiel der Suchenden mit den Datenlagen.
Wie genau Sie das verpacken wollen, bleibt Geschmackssache, solange der Skeptizismus, die Logik wie die Folgerichtigkeit gewahrt bleiben.
Wenn Sie sich sozialakzeptanter [2] ausdrücken würden, könnte vermutlich festgestellt werden, dass Sie ganz ähnlich analysieren.
MFG
Dr. W
[1] der hiesige Religionsfroscher witterte hier denn auch gleich Nahrhaftes
[2] Oder versteht jemand beträchtliche Teile der Nachrichten von FW? – Dann würde sich der Schreiber korrigieren wie fitten wollen.
Fitness der Honigwolke
Dr. Webbaer schrieb (09.02.2013, 11:42):
> Erkenntnis also als Zusammenspiel der Suchenden mit den Datenlagen.
Wobei man sich darauf festzulegen hat, wie irgendwelche “Datenlagen” überhaupt gewonnen werden sollen, bevor man irgendwelche “Datenlagen” überhaupt hat.
Und “Erkenntnis” bzw. “Erfahrung” (vgl. unten) auffällig nach “Praxis” klingt.
In Bezug auf den vorliegenden SciLog-Beitrag nochmals in aller Deutlichkeit:
Josef Honerkamp schrieb (15. Januar 2013, 21:36):
> “Ein empirisch-wissenschaftliches System muss an der Erfahrung scheitern können.”
> […] Diese Einsicht gilt heute jedem Naturwissenschaftler als selbstverständlich
Selbstverständlich sollte sein, dass ein Messoperator nicht an damit gewonnenen Messwerten scheitern kann.
Sofern diese beiden Einsichten aber miteinander zu vereinbar sein sollen, kann mit “einem empirisch-wissenschaftliches System” nicht (nur) ein bestimmtes System definierter Messoperatoren gemeint sein, bzw. mit “Erfahrung” nicht (nur) die damit gewonnenen Messwerte.
Benenne doch endlich mal, was sonst gemeint sein soll (wenn du das Wort “Modelle” dafür eben durchaus nicht zur Verfügung hast)!
@Frank Wrappler
Dass Theorien empirisch scheitern können müssen, ist eben eine Urban Legend, so wie auch das empirische Scheitern, alleine schon wegen der Meßakrobatik, bzw. dessen Feststellen ein sozialer dem grundsätzlichen Erkenntnisirrtum oder Erkenntnisvorbehalt unterworfener Prozess bleiben muss.
War das ein allgemein neuer Erkenntnisrahmen? – Ansonsten wurde hier natürlich keine Verteidigungsrede für Esoteriker gehalten. Loge!
Es gilt also sich an entsprechender Methodik festzuhalten, auch Eventualitäten im Hinterkopf zu behalten, oder will hier jemand relativistisch werden? (Sicherlich nicht, den hiesigen Religionsfroscher einmal außen vor lassend.)
MFG
Dr. W
Mythen-B(a)erster
Dr. Webbaer schrieb (13.02.2013, 12:04):
> Dass Theorien empirisch scheitern können müssen, ist eben eine Urban Legend
Hört, hört!
Aber all jenes, das tatsächlich empirisch scheitern kann (oder sogar schon empirisch gescheitert ist), wie z.B. “die vierte Elementarteilchen-Generation”, hat doch auch einen Namen verdient, oder?
> […] oder will hier jemand relativistisch werden?
Sofern das eine Anspielung auf die (spezielle oder allgemeine) Relativitätstheorie sein soll, bleibt festzuhalten, dass auch die Messoperatoren, die im Rahmen dieser Theorie(n) definiert wurden, selbstverständlich nicht an damit gewonnenen Messwerten scheitern können.
Empirisches Scheitern betrifft in diesem Zusammenhang lediglich verschiedentliche
Erwartungen/Hypothesen/Modelle/Legenden der Kosmologie, Astronomie, Geographie, Mineralogie, usw.
@Frank Wappler
Ihr Kommentatorenfreund würde gerne mit Geltungsräumen Theoretisches betreffend arbeiten wollen, um so auch Ihr anscheinendes Lieblingsthema mit der Messtheorie und der Relativität (vs. Relativismus, wenn die Relativität gemeint ist, wird Relativität geschrieben) zu integrieren.
MFG
Dr. W
Loaded for bear — shooting for frog
Dr. Webbaer schrieb (15.02.2013, 13:12):
> […] würde gerne mit Geltungsräumen Theoretisches betreffend arbeiten wollen
Gewisse Bedingungen oder Vorbehalte sind ja durchaus Bestandteil vieler Versuchsanordnungen bzw. Messoperatoren.
Man gäbe sich aber als Physiker (allerdings auch als Nichtphysiker!) einer Täuschung hin zu glauben, mit Einschränkungen von “Geltungsräumen” einen bestimmten Sinn verbinden zu können, wenn (noch) keine Methode definiert wäre, nach welcher im vorliegenden Falle experimentell zu entscheiden wäre, ob der betreffende Versuch “im Geltungsraum enthalten” (d.h. “gültig”) war, oder nicht.
Man kann mit “Geltungsräumen” erst argumentieren, wenn man sie einvernehmlich definieren kann.
Daher die Bedeutung des dafür Notwendigen; also dessen, was solchen Einschränkungen gerade nicht unterliegt und was gerade nicht eventuell “empirisch scheitern” könnte, sondern was von vornherein selbstverständlich und nachvollziehbar ist.