Ist die “Grundlagenforschung” am Ende?

BLOG: RELATIV EINFACH

… aber nicht einfacher
RELATIV EINFACH

Ich weiß, ich weiß: Fragen im Titel haben immer die Antwort “nein”. Hat die Grundlagenforschung noch einmal Glück gehabt. Aber der Reihe nach: Wer auf den sozialen Medien aktiv ist, kennt das Dilemma: antwortet man auf einen besonders abstrusen Beitrag mit Empörungspotenzial und riskiert damit, den Urheber*innen jenes Beitrags noch mehr Aufmerksamkeit zuzuschanzen? In einer Welt, wo jener Beitrag im Vergleich zu vielen durchdachteren und substanzielleren Beiträgen vermutlich sowieso bereits überproportional viel Aufmerksamkeit bekommt? Oder bleibt man still, denkt sich “Don’t feed the troll!” – aber riskiert damit, dass jener abstruse Beitrag dann gegebenenfalls unwidersprochen und ohne Gegengewicht eine ganze Menge von Menschen erreicht. Das war mein Dilemma zu dem Text “Wir stecken fest” von Nele Pollatschek vor ein paar Tagen in der Süddeutschen Zeitung. Und da die Süddeutsche Zeitung ja doch immer noch einiges an Gewicht in der Medienlandschaft hat, beiße ich in den sauren Apfel und versuche hier wenigstens einiges an Problemen des Artikels zu diskutieren.

You keep using that word “Grundlagenforschung”…

Fangen wir mit dem ersten Missverständnis des Artikels an, das ich mir wirklich nur dadurch erklären kann, dass es die Süddeutsche Zeitung nicht für nötig gefunden hat, den Artikeltext vorab jemandem aus der eigenen Wissenschaftsredaktion zu zeigen. Die Kurzzusammenfassung fängt bereits damit an: “Peter Higgs ist tot, eine Wissenschaftlerin wird Youtuberin und die letzte große Entdeckung liegt Jahrzehnte zurück: Die Grundlagenforschung ist kaputt. Hier sind die Gründe.”

Es ist ja in Debatten nicht so, als könnte man Wörter so definieren, wie man gerade lustig ist. Wörter haben Bedeutungen, und “Grundlagenforschung” hat auf alle Fälle eine sehr weit verbreitete Bedeutung. In der Naturwissenschaft spannt das Wortepaar “Grundlagenforschung” vs. “angewandte Forschung” den Bedeutungsrahmen auf: Grundlagenforschung ist derjenige Teilbereich, wo der reine Erkenntnisgewinn im Vordergrund steht – egal ob es für das Erforschte eine direkte praktische Anwendung gibt oder nicht. So wird der Begriff im Bundesforschungsministerium verwendet. So wird er verwendet wenn sich meine Arbeitgeberin, die Max-Planck-Gesellschaft, als eine Organisation beschreibt, die “Grundlagenforschung in den Natur-, Lebens- und Geisteswissenschaften” “betreibt”. So ist das Wort gemeint, wenn im Bundestag Anfragen zur Grundlagenforschung gestellt werden oder wenn der Bundespräsident eine Rede dazu hält.

Ein hier-in-meinem-Artikel-meint-Grundlagenforschung-aber-etwas-ganz-anderes ist damit schon einmal eine kommunikationshandwerklich, wie sage ich’s diplomatisch: nicht so wirklich gute Idee. Denn andererseits beklagen wir ja allgemein, dass die öffentliche Diskussion zu wenig Tiefgang habe, dass zu oft nur sehr verkürzt und oberflächlich auf die Inhalte von Beiträgen anstatt auf ihre Teaser-Texte und Überschriften eingegangen würde und so weiter. Dem noch Vorschub zu leisten, indem man Worte in anders als üblich verwendet, ist vor dem Hintergrund unverantwortlich. Aber nun gut. Pollatschek schreibt jedenfalls, als wäre es das natürlichste auf der Welt, von “Grundlagenforschung – also dem Teil der Physik, der sich mit den tiefsten Gesetzmäßigkeiten des Universums beschäftigt”. Gerade so als würde das Wort nicht üblicherweise etwas anderes bedeuten. Man soll bei Menschen, die man kritisiert, ja immer die wohwollendste Interpretation dessen anwenden, was sie schreiben. Ich weiß an dieser Stelle allerdings nicht, welche der beiden Möglichkeiten “weiß es schlicht nicht besser” oder “weiß es besser, aber kalkuliert die potenziellen Missverständnisse zur Aufmerksamkeits-Generierung bewusst ein” wohlwollender ist, und lasse diesen Aspekt daher hier offen.

Die “tiefsten Gesetzmäßigkeiten des Universums”

Physiker*innen können manchmal ganz schön arrogant sein. Der Comicautor Randall Munroe hat das vor einigen Jahren sehr schön auf den Punkt gebracht: Sein Cartoon “Purity” zeigt Wissenschaftler*innen, nach “Reinheit” angeordnet: Erst ein*e Soziolog*in. Rechts daneben der/die Psycholog*in mit der Aussage: “Soziologie ist nur angewandte Psychologie!” Rechts davon geht die Reihe dann weiter mit “Psychologie ist nur angewandte Biologie”, “Biologie ist nur angewandte Chemie” und dann eben einem/einer Physiker*in mit der selbstbewussten Aussage: dass eben jene Chemie ihrerseits “nur angewandte Physik” sei, und diese Spitzenposition der Physik sei doch ganz nett (“It’s nice to be on top!”). Wobei sich in jenem Cartoon dann deutlich weiter rechts noch die Mathematik zu Wort meldet mit “Oh, hallo, ich habe euch so weit da drüben erst gar nicht gesehen!”

In weniger comic-artiger Form sind solche Verortungen durchaus Teil des Selbstverständnisses einer Reihe jener Physiker*innen, die an den fundamentalsten Naturgesetzen arbeiten – heutzutage insbesondere in der theoretischen Teilchenphysik. Und das Wissen darum, warum die Wissenschaftspraxis eine ganz andere ist, und selbst grundlegende Entdeckungen z.B. in der Biologie auf ganz andere Weise zustandekommen als darüber, dass ein kluger Kopf eine bislang nicht verstandene Querverbindung zur Physik findet, gehört durchaus zu einem Grundverständnis der Naturwissenschaften dazu. Im Alltag heißt die Grundlagen-Rolle der Physik entsprechend auch nicht, dass vorbeigehende Chemiker*innen demütig die Köpfe senken, wenn ein*e theoretische*r Physiker*in vorbeigeht. Warum auch. In der Praxis hat jede der anderen Wissenschaften ihre eigenen Grundlagen.

Quanten-Grundlagen

Auch der Großteil der Physik beschäftigt sich nicht mit dem, was in der Definition des Artikels mit den “Grundlagen” gemeint ist. Konkret richtet sich die Kritik des SZ-Artikels an diejenigen Teilbereiche der theoretischen Teilchenphysik, die Ergänzungen oder Ersatz für das sogenannte Standardmodell der Elementarteilchenphysik versprechen, also für die Naturgesetze, aus denen sich unseren heutigen Vorstellungen nach das Verhalten der Elementarteilchen unter drei der vier bekannten fundamentalen Wechselwirkungen ergibt. Das klingt in der Tat sehr grundlegend, und zumindest zu der Zeit wo ich noch populärwissenschaftliche Bücher zur Teilchenphysik verschlungen habe, kam denn auch kein deutschsprachiger solcher Text ohne Goethe und den Verweis auf das aus, “was die Welt im Innersten zusammenhält”.

Zusammengesetzte Systeme machen die Welt um uns herum aus, bestehend aus Molekülen, aus Atomen, jene wiederum aus Kernteilchen und Elektronen, die Kernteilchen (Protonen und Neutronen) wiederum aus Quarks. Die Feld-Wald-und-Wiesen-Quarks (up, down) plus ihre exotischen Verwandten plus die Elektronen und deren exotische Verwandte wiederum liefern die Materie für das Standardmodell der Elementarteilchen. Das klingt in der Tat, als würde es dort um die tiefliegendsten Grundlagen gehen. Aber in einer wichtigen Hinsicht ist das falsch. Bereits ab der Größenskala der Moleküle werden Quanteneffekte wichtig, und damit auch die Begrifflichkeiten der Quantentheorie. Und in dieser Hinsicht machen es sich die üblichen Beschreibungen der mathematischen Grundlagen der Elementarteilchenphysik dann vergleichsweise einfach. Mit durchaus gutem Grund: Das, was an Quantenteilchen in den Detektoren der Beschleuniger landet, verhält sich nämlich in der Tat recht einfach. Die Eigenschaften, die an der Quantenwelt am ungewohntesten und entsprechend schwer intuitiv zu verstehen sind, treten in dieser Situation nicht auf.

Wenn es um die konzeptuellen fundamentalen Grundlagen geht, darum, was Quanteneigenschaften eigentlich sind, wie wir von den Quanteneigenschaften zu der Alltagswelt um uns herum gelangen und was es auf physikalischer Ebene mit den Messprozessen auf sich hat, die wir durchführen, spielt die Musik woanders – nämlich bei jenen Physiker*innen, die sich nicht dem Standardmodell sondern einfachen Quantensystemen z.B. aus Atomen oder in Festkörpern widmen, an denen sich Quanteneigenschaften besonders gut erforschen lassen. Dieser Teil der Erforschung der grundlegendsten Gesetze der Physik bleibt in dem Artikel nicht nur ausgeklammert (obwohl er der missverständlichen Grundlagenforschung-Definition sogar entspräche). Sondern der “Mainstream der Quantenphysik” bekommt sogar noch direkt eins auf Dach, allerdings in einer Weise, die sich so liest, als ob Pollatschek jene Bezeichnung als synonym zu “theoretischer Elementarteilchenphysik” verwendet (was eben nicht korrekt ist).

#IchBinFundamentalphysikhanna

Dann am Ende noch ein ganz anderer Schwenk, auf Basis des YouTube-Videos von Sabine Hossenfelder “Why I failed”. Laut Pollatschek das “traurigste Video im Internet” (oha!), und ja, auch das ist leider bei einigen Medien noch gängige Praxis: Das Video ist von dem Artikel aus noch nicht einmal verlinkt. Wer das als Link ausgestaltete Wort “YouTube” klickt, kommt stattdessen auf die YouTube-Themenseite der Süddeutschen Zeitung, also die Sammelseite für alles, was die SZ so an Beiträgen über YouTube schreibt. Anyway.

In dem Falle sind wir dann nämlich auf einmal doch nicht mehr in der Nische der theoretischen Elementarteilchenphysik sondern, unter Berufung auf Hossenfelder, ganz allgemein bei den Fehlern des Wissenschaftssystems, der Universitäten, der Drittmittel und überhaupt. Da liegt in der Tat einiges im Argen, und insbesondere die #IchBinHanna-Bewegung in den letzten Jahren (die nur wiederum in Pollatscheks Artikel nirgends vorkommt) hat an einer Reihe von Stellen herausgearbeitet, wie die prekären Arbeitsverhältnisse der Wissenschaft schaden. Insofern kann man an der Stelle natürlich nicht sagen: Ach alles Unsinn, in der Wissenschaft läuft alles blendend! Aber so schwarz, wie es in Pollatscheks Artikel gemalt wird, sind die Verhältnisse dann eben auch nicht.

Das fängt wieder bei den kleineren Patzern an, wohlwollendste Deutung: Stiller-Post-Effekt im Rahmen von Pollatscheks Hossenfelder-Nacherzählung. Denn nein, beim Peer Review beispielsweise sind gerade nicht nur “veröffentlichungsstark[e] Wissenschaftler” diejenigen, die beurteilen, was veröffentlicht wird. Schreibe ich als herkömmlichen Maßstäben nach ganz sicher nicht “veröffentlichungsstarker” Wissenschaftler, der immer einmal wieder als Peer Reviewer tätig ist – genau wie z.B. viele Postdocs, die ja gerade nicht zur etablierten Klasse in der Wissenschaft zählen. Auch am Peer Review kann man zu Recht Kritik üben. Aber eine Exklusiv-Veranstaltung, bei der die “veröffentlichungsstarke[n]” Wissenschaftler*innen darauf achten, dass nur ja niemand Neues zu Wort kommt, ist er ganz sicher nicht.

Die Innovations-Lücke in der Mitte

Das Problem mit der Stillen Post geht hin bis zu Unschärfen, die dann größere Logik-Risse nach sich ziehen. Nehmen wir die Hossenfelder-Paraphrase “Wissenschaftler bewilligen, was ihnen gefällt – weil es mainstream und ein wenig, aber nicht zu außergewöhnlich ist – und was ihre eigene Forschung eher stützt, als sie zu gefährden.” Das “ein wenig, aber nicht zu” ist an dieser Stelle wichtig, und zwar beide Teile davon. Projekte, die einfach nur reproduzieren, was sowieso schon bekannt war, werden schließlich auch nicht gefördert. Gefördert wird, was in die Zwischenzone fällt: Einerseits neu, andererseits noch nahe genug am Mainstream, dass die Peer Reviewer einen Bezugspunkt haben, von dem aus sie überhaupt beurteilen können, wie realistisch die Erfolgschancen für das neue Projekt sind. Wenn es anders wäre und lauter komplett neue Ideen gefördert würden, mit einem großen Anteil an Ideen, die sich dann im Verlauf des Projekts als nicht umsetzbar herausstellen, gäbe es ziemlich sicher auch Bücher und Zeitungsartikel, die mit dem offenkundig kaputten Wissenschaftssystem hart ins Gericht gingen.

(Meine eigene Meinung dazu ist: Menschen sind ganz generell schlecht darin, zukünftige Projektideen einzuschätzen. Wir sollten am besten denjenigen, die durch ihre bereits veröffentlichten Arbeiten gezeigt haben, dass sie umsetzbare neue Ideen haben, durch entsprechende Dauerstellen die Möglichkeit geben, frei weiter zu forschen. Bei der Max-Planck-Gesellschaft ist dieses Prinzip auf sehr hoher Ebene, nämlich bei den Direktor*innen, realisiert. Indem wir mehr von dem Geld, das derzeit in Form von Drittmitteln fließt, in feste Stellen stecken, ließe sich das aber noch gehörig ausbauen.)

Aber zurück zu Pollatschek, denn die schreibt so weiter, als hätte sie gar nicht registriert, dass es ihrer eigenen Aussage nach zwei Randbedingungen gibt. Ja, was an Projekten vorgeschlagen wird, hat deutlich schlechtere Chancen, wenn es außer Sichtweite des Mainstreams ist. Aber es hat noch viel schlechtere Chancen, wenn es sich gar nicht vom Mainstream abhebt. Projekte, die nichts Neues bringen, werden eben auch nicht gefördert.

Dieser zweite Aspekt, bei der ersten Paraphrase noch kurz erwähnt, geht in der weiteren Argumentation so gründlich unter, als sei er nie dagewesen. “Das Problem ist jetzt aber, dass bahnbrechende Forschung selten an den Stellen zu finden ist, mit denen bereits alle einverstanden sind.” schreibt Pollatschek. Richtig, aber Projekte die überhaupt nicht über das bereits Bekannte herausgehen, haben ja wie gesagt auch schlechte Förderchancen. Wenn “Gefälligkeit und bienenhafter Fleiß” ausreichen würden, so die Formulierung in Pollatscheks Karikatur (hoffe ich zumindest) des Hossenfelder-Takes, wäre es nämlich auch einfach. Die Schwierigkeit besteht darin, dass es beide Randbedingungen gibt. Neu genug, aber nicht zu neu ist eine Herausforderung. “Bloß nicht zu neu” wäre es nicht.

Fazit

Nein, es ist nicht alles in bester Ordnung in der Grundlagenforschung – der einen wie der anderen Definition nach – und es ist nicht alles in Ordnung im Wissenschaftssystem. Darüber sollten wir reden. Darüber sollte es öffentliche Diskussionen geben. Solche Diskussionen laufen am konstruktivsten, wenn mehrere Voraussetzungen gegeben sind: Zum einen, dass diejenigen, die Plattform-Reichweite zu vergeben haben, darauf achten, dass Menschen zu Wort kommen, die sich mit dem Thema zumindest in Grundzügen auskennen. Das sollte wichtiger sein, als ob jemand einen besonders viel Kontroverse versprechenden “edgy take” hat oder nicht (soziale Medien und Clickbait lassen grüßen). Und wir sollten nicht über Karikaturen diskutieren, weder in der einen Richtung (“Läuft doch alles Bestens in der Wissenschaft!”) noch in der anderen (“Fundamental verkorkstes System, die Grundlagenforschung ist tot”).

\(\mbox{ }\)

Avatar-Foto

Markus Pössel hatte bereits während des Physikstudiums an der Universität Hamburg gemerkt: Die Herausforderung, physikalische Themen so aufzuarbeiten und darzustellen, dass sie auch für Nichtphysiker verständlich werden, war für ihn mindestens ebenso interessant wie die eigentliche Forschungsarbeit. Nach seiner Promotion am Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) in Potsdam blieb er dem Institut als "Outreach scientist" erhalten, war während des Einsteinjahres 2005 an verschiedenen Ausstellungsprojekten beteiligt und schuf das Webportal Einstein Online. Ende 2007 wechselte er für ein Jahr zum World Science Festival in New York. Seit Anfang 2009 ist er wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Astronomie in Heidelberg, wo er das Haus der Astronomie leitet, ein Zentrum für astronomische Öffentlichkeits- und Bildungsarbeit, seit 2010 zudem Leiter der Öffentlichkeitsarbeit am Max-Planck-Institut für Astronomie und seit 2019 Direktor des am Haus der Astronomie ansässigen Office of Astronomy for Education der Internationalen Astronomischen Union. Jenseits seines "Day jobs" ist Pössel als Wissenschaftsautor sowie wissenschaftsjournalistisch unterwegs: hier auf den SciLogs, als Autor/Koautor mehrerer Bücher und vereinzelter Zeitungsartikel (zuletzt FAZ, Tagesspiegel) sowie mit Beiträgen für die Zeitschrift Sterne und Weltraum.

45 Kommentare

  1. Auch bei der Grundlagenforschung “im Großen” ist zumindest Richtung Öffentlichkeit vieles nicht in Ordnung, und zwar was unsere Erde und den habitablen Bereich betrifft – ich meine die Klimaforschung.
    Einerseits wird vermittelt, dass alles schon geklärt sei, man wisse wo es lange gehe wenn weiterhin soundsoviel Treibhausgase von der Menschheit emittiert werden und seit Obamas Ausspruch ist tatsächlich für Viele “science settled”.
    Gleichzeitig wird statt mit allen 4 bzw. jetzt 5 Emissionsszenarien nur mit dem Extremszenario RCP8.5 business-as-usual gemacht und nicht mal berücksichtigt, dass der IPCC dieses Szenario als unwahrscheinlich bezeichnet – und ich meine nicht die Medien allein, ich meine die Klimawissenschaftler, die genau so Richtung Öffentlichkeit reden.
    Andererseits wird verschwiegen bzw. höchst selten irgendwo mal erwähnt, dass man nach wie vor nicht in der Lage ist die Aerosole in die Modellrechnungen und Messungen einzubeziehen (James Hansen beklagt das immer wieder in seinem Blog) und dass das Gleiche für die Wolken gilt – beides Faktoren, die ganz entscheidend für die zukünftigen Temperaturen im habitablen Bereich der Erde sind. Ebenso wird verschwiegen, dass die natürlichen Variationen wie der gerade zu Ende gehende El Nino (Teil der ENSO) und die anderen wie die wohl gerade in die Abkühlphase gehende AMO nach wie ungeklärt sind: wie sie entstehen, was sie auslöst und wie man sie berechnen kann.
    Um nicht weitere ungeklärte und bisher stark fehlerbehaftete Themen aus der Klimaforschung hier zu nennen nur noch(mal) das: bei der Klimaforschung ist noch sehr sehr viel Grundlagenforschung notwendig, aber es wird auch und gerade aus deren Mitte laufend der Eindruck erweckt, man wisse schon alles und könne deshalb ziemlich genau sagen, wie die Zukunft unter bestimmten Umständen aussehen werde. Das passt nicht zusammen, das erzeugt ein total schiefes Bild dieser “Zunft”. Die vielen Unsicherheiten sind das große Problem, das unter den Tisch gekehrt wird.

    • Das halte ich für eine bis zur Absurdität verzerrte Darstellung der Lage. Das IPCC macht in dieser Richtung so viel und so transparent öffentlich wie es für keinen anderen Bereich der Grundlagenforschung der Fall ist. In den entsprechenden Berichten sind Unsicherheiten der Einschätzung mit einem vergleichsweise einheitlichen System so transparent gemacht wie, wieder, in keinem anderen Bereich. Last but not least ist die Frage, welches Emissionsszenario wie wahrscheinlich ist, ja gerade keine naturwissenschaftliche Frage, sondern hängt davon ab, ob und wie schnell die menschlichen Gesellschaften es schaffen, ihre entsprechenden Wirtschaftszweige klimaneutral zu gestalten. Wichtig ist vernünftiger Umgang mit Unsicherheiten auch und gerade in Bezug auf das Risiko. Wenn ich entscheide, ob ich z.B. über eine beschädigte Brücke fahre oder nicht, wird mein Standard ja auch nicht sein “OK, wenn mir die Statiker nur mit 90% Wahrscheinlichkeit, aber nicht mit 99% Wahrscheinlichkeit vorhersagen, dass die Brücke unter mir zusammenbricht, dann ist ja offenbar alles harmlos und ich fahre drüber.”

      • Aber selbstverständlich ist jedes Emissionsszenario mit seiner Eintrittswahrscheinlichkeit ein rein naturwissenschaftliches Thema. Es wird mit Modellen errechnet wie sich das Klima mit welchen Mengen CO2 entwickeln könnte. Das ist rein naturwissenschaftlich. Die Eintrittswahrscheinlichkeit der Szenarien beruht allein auf Mengen des CO2 über der Zeitachse und sonst gar nichts.
        Wenn man nun beobachten kann, dass die Mengen des CO2 nicht so steigen, dass das Extremszenario je erreicht werden könnte, dann ist das immer noch Naturwissenschaft. Der Trend der Daten über die Zeit ist natürlich bedingt durch das entsprechende Verhalten der Menschheit.
        Doch nun zurück zu den Modellen: das sind rein naturwissenschaftliche Berechnungen, die aber die genannten Unzulänglichkeiten haben. Wenn die Unuzlänglichkeiten so groß sind, dass die Veränderungen in der Atmosphäre gerade in die andere Richtung gehen wie erwartet (weniger statt mehr Wolken, weniger statt mehr Wasserdampf) und starke natürliche Einwirkungen gar nicht berechnet werden können (AMO, ENSO, PDO, …teilweise erst wenige Jahrzehnte bekannt), dann sind auch die Modellberechnungen mit Fragezeichen zu versehen, es fehlt an Grundlagen: die Grundlagenforschung (Ihr Thema hier) ist gefordert, wird aber offensichtlich als erledigt betrachtet.
        Die Grundlagenforschung wird “einfach” übergangen und “science is settled” gesagt.

        • Was meinen Sie dann mit “Eintrittswahrscheinlichkeit”? Wenn z.B. in Presseberichten die Rede davon ist, wie wahrscheinlich das eine oder andere der RCP-Szenarien ist, geht es ja im Gegenteil darum, abzuschätzen, wie es tatsächlich weitergehen wird – und das hängt ja nun einmal davon ab, wie es mit dem CO2-Ausstoß weitergeht.

          Zu den Unzulänglichkeiten: Dass die Grundlagenforschung als erledigt betrachtet wird, ist schlicht nicht wahr. Wie erwähnt: Die IPCC-Berichte sind da im Gegenteil sehr vorsichtig dabei, Unsicherheiten transparent auszudrücken. Bei AMO, ENSO und Co. können Sie das direkt nachlesen: Wo den Modellierungen “medium confidence” zugeordnet wird, wo “high confidence”, wo bestimmte Aspekte noch nicht gut verstanden sind (z.B. bestimmte Aspekte von NAM) wird das auch so geschrieben.

          Zu den bestehenden Unsicherheiten: Da muss man dann wirklich quantitativ werden, bzw. wie in der Physik Effekte unterschiedlicher Ordnung unterscheiden. Der grundlegende Einfluss von CO2 ist gut modellierbar – die einfachen Modelle kann ich selbst mit Studierenden direkt berechnen. Und auch die älteren Modelle geben die Größenordnung des Temperaturanstiegs gut wieder. Dass es bei Effekten zweiter Ordnung, eben Feedback wie bei den Wolken, schwieriger ist, sollte niemanden überraschen. Aber ein “ach, irgendwie wird uns das Feedback schon retten” ist eben kein verantwortungsvoller Umgang mit dem, *was* wir wissen. Um zu zeigen, wie groß die Risiken sind, wenn der Klimawandel so weitergetrieben wird, reichen die aktuellen Modelle mehr als aus. Wenn in einem bestimmten Skigebiet akute Lawinengefahr angesagt ist, besteht das vernünftige Verhalten ja auch gerade nicht darin, zu sagen “ach, die Physik solcher Vorgänge ist noch nicht ganz verstanden” und auf dieser Grundlage dann einfach doch dort Ski zu fahren.

  2. Hier Anregungen für die Grundlagenforschung:

    Damit Uhren für einen bestimmten Mess-Ort die Uhrzeit korrekt anzeigen – muss man sie speziell für diesen Ort genau kalibrieren/eichen.
    D.h. Wenn man eine Uhr, welche für einen Mess-Ort X kalibriert/geeicht wurde – an einem anderen Ort Y verwendet ohne dort neu zu kalibrieren/eichen: dann hat man einen Messfehler gemacht – weil das Messgerät falsch angewendet wurde.

    Wer aber aus Messergebnissen, die auf falsch angewendeten Messgeräten beruhen, die Schlussfolgerung zieht ´Zeit ist relativ´ – hat sich nicht wirklich ernsthaft mit dem Thema ´Messung / Messgerät / Messfehler´ befasst.

    Die Physik hat bisher noch keine Definition dafür vorgelegt – was ´Zeit´ ist! D.h. alle Aussagen über die ´Zeit´ sind – mangels Definition – nicht wissenschaftlich belegbar: Weil man gar nicht weiß, was ´Zeit´ ist.
    Das gilt auch für die Idee von der ´4D-RaumZEIT´.

    Bischof Augustinus unterschied in seinem Buch ´Bekenntnisse´ (Buch 11, Kap. 13-29) schon vor 1600 Jahren drei Typen: die a) göttliche, b) physikalische und c) menschliche Zeit bzw. Zeitwahrnehmung.

    Diese beiden Beispiele zeigen, dass die Grundagenforschung noch nicht am Ende ist: es gibt noch viel zu tun.

  3. Ich stimme allem vorbehaltlos zu, was Herr Pössel (einmal mehr) dankenswerterweise bereitstellt. Gleichzeitig möchte ich darauf hinweisen, dass das “Thema” “Grenzen der Aufdeckbarkeit (natur)wissenschaftlicher Grundlagen” (egal welche Disziplin) ein durchaus altes Thema ist – und nicht gänzlich von der Hand zu weisen. Als Beispiel für eine öffentliche Thematisierung weise ich auf das 1996 erschienene Buch “The End of Science. Facing the Limits of Knowledge in the Twilight of the Scientific Age.” von dem Wissenschaftsjournalisten John Horgan hin. Darin berichtet er über etliche Interviews mit namhaften Wissenschaftlern (aus diversen Bereichen), aus denen heraus deutlich wird, dass mindestens etliche der Interviewten sehr skeptisch sind, was mögliche Erkenntnisfortschritte hinsichtlich grundlegender Fragen betrifft. Das kommt in einigen Bereichen nicht von ungefähr, sondern basiert auf finanziellen, technologischen und/oder sonstigen tatsächlichen Grenzen der Mach-/Durchführbarkeit von Experimenten.

    (Ich glaube, das Buch ist auch irgendwann in deutscher Übersetzung erschienen.)

  4. KRichard
    11.05.2024, 05:05 Uhr

    Damit Uhren für einen bestimmten Mess-Ort die Uhrzeit korrekt anzeigen – muss man sie speziell für diesen Ort genau kalibrieren/eichen.
    D.h. Wenn man eine Uhr, welche für einen Mess-Ort X kalibriert/geeicht wurde – an einem anderen Ort Y verwendet ohne dort neu zu kalibrieren/eichen: dann hat man einen Messfehler gemacht – weil das Messgerät falsch angewendet wurde.

    Nehmen wir mal 2 supergenaue Atomuhren (exakter Bauart) bei Ort X und Y. Y liegt nur eine geringe Höhe h über X, so dass man hier eine einfache Näherungsformel verwenden kann.
    (Ich hoffe mal, dass die Latex-Einbindung funtioniert).

    $$ t_y=t_x\cdot\left(1+\frac{g\cdot h}{c^2}\right) $$

    Keine der beiden Uhren wurden für einen bestimmten Ort geeicht. Welche von beiden zeigt nun die “korrekte Zeit” an? Gibt es überhaupt eine “korrekte Zeit”? Und wenn ja, wie wollen sie die definieren?

    • LaTeX funktioniert nur, wenn im Haupttext bereits LaTeX vorkam; ich habe das mal in Ordnung gebracht. Aus Sicht der Allgemeinen Relativitätstheorie gibt es tatsächlich zunächst nur Eigenzeiten, also das, was einzelne Uhren anzeigen, deren Funktionsprinzip auf lokalen physikalischen Gesetzen beruht. An der Stelle kann man dann noch unterscheiden zwischen Uhren, die alle messbaren Effekte (z.B. durch Beschleunigung) soweit wie möglich ausgleichen, und Uhren, die das nicht tun. Aber insbesondere die idealisierten Uhren, die so gut wie möglich alle messbaren Störungen ausgleichen, sind dann alle gleichberechtigt. Und es gibt keine allgemeingültige Art und Weise, aus solchen Eigenzeiten eine globale Zeitkoordinate zu konstruieren, die grundsätzlich allen anderen Arten und Weisen überlegen wäre und die man aus jenem Grunde “korrekte Zeit” nennen könnte.

  5. @Apostata
    Uhren wurden nur dazu gebaut, um KALENDERDATEN in Form von Uhrzeit anzuzeigen. Messgröße dazu ist die ´Sekunde´.
    ´Zeit´ kann man mit Uhren/Messgeräten weder anzeigen noch messen – aus dem einfachen Grund: weil es bisher noch gar keine wissenschaftliche Definition für ´Zeit´ gibt. Man kann nichts messen, von dem man gar nicht weiß, was es ist!

    Wenn an einer Uhr eine Sekunde ´vergeht´ – dann haben sich damit nur Kalenderdaten geändert. Wenn man aber wissen will, wie/wieviel ´Zeit´ dabei vergeht, muss man wissenschaftlich erklären was ´vergeht´, wenn eine Sekunde ´vergeht´.

    Diesen Unterschied zwischen ´Zeit´ und ´Uhrzeit´ muss man unbedingt beachten, wenn man sich mit diesem Thema beschäftigt.

    Zu dem von Ihnen vorgeschlagenen Experiment mit supergenauen Atomuhren:
    A) Da es für einen bestimmten Ort nur eine einzige korrekte Uhrzeit (= Kalenderdaten) geben kann – zeigen nur diejenigen Atomuhren die Uhrzeit richtig an, welche zuvor für diesen Zweck richtig kalibriert/geeicht wurden.
    (Was die korrekte Uhrzeit eines Ortes ist, wird mit internationalen Vereinbarungen zu Kalenderdaten festgelegt.)

    B) Wenn man zwei supergenaue Atomuhren in sehr geringem Abstand übereinander laufen lässt – dann muss jede einzelne Atomuhr separat kalibriert/geeicht werden – sonst ist die Uhrzeit-Messung falsch.

    Wenn man zwei supergenaue Atomuhren für einen Ort X korrekt kalibriert/eicht und eine davon anhebt – dann wird diese etwas schneller gehen als die am Ort X verbliebene. Senkt man eine dieser Uhren aber ab – dann geht sie etwas langsamer als die am Ort X verbliebene.

    Ich möchte aber ausdrücklich nochmals darauf hinweisen, dass Uhren/Messgeräte die für einen bestimmten Ort X geeicht/kalibriert sind – nicht mehr korrekt messen, wenn sie angehoben oder abgesenkt werden. Diese Messungen sind falsch – wenn ein Messgerät nicht korrekt benutzt wird.

    Dass sich mit supergenauen Atomuhren bereits unterschiedliche Messwerte im Millimeterabstand belegen lassen – wurde schon mit Experimenten belegt:
    http://www.scinexx.de/news/technik/einsteins-zeitdehnung-im-millimeter-massstab
    DOI: 10.1038/s41586-021-04349-7
    DOI: 10.1038/s41586-021-04344-y

    Der Begriff ´Zeitdehnung´ ist als fragwürdig zu betrachten – da es bisher keine wissenschaftliche Definition für ´Zeit´ gibt und weil man sich mit der korrekten Verwendung von Messgeräten auseinandersetzen müsste.

    Um damit zum Blogthema zurückzukehren: Für die Grundlagenforschung wäre es eine wichtige Aufgabe/Herausforderung, endlich eine konkrete wissenschaftliche Definition für ´Zeit´ vorzulegen.
    Ich gehe davon aus, dass es dafür den Nobel-Preis geben kann – weil man damit eines der aktuell schwierigsten Probleme lösen kann: Die Frage zur Vereinbarkeit von Relativitätstheorie und Quantenphysik.

    • Ach Hergott. Wo soll man da anfangen? Uhren haben immer auch außerhalb des Kalenders Zeiträume gemessen – Sanduhren, die Uhren die bei physikalischen Experimenten eingesetzt werden etc. pp. Neben dem philosophischen stand da schon immer die ganz praktische Anwendung. Und bei Einstein dann mit Gleichzeitigkeitsdefinition eine erste Vorschrift, wie man lokale Zeit an andere Orte “verpflanzen” kann. Plus in den Modellen der Physik (angefangen mit den Planetenbahnen) die Zeit als Parameter. Über das, was Sie hier betonen, nämlich das Problem mit der Ortsabhängigkeit, sind wir allerdings mit der Allgemeinen Relativitätstheorie längs hinaus. Da sind die Eigenzeiten das physikalische. Alles weitere ist mehr oder weniger Konvention, mit großer Freiheit, entsprechende Koordinaten zu wählen (inklusive der Zeitkoordinate). Insofern: Was Sie hier als nobelpreiswürdige Herausforderung beschreiben, ist in der Physik weitgehend wiederholt. Teils seit mehr als hundert Jahren.

  6. @Apostata
    Um eine Definition für ´Zeit´ zu finden, muss man sich mit ZWECK und FUNKTIONSWEISE von Uhren beschäftigen:

    ZWECK: Uhren sind Messgeräte, die dazu gebaut wurden, um KALENDERDATEN in Form von UHRZEIT anzuzeigen. Messgröße ist die ´Sekunde´.

    FUNKTIONSWEISE: Uhren sind Maschinen, die nach den Gesetzen der Thermodynamik funkionieren.
    Zieht man das Federwerk auf oder legt man eine Batterie ein – dann fügt man damit potentielle Energie zu. Durch Umwandlung zu kinetischer Energie wird das Uhrwerk (mit angehängtem getaktetem Zählmechanismus) bewegt – wodurch man mit Hilfe von Zeigern eine UHRZEIT ablesen kann.
    Maschinen bewegen sich nur, wenn darin ein einseitig gerichteter Fluss von Energie erfolgt. (Weshalb der sogenannte ´Zeitpfeil´ nur eine Richtung haben kann.)

    DEFINITION für ´ZEIT´: Betrachtet man den einseitig gerichteten Fluss von Energie in einem Uhrwerk als das ´Vergehen von Zeit´. dann kommt man zu der Definition ´Zeit ist Energie´.
    (ABER – ausgerechnet ein Energiefluss oder Unterschiede im Energiegehalt werden mit Uhren gar nicht gemessen.)

    PROBLEME: Mit der Definition ´Zeit ist Energie´ kann die ´Zeit´ keine Dimension mehr sein! – und eine Idee wie z.B. die ´4D-RaumZEIT´ wird damit fragwürdig!
    Auch die in der Physik verwendeten Ideen/Formeln müssen neu diskutiert werden: denn wenn man damit die Möglichkeit von ´Zeitreisen´ berechnen kann, dann bedeutet dies, dass man damit Phantasievorstellungen ´berechnen´ kann.

  7. Latex: Ich probier’s nochmal
    $$ t_y=t_x\cdot\left(1+\frac{g\cdot h}{c^2}\right) $$

    Zum Thema fällt mir noch die Innovationskurve von Karl Bednarik ein.
    http://s880616556.online.de/LOGISTEI.PNG

    Sollte diese (blaue Kurve) sich im Jahr 2300 dem Ende zu neigen, dann müsste man das Ende der Grundlagenforschung noch früher einzeichnen, denn…

    …erst kommt die Grundlagenforschung
    und erst dann die darauffolgenden Innovationen.

    Beispiel ART (allgemeine Relativitätstheorie), welche ja schon über 100 Jahre
    alt ist. Irgendwas Praktisches konnte man damit zunächst noch nicht anfangen.

    Was aber, wenn man mit noch genaueren Atomuhren Höhenunterschiede im
    Zentimeterbereich messen kann. Vielleicht lassen sich dann Vulkanausbrüche
    leichter vorher sagen?

    ART liefert exakte Vorhersagen. Ob die Zeit jetzt im Sinne von KRichard definiert ist, oder nicht, spielt dabei nicht die geringste Rolle.

    Augustinus lieferte gar nichts (und erst recht keine Vorhersagen).

    • LaTeX hing wie gesagt davon ab, dass ich im Haupttext LaTeX einfüge und die Seite damit in irgendeiner Form für LaTeX “freischalte”. Sollte jetzt klappen. Abgrenzung mit Doppel-Dollarzeichen, dann die Formel, dann wieder Doppel-Dollarzeichen. Oder alternativ (für Inline-LaTeX): eckige Klammer auf, dann “latex”, dann eckige Klammer zu, dann die Formel, und dann mit eckige Klammer auf plus “/latex” plus eckige Klammer zu abschließen.

      • @Pössel: “… besteht das vernünftige Verhalten ja auch gerade nicht darin, zu sagen “ach, die Physik solcher Vorgänge ist noch nicht ganz verstanden” und auf dieser Grundlage dann einfach doch dort Ski zu fahren.”

        Das Problem ist doch, dass die ÜBERWIEGENDE Mehrheit der “treuhänderischen Verantwortungsträger” und Verantwortungsdelegierer (durch Kreuzchen auf dem Blankoscheck), also die Gesellschaft der wettbewerbsbedingten Symptomatik, ist von/zu TABUISIERENDER Suppenkaspermentalität gebildet und will / kann somit keine Veränderung zu wirklich-wahrhaftiger VERNUNFT akzeptieren – Wir werden also die Konfusion in herkömmlich-gewohnter Schuld- und Sündenbocksuche nun weiterspielen bis zum …!?

        • Finde ich zu pauschal negativ. Die Politiker*innen haben ja auch kein Interesse daran, die Karre dauerhaft in den Sand zu fahren. Da ist das Problem eher der Lobby-Einfluss derer, denen es darum geht, noch möglichst lange (kurzfristige) Profite mitzunehmen. Und zumindest einen Wirtschaftsminister, der das Problem einigermaßen ernstnimmt haben wir. Das ist nicht nichts.

  8. @Pössel: “Und zumindest einen Wirtschaftsminister, der das Problem einigermaßen ernstnimmt haben wir. Das ist nicht nichts.”

    Offensichtlich nimmt er auch nur das ernst was er aufgrund seiner systemrational-begrenzten “Expertise” ziemlich schwindelig bearbeiten kann, weil er zur Zeit (SCHEINBAR) keine Wahl hat. Das ist sozusagen auch nur das irrationale Nichts einer “Grundlagenforschung” für das konfuse Nichts unseres “Zusammenlebens” – Die brauchen besonders extreme Lebenshilfe in Form global-entspannender Kommunikation, denn die Pokern derzeit offensichtlich mit zunehmend unkontrollierbaren Einsätzen am Abgrund der Schuld- und Sündenbocksuche.

    • Sehe ich anders. Ganz unschwammig: Habeck hat ja nun eine Reihe von Gesetzen auf den Weg gebracht, die auf die Energiewende hin zielen. Zuwachs bei Solar ist gut. Windkraft muss noch ausgebaut werden. Bei Speichern tut sich etwas, es ist aber noch viel zu tun. Klar sollte man das nicht unter “läuft alles wie es soll” verbuchen – da ist noch mehr nötig. Aber von alle-laufen-schwindelig-herum-und-suchen-Sündenböcke ist es eben auch weit entfernt.

      • @Pössel: “Habeck hat ja nun eine Reihe von Gesetzen auf den Weg gebracht …”

        Der Weg der mit “guten Vorsätzen für die Vernunft” gepflastert ist?

        Naja, wahrscheinlich sehe ich das alles in dem EINEN viel zu großen Rahmen, wo Gesetze das sind was im Sinne von weniger ist mehr … – Und wo die Gesetze des “freiheitlichen” Wettbewerbs nicht wirken können, da wird Mensch ärgere dich nicht mit Knüppel aus dem Sack gespielt!?

          • Der Denkfehler für wirklich-wahrhaftige Erfahrungen / demokratische Bewusstseinsentwicklung ist, daß wir den Wettbewerb brauchen.
            Für Nationalismus und “gesundes” Konkurrenzdenken ja, aber das hat mit Vernunft, offensichtlich besonders für Umwelt und Friedfertigkeit nicht.

          • Bei den allermeisten Dingen, die Sie hier geschrieben haben, war meine Reaktion eher “hm, etwas vage, evt. etwas wirklichkeitsfern, aber was soll man sagen”. Bei dieser Aussage hier liegen wir aber offenbar wirklich weit auseinander. Ich halte Wettbewerb innerhalb eines sauber definierten Rahmens aus zwei Gründen für unverzichtbar: Erstens weil Menschen erfahrungsgemäß beim Vorausplanen nicht besonders gut sind. Sich vorab zwischen verschiedenen Lösungsansätzen zu entscheiden ist deswegen in vielen Fällen der falsche Weg; wenn man in jener Situation die verschiedenen Lösungsansätze ausprobieren lassen kann (und das ist dann ja: ein Wettbewerb zwischen jenen Ansätzen) und dann direkt sehen kann, welcher am besten ist, fährt man deutlich besser. Zweitens saß ich zu oft in Kommitees, in denen sich Menschen mit jeweils divergierenden eigenen Interessen (ein häufiger Fall: “es gibt insgesamt einen Geldbetrag X, davon soll meine Abteilung/Institution auch eine Scheibe abkriegen!”) einigen sollten, und was dabei herauskam, war immer durch die Kompromiss-Eigenschaft geschwächt. In solch einem typischen Setting kommt fast zwangsläufig etwas heraus, bei dem alle Beteiligten einigermaßen gleichmäßig etwas von den Ressourcen abkriegen. Das ist aber selten bis nie von der Sache her die beste Lösung. Auch an der Stelle ist Wettbewerb dem zusammensetzen-und-Kompromiss-aushandeln häufig stark überlegen.

          • Zu: „Zusammengesetzte Systeme machen die Welt um uns herum aus, bestehend aus … Innovations-Lücke in der Mitte – Wissenschaftler bewilligen, was ihnen gefällt – weil es mainstream und ein wenig, aber nicht zu außergewöhnlich ist – und was ihre eigene Forschung eher stützt, als sie zu gefährden.” Das “ein wenig, aber nicht zu – Menschen sind ganz generell schlecht darin, zukünftige Projektideen einzuschätzen.“
            und „´Zeit´ kann man mit Uhren/Messgeräten weder anzeigen noch messen – aus dem einfachen Grund: weil es bisher noch gar keine wissenschaftliche Definition für ´Zeit´ gibt. Man kann nichts messen, von dem man gar nicht weiß, was es ist! … das Problem mit der Ortsabhängigkeit, sind wir allerdings mit der Allgemeinen Relativitätstheorie längs hinaus“ ???
            Mit versuchten physikalischnen Zusammenhängen, wie: „Es bestehen unterschiedliche physikalische Interessen bei Volks- und Betriebswirtschaft. Man kann es in etwa mit dem Elektroenergienetzbetreiber und dem (Balkon-) Kraftwerksbetreiber vergleichen.“, ist man bei der Anerkennung von Zusammenhängen in Mathematik oder auch der Physik raus aus dem Geschäft, da allgemein kein wirkliches Interesse besteht soweit in die Grundlagen einzutauchen.

  9. Bsp. zu: „Ich halte Wettbewerb innerhalb eines sauber definierten Rahmens aus zwei Gründen für unverzichtbar … bei dem alle Beteiligten einigermaßen gleichmäßig etwas von den Ressourcen abkriegen.“ – Das Moment und die Arbeit schwanken sehr stark aber die Leistung ist abrechenbar. -> Eindrucksvoll kann Arbeit und Leistung (Scheinleistung/Wirkleistung) in der UK oder auch beim Aufbau und ruinieren von Gebäuden durch beteiligte Initiatoren/Generatoren um Gaza usw. gesehen werden. Bei der Leistung fehlt an der Arbeit die Dimension der Zeit, also die Lebensleistung und auch der Hintergrund und Bildbereich.

    • Sorry, auch diese Antwort von Ihnen – wie schon die letzte – ist für mich nicht verständlich, und mir ist nicht klar, worauf Sie hinauswollen. Gerade so als würden wir unterschiedliche Sprachen sprechen und auf dieser Basis leicht aneinander vorbei reden. Oder als würden Sie hier in den SciLogs-Kommentaren ein noch nicht ganz ausgereiftes LLM testen.

      • Zu: „Gerade so als würden wir unterschiedliche Sprachen sprechen und auf dieser Basis leicht aneinander vorbei reden. Oder als würden Sie hier in den SciLogs-Kommentaren ein noch nicht ganz ausgereiftes LLM testen.“
        Schon erstaunlich was sie mir zutrauen, aber ich bin seit vier Jahren weiterarbeitender Rentner und sorge mich um den Nachwuchs, bspw. im Umgang mit der KI, wie sich damals auch die Lehrer bei den vergleichenden Überschlägen unter Verwendung von Taschenrechnern ihrer Schüler in deren Beurteilung zu den Ergebnissen gewundert haben.
        Aktuell ist das Graviton nicht so richtig in das Standartmodell zu integrieren, wobei auch das Higgs-Boson eine Sonderstellung einnimmt. Haben wir hier ein Problem was sich mit der Einführung von weiteren Dimensionen mathematisch lösen lässt?

        • Es geht gar nicht darum, was ich Ihnen zutraue, sondern ich gebe Ihnen eine (kritische, und hoffentlich hilfreiche) Rückmeldung: Irgendwie funktioniert die Kommunikation zwischen Ihnen und mir nicht. Ich kann Ihren vorigen Antworten nicht so recht den Sinn der jeweiligen Haupt-Botschaft entlocken.

          • Herr Pössel,
            Sie stehen nicht allein mit ihrer Meinung, was das Verstehen betrifft.
            Dazu kommen noch die Themen von Herrn N. bezüglich der Zeit oder der Gravitation.
            Diese beiden Themen zur Grundlagenforschung zu zählen wird uns nicht viel weiterbringen.
            Ihr Link zu “wir stecken fest” versteckt dann auch noch sich hinter der Bezahlschranke.

            Also was ist das Hindernis bei Grundlagenforschung ? Es ist das Geld .
            Die Forschungsinstitute wie z. B. das Frauenhoferinstitut die nehmen Forschungsaufträge an, haben dann aber keine Mitarbeiter mehr frei für Grundlagenforschung, die nicht bezahlt wird.

          • Danke für die Bestätigung! Fraunhofer ist allerdings ein schlechtes Beispiel, weil es dort gerade *nicht* um Grundlagenforschung, sondern um angewandte Forschung geht. Grundlagenforschung liegt in D bei Max Planck, Leibniz und Helmholtz – und da muss man ehrlich sagen: die sind insgesamt, im internationalen Vergleich, nicht schlecht ausgestattet. Wir haben zumindest in der aktuellen Politik glücklicherweise eine Wertschätzung der Grundlagenforschung, und auch der Leistungen, die in D auf jenem Feld erbracht werden. Sorgenkind ist dort (mit einiger Berechtigung) die Frage, wie geeignete Ergebnisse von Grundlagenforschung dann auch zur Anwendung kommen.

          • Zu meiner Haupt-Botschaft am Thema „Ist die “Grundlagenforschung” am Ende?“:
            Na ja Bezahlschranke, die Grundlagenforschung ist nach meinem Empfinden vorrangig volkswirtschaftlich von Interesse, aber aktuell fast nur betriebswirtschaftlich gefördert. Sie ist in D zu kleinkariert und auch gefährlich organisiert, da Gefahren neuerdings einfach auf die Gemeinschaft umgelagert werden, sie ist dogmatisch und nicht wirklich offen für neue auch kuriose Ideen außerhalb der Gewinnmaximierung des Auftraggebers.

          • OK. das ist für mich zumindest verständlich als Text. In der Sache halte ich es aber für komplett falsch. Grundlagenforschung ist in D ja im Gegensatz sehr breit öffentlich gefördert, ohne direkte Vorgaben eines Auftraggebers: Max-Planck-Gesellschaft sowie Teile von Leibniz-Gemeinschaft und Helmholtz-Gemeinschaft. Dafür, den Dogmatik-Vorwurf ernstzunehmen sehe ich generell keine Anhaltspunkte. Solche schwerwiegenden Anschuldigungen einfach mal so aus dem Bauch heraus loszulassen ist jedenfalls keine angemessene Reaktion.

          • “wie geeignete Ergebnisse von Grundlagenforschung dann auch zur Anwendung kommen.”
            Ich denke, Ergebnisse der Grundlagenforschung müssen stärker publiziert werden.
            Ich habe gerade die Denkschrift der Deutschen Physikalischen Gesellschaft von 2000 in der Hand. Die wurde damals den Abiturienten kostenfrei zugesandt.
            bis dahin wusste ich gar nicht, dass dieser Verein existiert.

            Soweit ich mich erinnern kann, muss man Mitglied werden um immer aktuell informiert zu werden. Und es ist vorbildlich, dass die Mitgliedsbeiträge vom Alter und vom Einkommen abhängen.

            Aber ……dazu muss man erst einmal wissen, dass es diesen Verein gibt.

          • Publizieren war und ist nicht das Problem. Die Ergebnisse der Grundlagenforschung stehen in den Fachzeitschriften. Von Institutionen, die darauf aufbauend Anwendungen entwickeln wollen, sollte man erwarten können, dass sie entsprechende Literatursuchen durchführen können (die ja zudem im heutigen digitalen Zeitalter sehr viel einfacher sind als je zuvor).

      • @Pössel: “Ich halte Wettbewerb innerhalb eines sauber definierten Rahmens aus zwei Gründen für unverzichtbar”

        Erstens: Der WIRLICHKEITSNAHE Rahmen, “bei dem alle Beteiligten einigermaßen gleichmäßig etwas von den Ressourcen abkriegen”, ist/soll stets 1:5 (Wohlstand : Tittytainment) sein (national und KOLONIALISTISCH global-isiert), was mir zu zynisch, zu ignorant-arrogant, zu erpresserisch-ausbeuterisch, zu bewusstseinsbetäubend-korrumpierbar, zu menschenverachtend, usw. ist und deshalb auf zweitens schon gar keinen Bock mehr habe.👋🥴 Ja, ich bin wirkichkeitsfern, weil es mir um wirkliche Wahrhaftigkeit in zweifelsfrei-eindeutiger Menschlichkeit geht.

        • Ich glaube, Sie lügen sich in die Tasche, wenn Sie meinen, dass ineffizienter Umgang mit Ressourcen, bei dem typischerweise mittelmäßige Kompromisse herauskommen, irgendetwas mit “wirklich[er] Wahrhaftigkeit in zweifelsfrei-eindeutiger Menschlichkeit” zu tun hat.

          • @Pössel: “… ineffizienter Umgang mit Ressourcen”

            Naja, eure Grundlagenforschung ist jedenfalls noch sehr weit weg von wirklich-wahrhaftiger Vernunft und Verantwortungsbewusstsein und Realitäts-Sinn.

          • Das hat an der Stelle ja mit der Grundlagenforschung nichts zu tun. Was haben Sie denn für Erfahrungen z.B. mit Kommissionen gemacht, die gemeinsam etwas entscheiden sollen? Tatsächlich gute? Die sich je nach Sachlage auf etwas geeinigt haben, ohne dass “unsere Abteilung bekommt aber auch ein Stück vom Kuchen” dabei eine Rolle gespielt hätte?

  10. Bernd N.
    “die Grundlagenforschung ist nach meinem Empfinden vorrangig volkswirtschaftlich von Interesse, aber aktuell fast nur betriebswirtschaftlich gefördert”

    Das wäre eine frage an einen Fachmann. Ich stelle mir vor, ein Ergebnis der Grundlagenforschung wird veröffentlicht. Ein Konzern aus den USA erweitert das Ergebnis mit einem Herstellungsverfahren und lässt beides patentieren.
    Und jetzt ?

    • Das ist ja gerade das Problem. Die Strukturen hierzulande zur Grundlagenforschung selbst sind sehr gut, und was da an Ergebnissen herauskommt wird in der üblichen frei verfügbaren Weise publiziert. Die Zwischenschritte, die aus Grundlagenforschung (profitable) Anwendungen machen sind das Problem. Daher ja die Diskussion um zusätzliche Strukturen wie die Agentur für Sprunginnovationen SPRIND und die Deutsche Agentur für Transfer und Innovation DATI.

  11. “Die Zwischenschritte, die aus Grundlagenforschung (profitable) Anwendungen machen sind das Problem”
    Aha, wenn die Ursache für die mangelnde Umsetzung in profitable Techniken bekannt ist, sollte man die Fördergelder erhöhen.
    1 Milliarde Euro wären doch für ein exportabhängiges Land wie Deutschland angemessen.
    Wo bleibt da die Lobby ?

    • Über die 10 Jahre Testbetrieb gerechnet hat SPRIND sogar ein Budget von 1 Milliarden Euro. Das Problem ist: Wo investiert man? Und nach welchen Kriterien? Geld für Entwicklungen mitnehmen wollen sicher zahlreiche Firmen, aber wie stellt man sicher dass man da wirkliche Innovationen fördert, und nicht auf Umwegen den Firmen staatliches Taschengeld zahlt? Und: Selbst eine Milliarde sind ja noch recht wenig gegenüber z.B. den $175 an Assets der zehn größten Venture-Capital-Firmen in den USA. (Quelle: Wikipedia)

      • Markus Pössel
        “aber wie stellt man sicher dass man da wirkliche Innovationen fördert,”

        also , es würde reichen, wenn man bei den Subventionen etwas großzügiger und längerfristiger denken würde. Beispiel Solarzellen.
        Deutschland war auf diesem Gebiet einmal führend. Die Chinesen haben uns mit ihren Dumpingpreisen unterboten und wir haben die Produktion eingestellt.

        Beispiel Batterie und Akkutechnologie. Auch hier waren wir führend, bis die Chinesen uns unterboten haben. Folge die Produktion wurde bei uns eingestellt.

        Man sollte sich hier die USA als Vorbild wählen. Die sind nicht nur eine Ideenschmiede, die kaufen dann still und heimlich einfach die Firmen im Ausland auf, die die Ideen verwerten. Bei der Schweiß – und Löttechnik , also einer Schlüsselindustrie, ist ihnen das in Europa schon gelungen.

        Also,,, Grundlagenforschung und Verwertung gehören zusammen. Sonst werden wir zum Industriedünger anderer.

        • Das ist soweit ich sehen kann übervereinfacht. Bei den Solarzellen beispielsweise sind das Hauptproblem, mit dem die Produktion steht und fällt, die Preise des verkaufsreifen Produkts. Das ist noch einmal etwas anderes als Förderung für neue Innovationen. Ganz generell ist die Förderung von schrittweisen Verbesserungen bei einem im Prinzip bekannten Produkt wie Solarzellen oder Akkus das geringere Problem – die größten potenziellen Effekte, aber eben auch die größte Unsicherheit, gibt es bei Neuerungen aus der Grundlagenforschung, bei denen noch gar nicht klar ist, ob und wie sie zu neuen Produkten werden können. Zum Vorbild USA: Ausländische Firmen werden ja aber gerade nicht mit Staatsgeldern aufgekauft. Da sind wir also nicht mehr bei den staatlichen Investitionen, sondern bei der Frage, wie klug (oder eben nicht) deutsche Firmen in dieser Hinsicht agieren. Die Autoindustrie war in den letzten Jahren ja offenbar im Hinblick auf Batterie-Technologien nicht besonders clever. (Aber zugegeben: Auch da hatte der Staat einen Einfluss. In dem Falle mit problematischen Signalen, es sei kein Problem, wenn sich die Autoindustrie noch weiter auf der Verbrennertechnologie ausruht.)

  12. @Pössel: “… weil Menschen erfahrungsgemäß beim Vorausplanen nicht besonders gut sind.”

    Das ist im wettbewerbsbedingten Rahmen der “Ökonomie” von “Wer soll das bezahlen?” und unternehmerischen Abwägungen zu “Arbeit macht frei” ein Satz der systemrationalen Überproduktion von konfusem Kommunikationsmüll – Eine “Ökonomie” des “Zusammenlebens” wie ein wachstumwahnsinniges Krebsgeschwür.

    • OK, an der Stelle einen Holocaust-Vergleich zu bringen ist infam und jenseits dessen, was ich toleriere – nicht zuletzt weil es anders herum eine Verharmlosung des Holocaust ist. Weitere Kommentare von Ihnen schalte ich jetzt erstmal nicht frei. Sheesh.

Schreibe einen Kommentar