Erfolgsmessung in der Wissenschaft

In der Wirtschaft ist es völlig klar: Man will seine Produkte auf den Markt und dann unter die Leute bringen. Je mehr verkaufte Produkte, je mehr Gewinn, desto erfolgreicher die Firma. Doch was sind die Kriterien für “erfolgreiche Forschende”? Es kann ja nunmal nicht jede/r einen Nobelpreis haben (schon allein deshalb, weil es für viele Fächer gar keinen gibt) und es gibt zahlreiche Gelegenheiten, wo man Leute bewerten muss: z.B. bei Auswahlverfahren zum Job oder bei der Beantragung von Geldmitteln. Welche Kriterien setzt man da also an?
“Publish or Perish”
“Publiziere oder verschwinde” war einst der Slogan vor ca. zwei Generationen. Manche älteren Professoren insistieren daher, dass man so viel wie möglich publizieren sollte oder sind stolz darauf, dass sie in ihrem Forscherleben “150 Publikationen” verfassten.
Forschende sind jedoch keine Journalisten: Journalisten publizieren quasi täglich, sie bereiten Nachrichten auf. In der Forschung aber publiziert man nur, wenn man ein neues Ergebnis hat. Die Struktur von Fachartikeln ist eigentlich recht simpel und fächerübergreifend, gar fakultätenübergreifend ziemlich klar:
- Forschungsfrage im Titel
- Einleitung (was ist zu der Frage schon bekannt, also was haben andere auf dem Gebiet gefunden, was ist folglich noch offen und mit welchem Detail davon beschäftigen wir uns hier)
- Eigene Methode beschreiben
- Verwendete Daten beschreiben
- Ergebnis präsentieren.
- weiterhin offene Fragen & ggf. nächste Schritte nennen
Publikationen
Essentiell ist hier, dass man ein Ergebnis (mit Neuigkeitswert) präsentiert, d.h. etwas neues gefunden hat und das passiert ja nunmal nicht täglich in der Wissenschaft. Darum gelten Publikationen seit altersher als Maß für aktive und erfolgreiche Forschung.
Nun gibt es gerade in den Geisteswissenschaften auch Fächer (Philosophie!), bei denen der Neuigkeitswert von Publikationen nicht so recht klar ist. Manchmal schreiben Philosophen (oder Fachdidaktiker) auch etwas nur in moderner Sprache neu auf. Fachdidaktiker sind hierfür meine Lieblingsbeispiele, denn das Wissen, wie man Menschen etwas beibringen kann, ist seit Jahrtausenden bekannt: schon in Ciceros “Rhetorik” (De Oratore, Silva Rhethoricae) steht geschrieben, wie gutes Reden (für Lehrkräfte) geht und der tschechische Bischoff Comenius hat es bereits im 16. Jahrhundert aufgeschrieben, wie man Kinder durch sinnliches Erfahrbarmachen & emotionales Ansprechen zum effektiveren Lernen bringen kann (die viel zitierte “Goldene Regel der Didaktik”). Moderne Fachdidaktiker überschlagen sich mit Büchern über genau dasselbe, nur dass sie heute andere Medien (z.B. Internet-Technologien, KIs) nutzen. Der vermittelte Stoff (Grundlagen der Physik oder Mathematik) ist aber derselbe, weil wir im selben Universum leben. Der Neuigkeitswert ist also nicht in der Sache an sich, sondern nur in der verwendeten Technologie oder der Alltagsanalogie, die für uns heute anders sind. In vielen Philosophien ist es nicht viel anders: da sinnieren Akademiker darüber, wie Sprachen funktionieren oder menschliche Gesellschaften – obwohl man das doch datenbasiert mit Methoden der Data Science aus den Daten der (Computer)Linguistik oder Geschichtsforschung & Soziologie ableiten könnte. Der Neuigkeitswert ist mir in solchen Fällen ehrlich gesagt, auch nicht immer klar (das heißt nicht, dass es keinen gibt – nur, dass ich es nicht verstehe).
Es liegt auf der Hand, dass die Maßstäbe, die man zur Messung von Erfolg in der Wissenschaft ansetzen muss, jeweils verschieden sind. Gute Fachdidaktiker entwickeln etwas, eine Idee, einen Gedanken, eine neue Technologie oder ein Lehrkonzept, während gute Fachphysiker die Grundlagen für das Verständnis der Natur legen: die Ergebnisse von Astronomen sind z.B. das erste Bild eines Schwarzen Lochs oder von Ingenieuren der funktionierende Sputnik – und die guten Fachdidaktiker können es dann so erklären, dass es alle verstehen (eben doch wie Journalisten).
Auch darum hat man über die Zeit verschiedene Maßstäbe entwickelt.
Publikationen – aber nur peer-reviewt
Gerade in der Astronomie schreiben wir sehr viele Publikationen auch für die breite Öffentlichkeit. Sollte ein Planetariumsleiter aber monatlich den aktuellen Sternhimmel beschreiben, zählt das nicht als Fachpublikation (das wäre eher journalistisch). Ebenso könnte natürlich ein Vertreter einer nicht anerkannten Lehre, z.B. der Flacherde oder der Hohlraumtheorie, eine völlig abstruse Einzelmeinung irgendwo in einem Vereinsblättchen veröffentlichen. Dann wäre diese Lehrmeinung einmal aufgeschrieben, aber sie würde nicht als Fachpublikationen zählen.
Man hat sich daher seit einigen Jahrzehnten auf das Verfahren von Peer-Reviewing geeinigt. Die Idee ist, dass zwar alle Fachmeinungen zum Thema veröffentlicht werden dürfen (ohne Zensur durch Professoren oder Chef-Editoren), aber dass Fachkollegen einmal drüber schauen sollten, um die Lesbarkeit/ Verstehbarkeit für andere Fachleute zu gewährleisten. Dabei erhält man dann Hinweise wie “schau mal, in der Formel hast das Quadrat vergessen, das im Diagramm klar genutzt wurde” oder “in Abb. 5 bitte die Bildunterschrift etwas ausführlicher” oder “in Absatz 3 auf Seite 7 verstehe ich das Argument nicht: meinen Sie x oder y”. Wenn das eine fachfremde Person nicht versteht, ist einem das egal (in Fachartikel verzichtet man auf die Grundlagendarstellung), aber Fachleute sollten es bitteschön verstehen!
Es kommt allerdings leider vor, dass manche Peers beim Peerreviewing gar nicht merken, dass sie keine Ahnung haben (Duning-Krueger-Effekt: Selbstüberschätzung und Eitelkeit) und dann Kommentare völlig unter Niveau abliefern. Die Editoren sind da oft machtlos: sie sind auf die Selbsteinschätzung der Leute angewiesen. Der Anstand gebietet es, dass man Bescheid sagt, wenn man für eine Publikation nicht qualifiziert ist (auch wenn man sie gern liest): ich mache das regelmäßig in der Archäologie, wenn ich mit Archäologen zu archäoastronomischen Themen zusammenarbeite: ich kann dann die Astronomie begutachten, nicht aber den archäologischen Anteil. Leider machen das nicht alle, sondern gehen mit dem Rotstift durch Paper, zu denen ihnen offenbar die fachlichen Grundlagen fehlen, als wenn es Schulaufsätze wären.
Einstein hat sich daher auf seine alten Tage einmal bei einem Editor beschwert, was dem denn einfiele, seine (Einsteins) Publikation vor der Publikationen jemand anderem zum Lesen zu geben. Einstein war in vielen Gedanken seinen Zeitgenossen voraus und seine frühen Publikationen wären vermutlich nicht erschienen, wenn es damals schon peer-reviewing gegeben hätte. Das Verfahren vom Gegenlesen (“reviewing”) durch “peers” (Leute auf gleichem Stand) setzt eben voraus, dass man ein Durchschnittswissenschaftler ist und keine bahnbrechenden Neuerungen wie Einstein macht: er hatte in seiner Zeit keine Peers, d.h. kaum jemanden, der seine Physik verstand. Rechtschreibfehler oder (gerade in Einsteins Fall) Stil / Satzbau im Englischen kann auch ein “Language Editor” (heute: KI) korrigieren: es braucht kein Lektorat, nur Korrektorat – und schon gar nicht “peers”.
Das Verfahren hat also seine Schattenseiten, aber im Allgemeinen ist es doch recht angesehen, da (Gauß-Verteilung!) die meisten von uns eben nicht “Einstein” sind und “peers” Hinweise auch zu den Inhalten geben und mithin die Publikation verbessern. Zudem weiß man dann, dass der Inhalt nicht völlig abstrus ist (von der Community verstanden wird – das heißt nicht, dass alle dieser Meinung sind, nur, dass die Gedanken nachvollziehbar sind).
Peer-Reviewte Publikationen zählen also mehr als solche, die es nicht sind.
Publikationen mit Zitation
Nun gibt es aber auch Publikationen, die man zwar peer-reviewt publiziert und folglich nicht falsch sind, die aber auch nicht von Bedeutung sind. WAs genau “Bedeutung” ist, darüber könnten wir auch vortrefflich streiten – für den einen mag es die Erwähnung in der Tagesschau sein, für den anderen der Nobelpreis… beides nicht unbedingt für alle erreichbar, also auch nichts, wonach es sich zu streben lohnt (sondern nur, was freut, wenn es da ist). Wenn man also die Impakt-Wirkung einer Publikation für die Forschung/ fürs Fach abschätzen möchte, scheint es sinnvoll zu sein, sich anzuschauen, wie oft sie zitiert wurde.
Mein erster Direktor, Prof. Dieter B. Herrmann, hatte bereits in den 1970er Jahren darauf hingewiesen, dass diese Methode zwar den Impakt abbilden, aber nicht die Güte einer Publikation messen kann: Schlechte Publikationen, die viel Widerspruch ernten, werden ja auch häufig zitiert.
Dennoch wird das Verfahren von manchen angewandt: Da wurde der “h-Index” entwickelt, der die Anzahl der Publikationen von Forschenden mit der Anzahl der Zitationen der Forschenden wichtet, und der “g-Index”, der davon eine andere Geschmacksrichtung ist. Google Scholar hat dann eine weitere Geschmacksrichtung, den i-Index, entwickelt. Hat eine Person 10 Publikationen, von der aber nur eine viel zitiert wird, werden diese Zitate also auf alle zehn Publikationen gemittelt. Es lohnt sich also für einen höheren Index weniger Publikationen, aber mit größerer Impaktwirkung (Zitation) zu produzieren – eigentlich keine ganz dumme Idee.
Das Problem in der Praxis ist aber, dass viele Zitationen gar nicht erfasst werden. Wenn z.B. nach einer Konferenz alle präsentierten Ergebnisse in einem Band zusammengefasst werden und das Buch im privaten Verlag der Professorin erscheint, dann wird alles darin zitierte gar nicht sichtbar. In den Geisteswissenschaften wird das Problem dadurch verschärft, dass viele Publikationen tatsächlich nur in gedruckten (nicht online verfügbaren) Büchern stehen und die darin zitierten Werke folglich die gebührenden Zitationen gar nicht zugeschrieben bekommen. Gerade solche Bücher sind aber mitunter einschlägige (lehrbuchartige) Überblickswerke, die folglich hohen Impakt haben. So ganz ausgereift, ist also das Index-System noch nicht.
Gerade in “kleinen Fächern” haben wir zudem das Problem, dass es naturgemäß wenige Leute gibt, die auf dem Gebiet arbeiten (sonst wären’s ja nicht “kleine Fächer”). Das macht sowohl das peer-reviewing als auch das Zitieren schwierig: die ca. zehn Leute weltweit, die über babylonische mathematische Astronomie arbeiten, könnten sich gegenseitig reviewen und dann auch zitieren – sie werden aber nicht denselben Impakt haben wie jemand, der zu Künstlicher Intelligenz oder Machine Learning in der Informatik arbeitet.
In den Geisteswissenschaften bzw. gerade “kleinen Fächern” wird daher häufig auf die Anzahl geschaut, wie oft ein Fachartikel auf Plattformen wie ResearchGate oder academia.edu gelesen wird. Auch hier gibt es ein technisches Problem mit der Erfassung: Wie oft der Artikel angeklickt wird, ist ja nicht direkt ein Maß für die Anzahl der Lesungen. Vielleicht lese ich einen Artikel heute im Zug (hab ihn angeklickt) und in drei Wochen will ich etwas nachschauen und klicke ihn nochmals an: ob die Maschine dann aber weiß, dass ich derselbe User bin (mit dynamischer IP-Adresse), ist mir z.B. nicht klar.
In China werden auch andere Indizes gezählt (SCIE/ SCI, SSCI, AHCI), man kann sich da beliebig viele überlegen: ich will hier nur die Grundsatz-Idee beschreiben.
Apropos Plattformen: Erst-/ Letzt-Autor
Wie Firmen (angeblich) die unsozialen Plattformen Facebook, X, LinkedIn, XING etc. auswerten, um von Bewerbern zu erfahren, mit wem sie Umgang haben, zählt bei manchen Forschenden auch
- mit wem die andere Person publiziert hat
- wie häufig man Erstautor/in, Co-Autor/in, oder Letzt-Autor/in ist
- oder in welchem Verlag man publiziert.
Die Zählung von Erstautorschaften ist wichtig, weil normalerweise nach Wichtigkeit (Anteil am Gesamtwerk) sortiert wird. Der Doktorand (stets w/d/m), der die ganze Arbeit gemacht hat, steht vorn, der Professor (w/d/m), der nichts inhaltlich beigetragen hat, aber das Geld eingeworben hat, steht hinten. Die Führungskraft hinten, der Experte vorn – und alle anderen in der Reihenfolge nach Wichtigkeit/ Menge ihrer Beiträge. Nehmen wir eine Publikation in beobachtender Astronomie: dann würden alle Beobachtungsassistenten (w/d/m), die ein paar Daten beobachtet haben oder bei der textlichen Ausarbeitung behilflich waren, zwischen dem Hauptautor und der Führungskraft (Gruppenleiter) stehen. Erstautorschaft zeigt also, dass man arbeiten und Ergebnisse liefern kann – und Letztautorschaft zeigt, dass man das Team führt und gute Ideen liefert.
Es wird von manchen Journalen explizit gefordert:
“For articles that are based primarily on the student’s dissertation or thesis, it is recommended that the student is usually listed as principal author.”
(on the Culture of Authorship von Oberlander und Spencer,
oder der einschlägige Guide für Grad.Students von Schrag und Kurdek 2006)
Dieses Prinzip wird allerdings von altbackenen Professoren unterwandert, wenn sie der Meinung sind, dass Professoren immer vorn stehen (ich weiß nicht, wann das der Fall war) oder dass stets alphabetisch sortiert wird. Das macht man eigentlich genau dann, wenn alle den gleichen Anteil haben, z.B. bei den 200 Autoren einer Publikation vom Teilchenbeschleuniger, wo nur eine/r vorn steht (oder eine kleine Gruppe von 3 bis 5 Leuten) und der Rest an Leuten mit kleinem Input alphabetisch sortiert wird. In den Geisteswissenschaften in Deutschland (und zwar genau da!) sind es aber mitunter die Professoren, die sich an erste Stelle setzen – auch wenn sie “nur” die Idee gegeben haben. Das ist nicht despektierlich gemeint: Außer Frage sind die Ideen & die Beratung für junge Forschende sehr wichtig und daher ist der gebührende Platz ganz hinten in der Autorenliste (gerade im Fall von Doktoreltern) eben der würdigste (Schäfer-Hirte).
In den Naturwissenschaften gilt es als Errungenschaft, wenn man Alleinautor/in ist (weil es sowas fast nie mehr gibt), während das für Geisteswissenschaften der Normalfall ist. In den Geisteswissenschaften gilt Co-Autorschaft als etwas besonderes und ist eine Auszeichnung für besondere Team-Fähigkeit.
Die Frage, mit wem genau
- welchen Co-Autoren
- welchen Verlagen (Editoren)
man publiziert, ist eine wichtige: In kleinen Fächern (wie Keilschrift-Literatur oder Wissenschaftsgeschichte) muss man unbedingt in einem der einschlägigen Verlage publiziert haben. Eigenverlag der Doktoreltern oder der Bibliothek der Alma Mater zählt nicht (das machen Leute, die vom Dr-Grad nur den Titel brauchen, um damit eine bessere Bezahlung/ höhere Job-Position in der Wirtschaft zu bekommen: wer in Academia bleiben will, sollte sich einen Verlag suchen). “Einschlägig” kann für manche Springer sein, aber für manche ist es eben Eisenbraun (ok, gibt’s nicht mehr) oder Brill. Wenn man sich in interdisziplinären Kontexten bewegt, kann eine gewisse Auswahl an “einschlägigen Verlagen” nicht schaden.
(Ehrlich gesagt, ich bin stolz auf meine zwei Bücher mit dem Franckh-Kosmos Verlag, denn das ist ein enorm renommierter Verlag mit Weltklasseniveau in Edutainment – auch wenn das manche Fachleute nicht auf dem Schirm haben.)
Publikationen – nur mit DOI
Um die Anzahl der online sichtbaren Publikationen zu erhöhen gab es seit 2002 mehrere “open access” Initiativen und internationale Vereinbarungen. Das ist nicht nur für die oben genannten Gamification-Elemente (h-Index, gesammelte Zitationen etc.) wichtig, sondern tatsächlich in der täglichen Forschung: Literaturzugang, um auf dem aktuellen Stand zu bleiben.
Weil auch die Institute inzwischen danach bewertet werden, wie viele Publikationen aus ihnen hervorgingen, gibt es online-Identifikationsnummern für sie – und natürlich auch für Forschende – und für die Publikation selbst. Der Online-Identifyer für Publikationen heißt “DOI”. An manchen Forschungseinrichtungen zählen Publikationen nur dann, wenn sie eine DOI haben.
Zudem sind viele Professoren mit Lehre und Verwaltung so dermaßen überfordert, dass sie gar nicht mehr selbst publizieren. Daher werden inzwischen mancherorts Prämien für Professoren gezahlt, wenn sie viel publizieren – aber der Maßstab, ob eine Publikation zählt, ist, ob sie eine DOI hat. Für DOI-Publikationen bekommen also Professoren mehr Geld. Der besagte Beitrag im Privatverlag einer Professorin, die nach der Konferenz alle Beiträge sammelt und als Buch druckt, zählt also nicht als geld-wirksame Fachpublikation für die Autoren. Wenn die Professorin dann auch noch für den Buchhandel ihren eigenen Namen als “Autor” statt “Hrsg.” angibt (statt die Namen der ~20 Autoren, deren Konferenzbeiträge sie herausgibt), sind die Autoren quasi im Internet “unsichtbar” und erhalten nicht einmal die verdienten “Credits” für ihre Arbeit. – Nun mag dieser Aspekt für gut bezahlte Professoren vllt weniger wichtig sein, als für junge WissenschaftlerInnen, die sich erst etablieren müssen – aber unfair ist es dennoch.
Software- und Datenpublikationen?
Die wichtigsten Beiträge zur Wissenschaft in unserer Zeit sind häufig Technologie-Entwicklungen. Wenn jemand in einer astrophysikalischen Doktorarbeit ein Progrämmchen schreibt, das dann von vielen anderen Forschenden zum Thema benutzt werden kann, hat es eine hohe Impaktwirkung (und da steckt viel Arbeitszeit, d.h. Forschung & Entwicklung drin). Dennoch zählten lange Zeit nur Papier-Publikationen (Artikel und Bücher), die darüber berichten, dass man programmiert hat und nicht die Programmierung selbst.
Ähnliches gilt für die Daten: Wenn jemand tolle Bilder an einem Weltraumteleskop aufnimmt oder Papyri digitalisiert und anderen zur Verfügung stellt, wird das typischerweise bisher (zu) wenig gewürdigt. In der Astronomie ist es vllt schon mehr angesehen als in anderen Fächern (die Astronomie ist meist den anderen voraus), so dass in den Altertumswissenschaften sowas lange Zeit als Aufgabe von Bibliotheken gesehen wurde und vllt inzwischen in den Bereich der “Digital Humanities” geschoben wird – z.B. wenn es um 3D-Modelle von Architekturen und Objekten geht, die ja eine Art Ingenieursleistung erfordern, auch wenn es Objekte aus Museen sind. Inzwischen gibt es auch DOIs für Datensätze, so dass man das Problem nicht nur erkannt hat, sondern auch bewusst entgegen wirkt – bis das aber bei den letzten altbackenen Forschenden angekommen ist, wird’s wohl noch eine halbe Generation dauern. 🙁
Fazit
Auf den Index zu kommen galt früher als üble Sache, während heute alle nach einem solchen streben (welchem auch immer).
Letztlich wird die Geschichte entscheiden, welche Forschenden heute den größten Impakt haben (und nicht ein h-Index). Heino Falcke ist sicher ein guter Kandidat für einen Namen der bleibt, d.h. der in die Bücher eingeht, aber die Frage nach der Messbarkeit wissenschaftlichen Outputs bleibt.
Ich persönlich frage mich daher seit ca. einem viertel Jahrhundert : Wie soll ich es nur schaffen, alle diese (teils divergierenden) Interessen zu bedienen? Und wie beweise ich folglich meine Leistungsfähigkeit für eine feste Stelle? (Durch wie viele Höllen muss man gegangen sein, um diese zu erhalten?)
Was genau macht eigentlich gute Forschende aus?
- Sicher ist es nicht die reine Anzahl von Publikationen.
- Sicher auch nicht die Anzahl von Zitationen oder Followern auf irgendeiner Plattform.
- Das Beispiel von Einstein, das Direktor J. Renn vom MPIWG gern zitierte, zeigt, dass auch das peer-reviewing kein optimales Verfahren ist. Weder ist es Garant für gute Forschung noch für gute Ergebnisse, sondern nur für die fachliche Duldung, d.h. dass einige Fachleute wünschen, dass eine bestimmte fachliche Meinung geteilt werden sollte, um anderen zu ermöglichen, damit weiter zu arbeiten. Ob sie das tun, entscheidet die Geschichte.
Gehen Sie über “LOS”, ziehen Sie Ihre wohlverdienten 2000 Euro ein!
Danke für die ausführlichen Erörterungen. Als kritische Ergänzung zum Thema Peer-Review möchte ich hervorheben, dass typischerweise Autoren und Peer-Reviewer in den gleichen akademischen Kreisen verkehren und einen ähnlichen Bildungs-/Ausbildungshintergrund haben. Mediziner, Physiker, Historiker und Philosophen sind jeweils geistig, von ihrer Arbeitsweise her und von ihrem Bildungshintergrund in ziemlich verschiedenen Welten unterwegs und das gilt nicht nur für die Autoren von Studien, sondern genauso für die Reviewer. Je nach Wissenschaft gelten damit auch andere Kriterien für das, was überhaupt als wissenschaftlich relevant betrachtet wird. Das bedeutet, dass es kein absolutes Mass für Wissenschaftlichkeit gibt, sondern nur ein Mass innerhalb eines bestimmten Kreises von Autoren und zugehörigen Reviewern.
So gibt es etwa auch anthroposophisch aktive Mediziner. Und die führen ebenfalls Peer-Reviewte Studien durch (siehe dazu „Wie glaubhaft sind Homöopathie-Studien?“). Doch das bedeutet nicht, dass dadurch Homöopathie in einem Sinn wissenschaftlich wird wie es naturwissenschaftlich orientierte Mediziner verstehen.
einstein ll
liefert die “String-Theorie mit Weltformel”:
http://www.4-e-inigkeit.info/Anhang.html
Für die heranwachsende Peer-Generation.
Wo sind die Peers?
siehe, nicht alles im Internet ist wahr und richtig
Susanne M. Hoffmann schrieb (13. Nov 2024):
> […] was sind die Kriterien für “erfolgreiche Forschende”?
Zwei wichtige Kriterien von “Forschungs-Erfolg” sind
– in wie fern die Forschenden jeweils selbst Fragestellungen, Festsetzungen und Ergebnisse ihres Forschens erkennen, nachvollziehbar festhalten und ggf. mitteilen und verantworten; und
– in wie fern das jeweilige Forschungs-Interesse Einzelner als allgemeines Forschungs-Gebiet erhalten bzw. überhaupt erst zugänglich gemacht wurde;
also in wie fern insbesondere nachfolgende Generationen die jeweiligen Fragestellungen und Festsetzungen (noch) verstehen, oder sogar noch selbst nutzen, verfolgen oder weiterentwickeln; bzw. die damit jeweils ermittelten oder erzielten Ergebnisse (immer noch) mit eigenen vergleichen.
Gewissenhaft davon zu unterscheiden sind selbstverständlich oberflächliche Cargo-Kult-Versionen dieser Kriterien.
das Problem, wenn man die Messung des Erfolgs den künftigen Generationen überlässt, ist, dass dann “Erfolg” kein Einstellungskriterium ist: Das Bedürfnis nach Messbarkeit von Erfolg/ Aktivität/ Produktivität (oder was auch immer) erwächst doch gerade daraus, dass man dies als Entscheidungskriterium anzusetzen sehnt: bei Bewerbungen, bei Projektanträgen etc. pp.
Wir sind uns einig (wie ich oben schrieb: “entscheidet die Geschichte”), dass die Menschen sich hier und jetzt irgendwelche Scores ausdenken und anschließend sich die Geschichte eins ins Fäustchen lachen wird … aber das war ja nicht der Ausgangspunkt dieser Überlegung.
Susanne M. Hoffmann schrieb (17.11.2024, 08:57 Uhr):
> […] wenn man die Messung des Erfolgs den künftigen Generationen überlässt […]
Das beträfe allerdings nur eines der beiden Kriterien, die ich im vorausgehenden Kommentar beschrieb. (Geeignet zu bennen etwa als “Kriterium nachhaltigen Forschungs-Erfolges”; in Unterscheidung zum ebenfalls schon erwähnten “Kriterium des Forschungs-Erfolges als unmittelbare Bewältigung einer bestimmten Forschungs-Aufgabe”.)
> […] kein Einstellungskriterium [… kein] Entscheidungskriterium […] bei Bewerbungen, bei Projektanträgen etc. pp.
Sofern es (nur) um Hoffnungen bzw. Wetten auf bestimmte zukünftige Geschehnisse und Leistungen geht, wären wohl eher Kriterien bzw. Begründungen von “Erfolgs-Aussichten” gefragt.
m.W. werden eben nicht “Wetten auf — zukünftige … Leistungen” abgeschlossen. Das Peterprinzip besagt, dass Beförderungen eben nur für vergangene Leistungen vergeben werden und nicht für künftige.
Forschung wird nicht an bewältigten Aufgaben gemessen. Das würde Projektmanagement und Controlling voraussetzen. Forschungsfragen kann man bearbeiten, aber nicht in allen Zusammenhängen lösen – gerade in der Grundlagenforschung wird eben nicht ein fertiges Produkt (gelöste Aufgabe) ans Ende gestellt. Im Angebot ist einzig, dass der Frage nachgegangen wurde. Die Doktorarbeit in Experimentalphysik würde z.B. auch dann als erreicht gelten, wenn ein paar neue Experimente gemacht wurden, deren Ausgang negativ war, weil auch ein nicht funktionierendes Experiment (mit der entsprechenden Beschreibung, warum es so nicht geht und was beim nächsten Versuch anders gemacht werden muss) ein Ergebnis ist.