Nature: Sigmund Freud und Karl Marx beste Forscher aller Zeiten!
Qualitätskontrollen sind im gegenwärtigen Wissenschaftssystem allgegenwärtig. Insbesondere sind Output-Maße so wie der Impact Factor oder der h-Index auf allen Karriereebenen sehr einflussreich. Zurzeit gibt es eine Zunahme an Widerstand gegen dieses Regime der Qualitätskontrolle – Widerstand, der auch viele andere Dinge, die im gegenwärtigen Wissenschaftssystem schief gehen, kritisiert. Ein Beispiel ist die Science in Transition-Initiative, die gerade an der Niederländischen Königlichen Akademie der Wissenschaften in Amsterdam eine Tagung organisiert hat.
Heutzutage bewerten Menschen alles Mögliche. Insbesondere in der Wissenschaft beziehungsweise in der akademischen Welt sind Leistungsbewertungen allgegenwärtig geworden. Um die Qualität eines Wissenschaftlers zu bewerten, werden Werkzeuge wie der ISI Journal Impact Factor oder der h-Index verwendet. Sie spielen bei der Vergabe von Forschungsgeldern oder fester Anstellungen eine entscheidende Rolle; sie entscheiden Karrieren, wer bleiben darf und wer die Forschungswelt verlassen muss.
Der Impact Factor gibt die Popularität einer Zeitschrift wieder. Damit ist die durchschnittliche Anzahl der Zitationen pro Artikel in den vorangegangenen beiden Jahren gemeint. Im Gegensatz dazu bezieht sich der h-Index auf die Produktivität und Zitationshäufigkeit eines individuellen Forschers, wobei h die Anzahl der Publikationen mit mindestens h Zitationen ist. So hat zum Beispiel ein Forscher mit zehn publizierten Arbeiten, die jeweils mindestens zehnmal zitiert werden, einen h-Index von zehn.
Qualität quantifizieren
Seit es diese Maßstäbe gibt, werden sie sowohl von den gemessenen Wissenschaftlern selbst als auch von Theoretikern kritisiert, die sich damit beschäftigen, wie man die Qualität von Wissenschaft überhaupt messen kann und was dabei alles schiefgehen kann, wenn man es schlecht macht. Eugene Garfield, den man auch als einen der Gründer der Biblio- und Szientometrie ansieht und der den Impact Factor entwickelt hat, räumte auch ein, dass es daran viel auszusetzen gibt. Dennoch verteidigte er sein Maß mit dem Hinweis darauf, dass es schlicht kein besseres System gebe (Garfield, 2006).
Eine der Absurditäten dieses Maßes ist, dass es einem wirklich nur etwas über die Popularität einer Zeitschrift und ihres Forschungsgebiets verrät. Es wurde ursprünglich zur Unterstützung von Bibliothekaren und nicht die Vergabe von Forschungsgeldern oder Berufungskommissionen entwickelt. Dies allein schon deshalb, weil es überhaupt nichts über den individuellen Forscher aussagt.
Alles wird gezählt, selbst wenn die Zahl sinnlos ist
Dennoch bittet einen zum Beispiel die Niederländische Forschungsorganisation (NWO) beim Einreichen von Anträgen immer noch darum, den durchschnittlichen Impact Factor seines Forschungsgebiets anzugeben und anschließend für jede Publikation den Impact Factor des jeweiligen Journals. Obwohl dies offensichtlich eine verwirrte Art der Bewertung ist, werden Kollegen aus den Natur- und Lebenswissenschaften in diese Prozedur gezwungen, während sie für Kollegen aus anderen Fächern freiwillig ist.
Performance metrics based on values such as citation rates are heavily biased by field, so most measurement experts shy away from interdisciplinary comparisons. The average biochemist, for example, will always score more highly than the average mathematician, because biochemistry attracts more citations. (Richard Van Noorden, Nature.com)
Es ist immerhin ein Vorteil des h-Indexes, dass er ein aufs Individuum bezogenes Maß ist, denn er gibt die Produktivität und die Anzahl der Zitationen eines Einzelnen wieder. Natürlich handelt es sich dabei immer noch um kein Qualitätsmaß, denn Kollegen können sich ja beispielsweise auch kritisch-ablehnend auf eine Arbeit beziehen und damit die Zitationszahl erhöhen. Ferner variiert die Anzahl an Zitationen zwischen den Forschungsgebieten, da diese eine unterschiedliche Zitationsdichte aufweisen. Zum Beispiel haben Molekularbiologen viel höhere h-Indizes als etwa Psychologen, schlicht weil in ihren Arbeiten viel mehr andere Publikationen zitiert werden. Dennoch wird der h-Index häufig als Ersatzmaßstab für wissenschaftliche Qualität verwendet.
Wissenschaft im Wandel
Ich habe gerade an einer zweitägigen Tagung einer ursprünglich niederländischen Initiative mit dem Titel Science in Transition teilgenommen (siehe ihr Positionspapier Why Science Does Not Work as It Should And What To Do about It, PDF). Zusammen mit Wissenschaftlern von den Universitäten Harvard und Oxford trafen man sich am 7. und 8. November in der Niederländischen Königlichen Akademie der Wissenschaften in Amsterdam (Tag 1, Tag 2). Die Forscher dort beschäftigten sich mit den vielen Problemen und Anreizen des gegenwärtigen Wissenschaftssystems.
Modern scientists are doing too much trusting and not enough verifying—to the detriment of the whole of science, and of humanity. … Even when flawed research does not put people’s lives at risk—and much of it is too far from the market to do so—it squanders money and the efforts of some of the world’s best minds. The opportunity costs of stymied progress are hard to quantify, but they are likely to be vast. And they could be rising. (How Science Goes Wrong, The Economist)
Die Teilnehmerinnen und Teilnehmer schlugen verschiedene Verbesserungen vor, die sich leicht in die Praxis umsetzen lassen. Ein Thema, auf das man immer wieder kam, waren die Implikationen der Output-Bewertungen, insbesondere wenn dies einen Forscher auf eine Zahl wie den Impact Factor oder den h-Index reduziert.
Einige Vortragende verwiesen auf ihren eigenen h-Index von zwanzig oder vierzig als besonders hoch. Allerdings kommt eine Studie, die gerade in einem News Feature auf Nature.com zusammengefasst wurde, zu ganz anderen Ergebnissen. Die Antwort auf die Frage, wer eigentlich die am meisten erfolgreichen Forscher aller Zeiten sind, wenn man nach dem h-Index geht, lassen selbst Ergebnisse zwischen zwanzig und vierzig bescheiden aussehen (mein eigener ist übrigens sieben).
Und die Gewinner sind…
Von den beinahe 35.000 Forschern, deren Daten von Google Scholar aufgezeichnet wurden, hat tatsächlich der Psychologe Sigmund Freud mit einem h-Index von 282 den höchsten Wert. Gefolgt wird er vom Physiker Edward Witten mit 243 Punkten. Allerdings verweist Filippo Menczer von der Indiana University Bloomington, der diese Analyse mit seinen Kollegen durchgeführt hat, auf ein Problem: Der h-Index berücksichtigt nicht die unterschiedlichen Zitationspraktiken eines Forschungsgebiet, wie die Zitationsdichte, die ich oben erwähnt habe.
Sie haben deshalb vorgeschlagen, dass man den h-Index eines Forschers durch den Durchschnittswert seines Forschungsgebiets teilt, um ein zutreffenderes Maß zu erhalten, das außerdem eine Vergleichbarkeit zwischen den Disziplinen erlaubt. Diesen Wert nennen sie dann den hs-index (Kaur, Radicchi & Menczer, 2013).
…Karl Marx und Sigmund Freud
Wenn man diese Korrektur durchführt, dann ist der beste Forscher tatsächlich Karl Marx, bei Zuordnung zu den Geschichtswissenschaften, mit einem hs-Index von 21,5. Damit liegt er weit vor dem zweiten Platz, wieder Sigmund Freud mit 14,8, Edward Witten, mit 12,9, dem Philosophen Jacques Derrida mit 12,5 und dem Entwicklungspsychologen Jean Piaget mit 11,6. (Ein hs-Index von zehn bedeutet, dass der Forscher einen h-Index hat, der zehnmal so hoch ist wie der Durchschnitt seines Felds – können Sie mir noch folgen?)
Diese Ergebnisse können einen überraschen, wenn man sich vor Augen führt, dass Geschichte, Philosophie und Psychologie eher selten zu den angesehensten Wissenschaften gezählt werden und es auch keinen Nobelpreis in diesen Fachgebieten gibt. Dennoch scheinen ihre Früchte enorm erfolgreich zu sein, wenn es darum geht, bis heute Forscher zu beeinflussen und zu inspirieren.
If you, as an evaluator, have to rely solely on corrected h-indices to compare academics, says Ihle, “then you’re dumb, and you don’t understand what you are doing”. (Richard Van Noorden, Nature.com)
Ja, es scheint merkwürdig – aber genauso ist es
Wenn Sie sich jetzt fragen, was eigentlich der Nutzen dieses ganzen Zählens, Teilens, Rechnens und Vergleichens ist, dann nähern Sie sich der richtigen Intuition: nämlich derjenigen, dass es sich hier tatsächlich um merkwürdige Dinge handelt, insbesondere wenn es um die Bewertung der Qualität und Bedeutung eines Akademikers geht.
Es ist aber leider die schlechte Nachricht, dass das Wissenschaftssystem nun einmal so ist und es auch schon vor Jahrzehnten war. Die meisten Forscher, die heute in Machtpositionen sind, haben sich an dieses merkwürdige System angepasst und andere, zum Beispiel ihre Doktoranden, wissenschaftlichen Mitarbeiter oder andere, die sie beurteilt haben, zur Anpassung gezwungen – oder eben dazu, sich desillusioniert abzuwenden.
Es gibt aber auch Ausnahmen
Selbstverständlich gibt es Ausnahmen. Da gibt es gelegentlich einen Betreuer, der weniger Arbeiten mit höherer Qualität gegenüber mehr Arbeiten mit schlechter Qualität bevorzugt. Tatsächlich bieten sie es ihren Doktoranden an der Universitätsklinik Utrecht gerade an, eine Doktorarbeit mit nur vier anstatt der bisher üblichen sechs Publikationen einzureichen, wenn sie denn dem höheren Qualitätsmaßstab entsprechen. Das wurde gerade auf der Tagung als Beispiel angeführt.
Oder man denke an den Dekan, der den Mitgliedern seiner Fakultät versichert, dass er nicht auf der Maximierung eher sinnloser Bewertungszahlen besteht, sondern stattdessen lieber das Verfolgen inspirierender Forschungsideen befürwortet sowie die Ausbildung öffentlicher Intellektueller.
Viele Kritiker sind schon alt
Es gibt aber auch die, die das System offen kritisieren, wie eben die Mitglieder der Science in Transition-Bewegung. Häufig handelt es sich bei ihnen aber um Akademiker in einer späten oder gar sehr späten Phase ihrer Karriere, nachdem sie schon lange in einer Festanstellung sind und lange nachdem sie sich an das korrumpierte und potenziell korrumpierende Anreizsystem angepasst haben; lange, nachdem sie andere dazu motiviert haben, sich ebenfalls daran anzupassen.
Sie mögen sich fragen, ob die Verwendung von “korrumpiert” hier nicht zu stark ist, doch verweise ich dabei auf den Kommentar von gegenwärtigen oder früheren Präsidenten internationaler neurowissenschaftlicher Vereinigungen in der Zeitschrift Proceedings of the National Academy of Sciences of the USA, wo es heißt:
It is our contention that overreliance on the impact factor is a corrupting force on our young scientists (and also on more senior scientists) and that we would be well-served to divest ourselves of its influence. … The hypocrisy inherent in choosing a journal because of its impact factor, rather than the science it publishes, undermines the ideals by which science should be done. This contributes to disillusionment, causing some of our talented and creative young people to leave science. (Marder, Kettenmann & Grillner, 2010, p. 21233)
Wir können aber das System ändern
“Korruption” und “Heuchelei” sind wirklich sehr starke Wörter. Ich könnte aber die vielen Kollegen nicht mehr zählen, mit denen ich mich in den letzten Jahren unterhalten habe und die bereits sehr zynisch geworden waren; sie erzählten offen davon, das Land verlassen zu wollen, um sich nach einem Ort umzuschauen, an dem das System besser funktioniert, oder die Wissenschaft gleich ganz zu verlassen, um etwa in der kommerziellen Forschung oder als Wissenschaftsjournalist zu arbeiten.
Wäre es im Gegensatz dazu aber nicht einmal nett, wenn man das System verändern würde? Insbesondere das Anreizsystem, damit es eine zuverlässige, vertrauenswürdige und gültige Wissenschaft garantiert und es den Idealisten, die Wissenschaftler häufig sind, auch Spaß macht, darin zu arbeiten? Um das zu erreichen, wäre weniger von dem, woran wir uns gewöhnt haben, den vielen Publikationen und Forschungsgeldern, sicher manchmal mehr.
Wollen wir wissen, was in der Wurst ist, die wir essen?
Otto von Bismarck (1815-1898), der erste Kanzler des Deutschen Reichs, sagte einmal: “Je weniger die Leute davon wissen, wie Würste und Gesetze gemacht werden, desto besser schlafen sie.” Offensichtlich ging es Bismarck nicht darum, gebildete und aufgeklärte Bürger zu haben, sondern die macht einer herrschenden Elite zu fördern, während das gemeine Volk Kinder großzieht, die dem Kaiser als brave Soldaten dienen.
Natürlich sollte man eher nicht die Machtstrukturen und Wissenserzeugung der Forschung untersuchen, wenn man gut schlafen will; vielleicht würde es sich aber lohnen, insbesondere für die jüngeren Generationen, ein paar schlechte Nächte zu haben, um langfristig die Übereinstimmung zwischen dem wissenschaftlichen Idealismus und der wissenschaftlichen Praxis zu erhöhen.
Wer ist also der beste Wissenschaftler?
Die kurze Diskussion von Impact Factor und h-Index war nur ein Beispiel. Man könnte leicht behaupten, dass diese Maßstäbe durch bessere ersetzt werden sollen; solche gibt es zweifellos und sie könnten tatsächlich mehr Gutes als Schlechtes anrichten, wenn man sie behutsam anwendet. Dennoch sollte es einen beunruhigen, dass die ungültigen Maßstäbe so lange von so intelligenten Leuten verwendet wurden – und was die Folgen dieses Bewertungsregimes sind und auch in Zukunft sein werden.
Es könnte sich lohnen, nicht nur in Erwägung zu ziehen, einen Bewertungsmaßstab durch einen anderen zu ersetzen, sondern die grundlegenderen Fragen aufzuwerfen, was all dies Bewerten überhaupt bedeutet, wer es eigentlich will, wem es nützt, wofür es nützt und wo es (un)angemessen ist, es anzuwenden.
Oder man könnte freilich einfach die Kröte schlucken und akzeptieren, dass Sigmund Freud und Karl Marx tatsächlich die größten Forscher aller Zeiten sind.
Literatur/Quellenangaben
Wenn Sie etwas mehr über wissenschaftliche Bewertungsmaßstäbe wissen wollen, dann können Sie sich diesen Artikel von Richard Van Noorden, dem Wissenschaftsjournalisten, der den aktuellen Bericht für Nature geschrieben hat, aus dem Jahr 2010 lesen: Metrics: A profusion of measures.
Garfield, E. (2006). The History and Meaning of the Journal Impact Factor. Journal of the American Medical Association 295: 90-93.
Kaur, J., Radicchi, F. & Menczer, F. (2013). Universality of scholarly impact metrics (PDF) Journal of Informetrics 7: 924-932.
Marder, E., Kettenmann, H. & Grillner, S. (2010). Impacting our young. PNAS 107: 21233.
Die Vermutung liegt nahe, dass es sich bei den Zitierungen von Marx und Freud nicht nur um zustimmende handelt. Folgerung: möglichst kontroverse Paper schreiben, dann kommt man in der Rangliste ganz nach oben.
Vermutlich – ein Beispiel aus jüngerer Zeit, das ich selbst schon ganz gut untersucht habe, dürfte die Forschung zur Neurowissenschaft moralischer Urteile des Harvard-Psychologen Joshua Greene sein; es ist aber auch ein Beispiel dafür, dass noch so viel Kritik nichts nützt: Wenn eine Story “sexy” und erst einmal öffentlich ist, dann wird sie auch wieder und wieder verkauft.
Interessant, dass der den Index anführende Naturwissenschaftler, nämlich Edward Witten, der führende Kopf der Stringtheorie ist, die er mit der von ihm begründeten M-Theorie (M für Magic, Membrane, Mystery und einige sagen, dass M sei das umgekehrt geschriene W aus Wittens Namen) in Sphären führte, in welche nur noch wenige Jünger wirklich folgen können, auch wenn sich viele, selbst berühmte Zeitgenossen wie z.B. Stephen Hawking, gern auf die M-Theorie beziehen. Edward Witten hat damit eine Schule geschaffen, die sich durchaus mit der durch Freud begründeten Psychoanalyse vergleichen lässt. Wie in der Psychologie gibt es in der Physik wohl mindestens soviele Anti-String Leute wie es Gegner der Freud’schen Psychoanalyse gibt. Das Geheimnis eines Top-Scores in der akademischen Relevanz scheint somit die Fähigkeit zu sein, ein Gebiet zu begründen, welches die Fachwelt in Jünger und Gegner aufteilt.
@Holzherr, danke, das ist ein wirklich sehr interessanter Hinweis. Ich hatte mir gar nicht die Mühe gemacht, nachzuschauen, wer dieser berühmte Physiker eigentlich ist. Mit der Stringtheorie habe ich mich noch nie beschäftigt.
Eine Gemeinsamkeit zwischen Freud, Marx und Witten ist freilich auch, dass man allen dreien den Vorwurf gemacht hat, ihre Theorien sein nicht empirisch falsifizierbar. Gegen Freund (und v.a. die abgeleitete Theorie Adlers) und Marx hat ja Karl Popper damals seine Wissenschaftskritik gerichtet und daraus seinen Falsifikationismus und Fallibilismus entwickelt.
Sowas kommt bei derartigen Rankings halt heraus, wenn Wissenschaftler permanent staatlich gefüttert werden.
MFG
Dr. W
Jeder Mensch ist seinem Gewissen verpflichtet, das sollte oberstes Gebot sein. Am Ende seines Lebens, wird jeder einzelne Mensch Rechenschaft ablegen müssen, vor sich selbst, ob er will oder nicht. Davon bin ich tatsächlich überzeugt.
P.S. Ich finde oben beschriebenes Bewertungssystem einfach skandalös. 🙁
Ein Psychologe allerdings war Freud nicht.
ROTFL
Entgegen vielen Ergebnissen der ‘harten’ Wissenschaftenschaften wird ja immer mehr der Freudschen Annahmen ins Reich der Phantasie verwiesen.
Kommt darauf an, wen man fragt – einige der Spitzenforscher, die sich intensiv mit Freud und Hirnforschung beschäftigt haben, sehen viele seiner Annahmen gerade in Befunden der Hirnforschung bestätigt. Georg Northoff hat ein ganzes Buch über Praktische Neuropsychoanalyse bei Oxford University Press veröffentlicht.
Was spricht eigentlich dagegen, dass Freud und Marx die erfolgreichsten Wissenschaftler aller Zeiten sind?
Andererseits: Seit wann gibt es diese wissenschaftliche Kultur mit Zeitschriften usw. in der Form überhaupt (wann die diversen Zeitschriften gegründet wurden weiß ich auch)? Kann es sein, dass Forscher aus dem frühen 20. oder 19. Jahrhundert deshalt systematisch unterrepräsentiert waren?
Welche besseren meinen Sie denn?
Im Übrigen: Ob es sie zweifellos gibt, ist vielleicht gar nicht so sicher, wie die Kritik hier nahelegt. Schließlich handelt es sich um ein Werturteil, das zu beweisen… Viele intelligente, gebildete Leute gehen sogar davon aus, Werturteile seien komplett subjektiv.
Ich bin überrascht, dass diese Frage hier von niemanden aufgegriffen wurde.
Meine Antwort: Solche Maßstäbe werden benötigt, um zu entscheiden, wer welche wissenschaftliche Stelle bekommen soll (etwa als Professor oder als wissenschaftliche Mitarbeiter) oder wessen Forschungsvorhaben unterstützt wird und wesse nicht.
Das System entscheidet also sowohl über die Karriere eines Forscher als auch über die eines ganzen Forschungsprojektes.
Der Vorteil besteht darin, dass solche Zahlen unbestechlich und objektiv wirken.
“ROTFL”
bitte mal einer Ahnunglosen helfen 🙂 …………was bedeutet diese Abkürzung?
“Solche Maßstäbe werden benötigt, um zu entscheiden, wer welche wissenschaftliche Stelle bekommen soll (…) oder wessen Forschungsvorhaben unterstützt wird und wesse nicht.Das System entscheidet also sowohl über die Karriere eines Forscher als auch über die eines ganzen Forschungsprojektes.”
…was also muss ich tun, damit mein Forschungsprojekt unterstützt wird? ;-)…eines das so ganz aus einem stillen Kämmerlein daher kommt?
Dass ich mich lachend auf dem Fußboden rollte; oder rollend auf dem Fußboden lachte.
@Skeptiker, das sind berechtigte Fragen, daher hier meine Antworten:
Nature titelte ja sogar mit der Überschrift, dass es um die besten Wissenschaftler ging.
Was dagegen spricht? Wenn man “Erfolg” als Anzahl der Zitationen definiert und dafür die Google Scholar-Datenbank heranzieht, dann spricht nichts dagegen. Ich hoffe aber, dass sich die Leserinnen und Leser hier so viel eigene Gedanken machen können, dass sie sich der Schwierigkeit im Definieren von “Erfolg” und “gute Wissenschaft” bewusst sind.
Dass es sie zweifellos gibt folgt daraus, dass Impact Factor und h-index schlicht so wahnsinnig dumme Maßstäbe sind und es eben in Leiden eine Forschungsgruppe gibt, die sich auf die Entwicklung besserer Bewertunssysteme spezialisiert hat (z.B. Journal Indicators, Leiden Ranking of Universities).
Inwiefern und wofür diese verbesserten Maßstäbe geeignet sind, ist damit noch nicht gesagt.
Meinen Glückwunsch zur erfolgreichen Sozialisation im Reich der Erbsenzähler!
Wieso lässt man nicht beispielsweise jemanden seine drei besten Arbeiten einreichen, die dann alle lesen und auf einer halben Seite bis Seite begutachten, zusammen mit den Fakten über die Lehre und Entwicklung davon, andere universitäre Aktivitäten usw.?
Heute gilt: Was man Googlen kann, muss man nicht erklären
Mir kommt das angesprochene Bewertungssystem so vor, als ginge es nur darum überall ein Preisschild dranzukleben. Wessen Zitationen am häufigsten über den “Ladentisch” gehen, der hat die Schlacht um den Kunden gewonnen. Der Homo oeconomicus setzt sich, wie es scheint, auch im Wissenschaftsbetrieb durch. Mit einem definierten und widerspruchsfreien Zielsystem möchte man Markttransparenz schaffen und vergießt dabei, dass man ökonomische Bezüge nicht 1:1 auf Wissenschaft oder Technik anwenden kann, weil hier auch noch andere Dinge berücksichtigt werden müssen.
Interessanter finde ich die Frage, was es bedeutet, wenn einer diese Abkürzung verwendet (etwa statt eines Arguments oder eines erklärenden Hinweises).
Banalus, wenn Alex sich nicht einmal die Mühe macht, auch nur mit einem Halbsatz zu erklären, warum er oder sie denkt, dass Freud kein Psychologe war, dann bleibt mir auch nur das lachende Herumrollen.
Ich hätte vielleicht mit einem Schulterzucken reagiert, aber ich hätte ja auch statt Psychologe vermutlich Psychoanalytiker geschrieben. Da sieht man mal wieder, wie unterschiedlich die Reaktionen auf ein und denselben Umweltreiz ausfallen können… 🙂
@Stephan Schleim
Oedipus-Komplex,die Vorstellungen der kindlichen Entwicklung (z.B. fruehkindlicher Autismus), psychischer Apparat, dreigeteilt, die Bedeutung der Sexualitae sind doch eher obsolet. Sicher gibt es da immer verschiedene Ansichten. Aber Freud hat ja viel aus kulturellen Beobachtungen geschoepft und diese dann verallgemeinert.
Als Therapieform gilt sie ja neben der VT als hinlänglich wirksam – aber wer weiss, was da alles fuer eine Rolle dabei spielt.
@Siebert: Ich bin kein Fan von Freud und vor allem nicht von der dogmatischen Schule, die er gegründet hat (man denke z.B. daran, wie sich die Internationale Psychoanalytische Vereinigung [IPV] den Nationalsozialisten angedient hat, um die “Wehrkraft” des Volkes zu erhöhen; oder wie in der Psychonalyse Berichte von Kindesmisshandlung als erotische Fantasien umgedeutet hat [Man soll die Eltern ehren?]), aber was zum Beispiel die führenden Hirnforscher Gerhard Roth, Wolf Singer oder John-Dylan Haynes in den letzten Jahren über Willensfreiheit erzählt haben, das hat 1917 auch schon Freud geschrieben (und vor ihm wahrscheinlich einige Philosophen, die ihn inspiriert haben).*
Diese oberflächliche Diskussion darüber, wer hier der Wissenschaftler ist und wer nicht, die ist mir aber zu billig, um mich daran zu beteiligen; und sie ist im Übrigen auch nicht Thema dieses Beitrags.
* siehe z.B. Schleim, S. (2012). Brains in context in the neurolaw debate: The examples of free will and “dangerous” brains. International Journal of Law and Psychiatry 35: 104-111.
Vielleicht weil es noch Naturwissenschaftler wie Darwin oder Einstein gibt?
Ansonsten, eher zynisch betrachtet, entsprechen Freud und Marx natürlich schon von ihrem Output her bestimmten Anforderungslagen, die eben angefragt bleiben.
MFG
Dr. W (der nicht nur Rankings als soziale Veranstaltung betrachtet, sondern auch I-Faktoren und sogar den Peer-Review (um wissenschaftlich-sozial zu bündeln) – aber vermutlich wird das allgemeiner so gesehen)
@Dr. Webbaer
Wieso müssen denn Naturwissenschaftler per se bereits bessere Wissenschaftler sein als Marx oder Freud?
Und was ist mit z. B. Lamark, Newton oder R. A. Fisher (um einen neueren Forscher zu nennen)?
Selbstverständlich haben Darwin und Einstein auf ihre jeweiligen Gebieten großes geleistet, dennoch ist die Frage nach den “größten Wissenschaftler aller Zeiten” in gewissen Grade immer subjektiv.
Mancher Forscher oder Wissenschaftler wird trotz richtungsweisender Impulse eben vergessen, während andere ihre Entdeckungen machen, wenn die Zeit reif dafür zu sein scheint.
In diesem Zusammenhang könnte es doch sehr interessant sein, zu überlegen, wieso Freud und Marx nicht die größten Wissenschaftler aller Zeiten sein können. Deshalb meine provokante Frage, sie scheint ja ihre Wirkung nicht ganz verfehlt zu haben.
Natürlich entspricht das “Output” “bestimmten Anforderungslagen”, schließlich müssen solche Texte auch genug Leute überhaupt interessieren, bis sie weit genug verbreitet werden können.
Selbstverständlich haben solche Rankings oder sogar Peer-Review eine soziale Dimension.
Aber einfach alle Artikel unbesehen (oder nach nur formalen Kriterien) zu veröffentlichen, würden wohl auch nur die wenigsten Leute akzeptieren.
@Stephan Schleim
Falls es darum geht: Auch ich bin skeptisch (wie der Name schon sagt), was die Einordnung von Wissenschaftlern und ihrer Leistung in fixe Rangsysteme oder ähnliches angeht.
Zumal es ja auch “Katalysator -Wissenschaftler” geben könnte, deren Ideen zwar wichtig bei der Entstehung neuer, gültiger Theorien waren, deren Ideen aber selbst nicht in das Endergebnis eingehen.
Die mögen dann vielleicht wichtige Schlüsselfiguren der Wissenschaftsgeschichte sein, sind aber vielleicht nur interessierten Fachleuten und Historikern ein Begriff. Die würden dann wahrscheinlich auch nicht so oft zitiert werden.
Okay. Das wusste ich nicht.
Interessant, darüber werden ich möglicherweise später noch mehr lesen. Momentan befasse ich mich mit etwas anderen.
Es scheint hier ein Missverständnis zu geben: Ich wollte nur sagen, wozu diesen Maßstäbe zweckmäßig meiner Meinung nach gut sind. Ein Urteil darüber, ob sie besonders gut sind, wollte ich an der Stelle noch gar nicht fällen.
1. Wer ist denn “alle”?
2. Fakten über Lehre und Entwicklung davon würde doch praktisch wieder auf so eine Art Zitatanalyse hinauslaufen. Nur mit dem Unterschied, dass man jetzt guckt, wie weit die Ideen aufgegriffen wurden.
Hier stellen sich wiederum andere Frage, was ist mit einer Lehre, die weithin aufgegriffen aber niemals weiterentwickelt wurde? Was mit einer Idee, die von einer aktiven Minderheit weiterentwickelt wird, obwohl die Mehrheit sie nicht mal kennt?
3. Wenn ich das Problem richtig erfasse, dann lautet es wie folgt: Was ist der Maßstab für eine gute wissenschaftliche Arbeit?
Ihre Bekanntheit, ob sie diskutiert wird, ihre Methodik, ob sie sich mit gegenwärtig als wichtig erachteten Problemen beschäftigt?
Je mehr ich darüber nachdenke, umso schwerer erscheint mir die Frage zu werden.
Die Einbildung, wir lebten in der “besten aller möglichen Welten”, gehört bekanntlich zur so genannten Allgemeinbildung, in der die folgende Weisheit aber nicht vorkommt:
Diejenigen, die sagen: “Der Herr ist zuerst gestorben und dann auferstanden”, sind im Irrtum. Denn er ist zuerst auferstanden und dann gestorben. Wenn jemand nicht zuerst die Auferstehung erwirbt, wird er sterben.
(Nag Hammadi Library / Philippusevangelium / Spruch 21)
Den elementaren Erkenntnisprozess der “Auferstehung aus dem geistigen Tod der Religion”, der zuerst dem Propheten Jesus von Nazareth gelang, als ein “Herausklettern des toten Jesus aus seinem Grab” zu verkaufen, ist schon mehr als abenteuerlich. Aber bis heute glauben ungezählte Millionen an diesen aberwitzigen Unsinn! Warum? Weil der religiös verblendete “Normalbürger” eine Heidenangst vor der Auferstehung hat, dem endgültigen Ausstieg aus dem “Programm Genesis”. Nach dem Ausstieg muss er nämlich erkennen, dass er sich nicht in der “besten aller möglichen Welten” befindet, sondern ganz im Gegenteil in einer Welt der geistig Toten, vor der sich die Augen nun nicht mehr verschließen lassen:
Jesus sagte: Wer die Welt erkannt hat, hat einen Leichnam gefunden. Und wer einen Leichnam gefunden hat, dessen ist die Welt nicht würdig.
(Nag Hammadi Library / Thomas-Evangelium / Logion 56)
Die Programmierung des kollektiv Unbewussten mit dem künstlichen Archetyp Jahwe (Übergang vom Vielgottglauben zum Eingottglauben) befreite zwar einerseits die Menschheit aus der unbewussten Sklaverei des Ursozialismus, ließ aber andererseits dem bis heute unbewussten Kulturmenschen die systemische Ungerechtigkeit der Erbsünde nicht erkennen, aus der zwangsläufig alle Zivilisationsprobleme erwachsen, die sich überhaupt thematisieren lassen. Jesus erkannte die Erbsünde und fand als erster Denker in der bekannten Geschichte die einzige Lösung (Erlösung) zu ihrer Überwindung. Wo die Menschheit heute wäre, hätte die Moralverkaufs-Mafia der “heiligen katholischen Kirche” das größte Genie aller Zeiten nicht zu einem moralisierenden Wanderprediger degradiert und die originale Heilige Schrift des Urchristentums verbrannt, sprengt jedes Vorstellungsvermögen! Aber es ist nun mal passiert, und selbstverständlich agiert die schlimmste Verbrecher-Organisation der Welt nicht aus Bosheit, sondern aus purer Dummheit, sodass man ihr nicht einmal böse sein kann. Die Volksverdummung durch den Katholizismus (stellvertretend für alles, was sich heute “christlich” nennt) war so “erfolgreich”, dass noch zwei Weltkriege stattfinden mussten, zwischenzeitlich ein Teil der Menschheit mit der Ersatzreligion des Marxismus wieder in den Staatskapitalismus zurückfiel, und heute die totale atomare Selbstvernichtung droht, während das konkrete Wissen zur endgültigen Überwindung von Massenarmut und Krieg schon seit über einem Jahrhundert erneut zur Verfügung steht:
http://opium-des-volkes.blogspot.de/2013/11/macht-oder-konkurrenz.html
Haben Sie sich vielleicht im Blog geirrt?
“Haben Sie sich vielleicht im Blog geirrt?”
Nein. Der Irrtum besteht darin, Karl Marx überhaupt für einen “Forscher” zu halten:
http://opium-des-volkes.blogspot.de/2013/02/irrtumer-des-marxismus.html
Ist Ihnen bekannt, was eine “reductio ad absurdum” ist?
Mithilfe der Beispiele Freud/Marx sollte hier gerade – und auf etwas humorvolle Weise – gezeigt werden, dass der h-index kein gutes Qualitätskriterium ist. Darüber herrscht auch ganz unabhängig von Freud und Marx weitgehend Einigkeit.
Ob Sie Marx Forscher, Wissenschaftler, Historiker oder Philosophen nennen, das ändert alles nichts daran, dass er einen sehr hohen h-index hat.
Es heißt ROFL nicht ROTFL