Zitier mich oder vergiss es!

Eine Forscherin der Technischen Universität Wageningen flog jetzt damit auf, wie sie Wissenschaftlerinnen und Wissenschaftler zum Zitieren ihrer Arbeiten zwang.

Erst vor wenigen Wochen schrieb ich hier über die eingeschränkte Freiheit der Wissenschaft, vor allem durch den nicht-transparenten Prozess der Begutachtung von Publikationen und Forschungsanträgen (Teil 1, Teil 2). Jetzt berichtete die Zeitung meiner Uni über eine besondere Form des “Betrugs”: Eine Wissenschaftlerin habe ihre Macht als Gutachterin missbraucht, um andere zum zitieren ihrer eigenen Arbeiten zu nötigen (Fraud 2.0).

Währung Zitation

Warum sollte man so etwas tun? Zitationen sind eine der Hauptwährungen im heutigen Wissenschaftssystem, im Kampf um Stellen und Gelder. Ob die Arbeiten gut sind, das ist zweitrangig; Hauptsache, sie werden häufig zitiert. Das trägt einerseits zum Prestige der Zeitschriften bei, deren Wichtigkeit im Impact Factor ausgedrückt wird, der von den Zitationen abhängt; andererseits steigt so die Wissenschaftlerin etwa im h-Index (von Google Scholar), der zum Ausdruck bringt, wie häufig jemand zitiert wird – also vielleicht, wie wichtig er oder sie in der wissenschaftlichen Gemeinschaft ist. An solchen Kennzahlen können im Wettbewerb ganze Karrieren hängen.

Die Gutachterinnen und Gutachter, die sogenannten Peer Reviewers, bleiben anonym und können mehr oder weniger tun und lassen, was sie wollen. Sie sind nur den Redaktionen der Zeitschriften gegenüber bekannt und verantwortlich. Diese Zeitschriften gehören aber oft profitorientierten Unternehmen, deren Interessen sich nicht mit denen der wissenschaftlichen Gemeinschaft decken müssen. Als Öffentlichkeit, die den ganzen Spaß bezahlt, und als Wissenschaftlerin oder Wissenschaftler, dessen Laufbahn davon abhängt, muss man schlicht darauf vertrauen, dass es beim Review-Prozess mit rechten Dingen zugeht.

Übertriebener Missbrauch

Die Forscherin, deren Identität nicht verraten wird, flog jetzt wohl deshalb auf, weil sie es mit der Optimierungsstrategie übertrieben hat: Sie habe schlicht bei jeder Arbeit, die ihr zur Begutachtung angeboten worden sei, das Zitieren einer bestimmten Forscherin gefordert oder zumindest empfohlen – nämlich von sich selbst. Für die Zeitschrift Earth Matters, in der sie selbst viel publiziert habe, hätten jedoch auch andere Reviewers diesen Trick angewandt. Das führte schließlich zu Beschwerden, sodass die Fälle offiziell untersucht wurden.

Das für die Forscherin zuständige Ethik-Komitee der Universität Wageningen nannte den Vorfall zwar “tadelnswert” – ein formeller Verweis blieb aber aus. Das kritisierte Verhalten werde im Verhaltenskodex der niederländischen Wissenschaft nämlich (bisher) nicht erwähnt.

Für und wider Zitationen

Im Einzelfall kann es natürlich gute Gründe dafür geben, in einem Peer Review das Zitieren bestimmter Arbeiten nahezulegen, auch der eigenen, wenn darin wichtige Funde stehen, die die Autorinnen und Autoren berücksichtigen müssten. Wer seine Arbeit schnellstmöglich publiziert sehen will, vielleicht weil die nächste Beurteilungsrunde ansteht oder demnächst ein Forschungsantrag eingereicht werden will, gibt dann eher klein bei und zitiert die “empfohlene” Arbeit, als einen Streit zu riskieren, in dem es sowieso keine Waffengleichheit gibt. Alles steht und fällt mit der Integrität der Redaktion, die hinter verschlossenen Türen die Letztentscheidung trifft und keiner unabhängigen Instanz gegenüber verpflichtet ist.

Ein paar Zitationen mehr oder weniger mögen für die Wissenschaft nicht von entscheidender Bedeutung sein. Der Fall macht aber die Mechanismen des wissenschaftlichen Publikationswesens deutlich, die Machtmissbrauch ermöglichen. Wie ich bereits schrieb, kann man durch sinnlose Auflagen (“Führen Sie doch noch ein Kontrollexperiment durch, um zu sehen, ob…”) die Arbeit der Konkurrenz in die Länge ziehen oder in der Zwischenzeit die Idee sogar stehlen und als die eigene publizieren (Warum die Wissenschaft nicht frei ist).

Die von mir empfohlene Lösung, den Review-Prozess transparent zu machen, indem man die Gutachten mitveröffentlicht und vielleicht sogar auch die Namen der Gutachterinnen und Gutachter bekannt macht, wird auch im Artikel der Unizeitung diskutiert. Daneben werden die Plattformen ArXiv (vor allem für Naturwissenschaften, seit 1991) oder BioRxiv (für Lebenswissenschaften, seit 2013) als positive Beispiele genannt: Dort können Forscherinnen und Forscher ihre Arbeiten bereits mit der Community teilen, bevor diese den – womöglich langwierigen – Gutachtenprozess durchlaufen hat.

Planwirtschaft

Die allgemeinere Moral von der Geschichte ist meiner Meinung nach aber, wie die Kontrolle von Output-Kennzahlen und der Wettbewerbsdruck Menschen korrumpiert: Wie in einer Planwirtschaft, die beispielsweise die Produktion von einer Million Schrauben vorschreibt, wird dann zwar vielleicht die gewünschte Menge geliefert – ob aber die Schrauben dann auch passen und hinreichend Lasten tragen, ist eine andere Frage. Insofern kommt auch in der Wissenschaft durch die Fetischisierung der Quantität eben vor allem das heraus: Masse statt Klasse.

In der neuen Nature wurde nun gar der Vorschlag diskutiert, Forscherinnen und Forschern eine Wortobergrenze aufzuerlegen (Wortobergrenze für Wissenschaftler?). So könne man die Leute dazu bringen, wieder mehr auf Qualität als Quantität zu setzen. Anstatt das strukturelle Problem zu lösen, das uns Wissenschaftspolitik und -Management vorsetzen, wird so dem Individuum wieder eine zusätzliche Pflicht aufgebürdet: Wähle deine Worte bedachtsam, denn sie sind in deiner Laufbahn begrenzt. Meiner Meinung nach würden dann aber am Anfang der Karriere, wenn der Leistungsdruck am höchsten ist, immer noch zu viele Worte publiziert, und hätten diejenigen, die es auf eine feste Stelle schaffen, eine gute Ausrede, um auf dem Golfplatz zu stehen, statt im Labor oder in der Universität: “Sorry, ich habe meine Wortobergrenze erreicht.”

Druck vom Kessel nehmen

Ich bin persönlich der Meinung, dass viele Kolleginnen und Kollegen nach bestem Wissen und Gewissen arbeiten – aber dass die heutige Struktur des wissenschaftlichen Publikations- und Bewertungswesens nicht darauf ausgelegt ist, das Beste in den Menschen zu wecken, liegt auf der Hand. Daher wird es auch wenig bringen, immer längere Verhaltenskodizes oder Ethikrichtlinien zu verabschieden. Schlaue Leute unter Erfolgsdruck finden dann eben andere “kreative Lösungen” für das Problem.

So könnte man auch fragen, ob (ausufernde) Selbstzitationen – also das Zitieren der eigenen Arbeiten – tadelnswerte Praktiken sind, die sowohl Impact Factor als auch h-Index in die Höhe treiben; dabei sind mir noch Kollegen aus einer älteren Generation begegnet, für die eine Selbstzitation unter ihrer Würde war. Mit diesem Maßstab hätte man heutzutage einen Wettbewerbsnachteil. Über kurz oder Lang wird man nicht darum herumkommen, Druck vom Kessel zu nehmen, was auch zu besseren Arbeitsbedingungen führen würde (Worum geht es in der Wissenschaft?); oder man wird sich eben daran gewöhnen müssen, dass es in der Wissenschaft faule Schrauben gibt.

Hinweis: Dieser Beitrag erscheint parallel auf Telepolis – Magazin für Netzkultur.

Veröffentlicht von

www.schleim.info

Stephan Schleim ist studierter Philosoph, Psychologe und promovierter Kognitionswissenschaftler. Seit 2009 ist er an der Universität Groningen in den Niederlanden, zurzeit als Assoziierter Professor für Theorie und Geschichte der Psychologie. Der Autor schreibt auch für zahlreiche andere Medien. Die Diskussionen hier sind frei und werden nicht moderiert. Gehen Sie respektvoll miteinander um, orientieren Sie sich am Thema der Blogbeiträge und vermeiden Sie Wiederholungen. Beim Gedankenaustausch darf es auch mal heiß hergehen, jedoch nicht beleidigend werden, vor allem nie unter die Gürtellinie gehen.

4 Kommentare Schreibe einen Kommentar

  1. Wie Gutachter ihre Macht missbrauchen, wird z.B. schon 2000 in einem publizierten, humoristischen Beitrag beleuchtet. Da hat der von Ihnen viel gescholtene Editor Galgenhumor bewiesen [1].

    Interessanterweise gibt es bisher keine Forderung nach einem selbstzitatfreiem h-factor.
    Der ließe sich als klassische big-data-Anwendung sowohl bei den Publishern als auch bei Google, ORCID, etc. implementieren.
    Die direkte Gegenüberstellung von selbstzitatfreien und „normalem“ h-factor würde das eigene boosting öffentlich werden lassen.
    Dies ließe sich ebenfalls bei wiss. Veröffentlichungen aus den Referenzen ausrechnen; man könnte beim Abstract die Absolutanzahl Selbstzitate oder das Verhältnis Zitate/Selbstzitat angeben. Letzteres wäre allerdings anfälliger für Optimierungen als Ersteres.*

    Das ist allerdings keine strukturelle Veränderung, die so dringend nötig wäre.

    Kennen Sie eigentlich schon den Q-value, für den Versuch von vorhersagender Quantifizierung (mglw. am Anfang wiss. Karrieren) [2]?
    Mal sehen, ob und wann sich Wissenschaftsmanagement derart Ideen bemächtigt, am besten noch mit trainierten Neuronal Netzen, die schon jetzt zum Scoring von alles (Kreditwürdigkeit) und jeden (Human Resources) eingesetzt werden.

    Die Quantifizierung der eigenen Forschungsarbeit abzulehnen würde dem Mantra empirischer Wissenschaften, alles zu quantifizieren, einen Anschein von Doppelmoral geben.

    Und ich würde dem Drang nach Quantifizierung nichts per se „böses“ oder „ökonomisches“ unterstellen.
    Eigentlich soll diese ja ursprünglich möglichst objektiv eine für alle in etwa nachvollziehbare und faire, vorher bekannte, institutionelle Entscheidungsgrundlage für z.B. die Besetzung von Stellen und Forschungsförderung ermöglichen.

    Eine der größten Hinderungsgründe für Veränderungen sehe ich woanders:
    Der Opportunismus in der Wissenschaft.
    Sowohl der des Einzelnen als auch ein Institutioneller.

    [1] R. L. Glass, Journal of Systems and Software, 54, p.1, 2000 https://doi.org/10.1016/S0164-1212(00)00020-0 (paywall, frei zugänglich hier: goo.gl/9zrcy)
    [2] dx.doi.org/10.1126/science.aaf5239

    *Falls Sie das irgendwem in größerer Runde vorschlagen möchten, möchte ich aber bitte zitiert werden. 😉 Dafür würde ich auch meine Anonymität zumindest Ihnen gegenüber aufgeben.
    Ein besseres Beispiel für den Opportunismus des Einzelnen gibt es fast gar nicht, nicht wahr? 🙂

  2. Es gibt eben immer mehr Forscher und angehende Wissenschaftler und nicht jeder kann etwas Originäres beitragen. Viele sind heute von Beginn weg Teil von grossen Arbeitsgruppen und nicht wenige Papers beispielsweise aus dem CERN haben dutzende von Autoren und die meisten davon sind gestandene Physiker und trotzdem haben sie nichts Eigenständiges erforscht und publiziert, sondern waren immer Teil eines grossen Kollektivs.

  3. @Name: Selbstzitate

    Ich bekenne, dass ich mich regelmäßig selbst zitiere, nämlich dort, wo es meiner Meinung nach auf der Hand liegt.

    Ich erinnere mich aber auch an eine Evaluation an meinem Institut, für die wir die Zitationszahlen unserer Arbeiten im Web of Science heraussuchen mussten – und davon die Selbstzitate abziehen. Zum Glück hat sich die Evaluationswut an meinem Institut aber wieder etwas gelegt. Die nationale Kritik an der Praxis hat hier Früchte getragen.

    Klar könnte man das einfach aus dem h-Index herausrechnen. Man könnte aber wohl nur schwer kontrollieren, falls jemand nach einem Namenswechsel Selbstzitate unterjubelt.

    Den h-Index sollte man aber aus einem ganz anderen Grund aufgeben: Er unterscheidet nämlich nicht zwischen Erst-, Letzt- und anderer Autorenschaft.

    Wenn etwa 100 Forscherinnen und Forscher beschließen würden, sich gegenseitig auf ihre Papers zu nehmen (in der Genetik etwa sind große Autorenteams nichts Außergewöhnliches mehr) und gegenseitig diese Papers zu zitieren, dann hätte sie alle einen immens hohen h-Index von mindestens 100.

    (Klar, dass man Papers, die noch nicht erschienen sind, nicht so ohne Weiteres zitieren kann; es geht ums Prinzip.)

    Damit sind wir schon wieder bei der nächsten Optimierungsstrategie, nämlich einander mit aufs Paper zu nehmen, unabhängig von der erbrachten Leistung. Manche handeln sogar damit. Mir wurde das auch schon einmal angeboten.

    So eine “tadelnswerte Praxis” hat keine Nachteile und nur Vorteile für die Beteiligten. Stellen Sie sich vor, Sie könnten einen 100-Euro-Schein teilen, und jeder, mit dem Sie “teilen”, bekäme einen eigenen 100-Euro-Schein. Komische Welt wäre das…

    P.S. Wissen Sie, wer den höchsten h-Index aller Zeiten hat? Karl Marx, gefolgt von Sigmund Freud.

  4. @Name: Quantifizieren und Empirie

    Weil das so ein wichtiger Punkt ist, der eigentlich einen eigenen Beitrag verdient… Vielleicht ein andermal. Aber hier eben kurz:

    Die Quantifizierung der eigenen Forschungsarbeit abzulehnen würde dem Mantra empirischer Wissenschaften, alles zu quantifizieren, einen Anschein von Doppelmoral geben.

    Ich kann alles quantifizieren, z.B. wie gut Sie im Bett sind, indem ich Ihre Ex-PartnerInnen nach einer Zahl auf einer Skala von 1 bis 10 Frage. Wie viel der Qualität des Geschlechtsverkehrs würde das erklären? Vielleicht 5%? Und was, wenn die Werte stark streuen? Wer hat dann Recht?

    Sie können quantifizieren und quantifizieren und quantifizieren… sollten aber niemals vergessen, dass jede (fürs Forschen notwendige) Reduktion eben das ist: eine Reduktion. Das heißt, nach der Reduktion sprechen wir nicht mehr über dasselbe Phänomen; die Quantifizierung des Sex ist nicht dieser Sex, sondern nur eine sehr grobe Repräsentation desselben.

    Die Quantifizierung ist nicht Selbstzweck, sondern pragmatisches Mittel zum Zweck der Erforschbarkeit.

    Davon abgesehen möchte ich noch Ihren Begriff von “Empirie” kritisieren: Dieser bedeutet wortwörtlich Erfahrung. Das schließt auch qualitative Forschung und sogar die Phänomenologie mit ein, die auch ohne (oder zumindest in geringem Maße mit) Quantifizierung auskommen.

Schreibe einen Kommentar




Bitte ausrechnen und die Zahl (Ziffern) eingeben