Fehler vermeiden – aber wie?

BLOG: Frey-händig

Kognition & Kooperation
Frey-händig

Nachdem ich nun schon in einigen Beiträgen über kognitive Fehler geschrieben habe, möchte ich auch einige Worte darüber verlieren, wie man diese Fehler vermeiden kann.

Dazu gibt es nun erstaunlicherweise wenig bis nichts an Literatur, jedenfalls in der Kognitionspsychologie. Der Fehler wird beschrieben und an einer Versuchsgruppe getestet, aber das war’s meist auch schon. Selbst eine Erklärung, wo der Fehler seine Ursache hat, fehlt oft. Typische Beispiele sind die Bestätigungstendenz, die Fehleinschätzung von Grundhäufigkeiten oder logische Inkonsistenzen. Wer mehr über Ursachen wissen will, wird eher in der technischen Unfallforschung fündig.

Es gibt aber nicht nur die Vermeidung von Fehlern, sondern auch den Versuch, kognitive Fehler als Artefakte des Labors zu entlarven. Hier ist vor allem ein Streit zwischen zwei Gruppen, nämlich zwischen Kahneman und Tversky und Gigerenzer und der ABC-Research Group bekannt geworden. Die dazugehörigen Forschungsprogramme heißen “heuristics-and-biases” und “simple heuristics”. So fragt die sehr bekannte Linda-Aufgabe nach Wahrscheinlichkeiten; Gigerenzer kritisiert hier beispielsweise, dass es bei einem einzigen Fall nicht um Wahrscheinlichkeiten gehen kann. Ein anderes Beispiel sind Häufigkeiten in Prozentangaben (5%) – formuliert man dieselben Aufgaben um, z. B. in “5 von 100”, dann tendieren viele Fehler in diesem Bereich dazu, zu verschwinden.

Nun zur Fehlervermeidung in der Wissenschaft: Um Fehler in Experimenten aufzufangen, sind die wichtigsten Maßnahmen zur Überprüfung Kontrollversuche, Randomisierung und Statistik.

Neben allgemeinen Mechanismen zur Fehlervermeidung und Fehlerkorrektur gibt es auch fachspezifische Methoden. Einige Beispiele: In der Medizin weist die Pathologie mittels Obduktionen mögliche Fehldiagnosen nach. Psychologie, Biologie und Medizin arbeiten mit Doppelblindversuchen und Placebos. Man arbeitet in der pharmazeutischen Medikamentenforschung mit High Throughput Screening massiv parallel, um Fehler durch Übersehen auszuschließen (und natürlich auch aus Geld- und Zeitgründen). In der Mathematik kann Widerspruchsfreiheit bewiesen werden. In der Informatik ist das für einfache Programme durch Formalisierung ebenfalls möglich.

Alle diese Meinungsstrategien sind allerdings nur bedingt wirkungsvoll gegen kognitive Fehler, da diese meist unbewusst, subtil und in allen Phasen der Forschung von der (verzerrten) Hypothesenbildung bis zum (fehlerhaften) Design von Experimenten vorkommen.

Selbstverständlich wäre es möglich, grundsätzlich gegen die doch sorglose Haltung gegenüber Fehlern vorzugehen. Der folgende Katalog zielt in diese Richtung:

 

  • Erwarte allgemein eine hohe Fehlerrate.

  • Benutze standardmäßig sämtliche sinnvollen Kontrollen und Überprüfungen, die zur Verfügung stehen.

  • Berücksichtige, dass es erhebliche kognitive Einflüsse bei Problemlösungsstrategien gibt.

  • Berücksichtige, dass viele Fehler nur schwer zu vermeiden sind.

  • Prüfe Forschungsergebnisse immer auf die bekannten kognitiven Fehler.

  • Benutze bekannte Fehlerraten von Experimenten, um die Strenge deiner Überprüfungen einschätzen zu können

 

Das ist allerdings schwer umzusetzen, teuer und zeitaufwändig. Für eine solche Umsetzung spricht natürlich, dass die Kosten fehlender Vermeidung ein Vielfaches betragen: So kostet eine wegen eines Softwarefehlers verglühte Marssonde (Mars Orbiter) mal eben 320 Millionen $ und pro Jahr müssen 130 Milliarden $ pro Jahr in den USA allein für Bekämpfungsmaßnahmen gegen neu eingeführte Arten ausgegeben werden!

Für eine bessere Fehlervermeidung auf wissenschaftlichem Niveau spricht auch, dass das Niveau der Fehlervermeidung bislang niedrig ist. Das bedeutet, dass Verbesserungen im Moment noch sehr billig zu haben sind und effizient sein sollten. Beispiele für das niedrige Niveau: eine Trägerrakete Ariane explodiert durch einen Integer Buffer-Overflow; etwa 45% der Fehler auf Intensivstationen sind vermeidbar…

Das bringt mich zu den letzten Punkt, der für eine bessere Fehlerforschung spricht, nämlich die oft katastrophalen Folgen. Die genannten Fehler auf Intensivstationen führen in 18 % der Fälle zu Tod oder Behinderung und allein 60 000 Tote in Deutschland pro Jahr allein durch Fehler mit Medikamenten sprechen eine deutliche Sprache.

Nun aber endlich zu den Möglichkeiten, Fehler zu vermeiden (einige sind im obigen Text bereits genannt worden):

 

  • Verwendung von Hilfsmitteln (Expertensysteme, Simulationen, usw.)

  • Lernen von guten Problemlösern

  • Alternativen, Begründungen ausdenken

  • Gruppenarbeit, Kontrollen, Wiederholungen,

  • Doppelblindversuche, Placebos, Randomisierung

  • Programmierung: Debugging-Techniken

  • Verwertung von Ergebnissen der technischen Unfallforschung

  • Verwendung von Null-Fehler-Konzepten in der Produktion

  • Qualitätsmanagement

  • Rekonstruktion von Katastrophen

  • Medizinische Fehlerberichtssysteme

Denjenigen, die diese Liste unbefriedigend oder sogar ad hoc finden, kann ich nur zustimmen. Aber leider ist man hier schlichtweg noch nicht weiter. Allein die Tatsache, dass erst in den letzten Jahren in Deutschland überhaupt an medizinische Fehlerberichtsystemen gedacht wird, spricht meines Erachtens Bände.

Noch besser wäre es, ich hätte wichtige Bereiche der Fehlervermeidungsforschung einfach übersehen – und es gibt sie doch, systematische, wirksame und praktikable Fehlervermeidungstrategien. Ich bin gespannt auf euer Feedback!

Avatar-Foto

Veröffentlicht von

Warum gibt es so viele Scheuklappen in unserem Denken? Warum machen wir dieselben Fehler immer wieder? Solche Fragen haben mich schon immer fasziniert. Um dieses Thema – Denkmuster und Denkfehler – wird es in diesem Blog deshalb öfter gehen. Mein zweites wissenschaftliches Interesse gilt der Frage, warum Menschen eigentlich nicht öfter kooperieren. Woran liegt das? Oder anders herum gefragt: Welche Bedingungen muss man schaffen, damit aus Egoisten Altruisten werden? Wie vermeidet man die "tragedy of the commons"? Dieses weite Feld reicht von der Kooperation zwischen Bakterien über den Erfolg von OpenSource bis zu den Problemen der Weltklimagipfel. Meiner Meinung nach sind in der Kooperationsforschung viele Lösungsansätze für Nachhaltigkeits-, Gerechtigkeits- und Umweltprobleme zu finden. Mit beiden Themen beschäftige ich mich im Rahmen meiner Forschung an der Universität Gießen als Postdoc bei Eckart Voland in der Soziobiologie. Dabei versuche ich das Beste aus den Welten der Philosophie und den Naturwissenschaften zu vereinen. Dass meine gesamte Arbeit stark von der Evolutionstheorie geprägt ist, verdanke ich wohl vor allem dem Einfluss meines Doktorvaters Gerhard Vollmer. Dr. Ulrich Frey

2 Kommentare

  1. Vielfalt

    Hallo Ulrich,

    danke für den Beitrag! Dein Buch empfehle ich weiterhin munter weiter und hoffe, dass es noch viele, viele Leser finden möge!

    Zum Beitrag möchte ich noch eine Ergänzung vorschlagen: Vielfalt. Wo Teams aus Menschen unterschiedlicher Fachrichtungen, Generationen, Geschlechter, Kulturen zusammen gesetzt sind, sinkt die Chance, dass bestimmte (z.B. kulturelle, gruppendynamische) “blinde Flecken” dauerhaft bestehen bleiben. Natürlich setzt das eine offene Kommunikationskultur voraus. Aber dann werden die Ergebnisse m.E. oft kreativer, anregender und fehlersicherer sein, als wenn nur ein Ansatz gruppendynamisch “durchgezogen” wird.

    Beste Grüße!

  2. Gruppen und Vielfalt

    Vielen Dank, Michael!

    Du weist zu Recht auf eine wichtige Quelle der Vermeidung hin: Gruppen, die mit ihrer Heterogenität verschiedene Meinungen und Ansichten produzieren und damit viele Fehler vermeiden können.

Schreibe einen Kommentar