Fehler vermeiden – aber wie?
BLOG: Frey-händig
Nachdem ich nun schon in einigen Beiträgen über kognitive Fehler geschrieben habe, möchte ich auch einige Worte darüber verlieren, wie man diese Fehler vermeiden kann.
Dazu gibt es nun erstaunlicherweise wenig bis nichts an Literatur, jedenfalls in der Kognitionspsychologie. Der Fehler wird beschrieben und an einer Versuchsgruppe getestet, aber das war’s meist auch schon. Selbst eine Erklärung, wo der Fehler seine Ursache hat, fehlt oft. Typische Beispiele sind die Bestätigungstendenz, die Fehleinschätzung von Grundhäufigkeiten oder logische Inkonsistenzen. Wer mehr über Ursachen wissen will, wird eher in der technischen Unfallforschung fündig.
Es gibt aber nicht nur die Vermeidung von Fehlern, sondern auch den Versuch, kognitive Fehler als Artefakte des Labors zu entlarven. Hier ist vor allem ein Streit zwischen zwei Gruppen, nämlich zwischen Kahneman und Tversky und Gigerenzer und der ABC-Research Group bekannt geworden. Die dazugehörigen Forschungsprogramme heißen “heuristics-and-biases” und “simple heuristics”. So fragt die sehr bekannte Linda-Aufgabe nach Wahrscheinlichkeiten; Gigerenzer kritisiert hier beispielsweise, dass es bei einem einzigen Fall nicht um Wahrscheinlichkeiten gehen kann. Ein anderes Beispiel sind Häufigkeiten in Prozentangaben (5%) – formuliert man dieselben Aufgaben um, z. B. in “5 von 100”, dann tendieren viele Fehler in diesem Bereich dazu, zu verschwinden.
Nun zur Fehlervermeidung in der Wissenschaft: Um Fehler in Experimenten aufzufangen, sind die wichtigsten Maßnahmen zur Überprüfung Kontrollversuche, Randomisierung und Statistik.
Neben allgemeinen Mechanismen zur Fehlervermeidung und Fehlerkorrektur gibt es auch fachspezifische Methoden. Einige Beispiele: In der Medizin weist die Pathologie mittels Obduktionen mögliche Fehldiagnosen nach. Psychologie, Biologie und Medizin arbeiten mit Doppelblindversuchen und Placebos. Man arbeitet in der pharmazeutischen Medikamentenforschung mit High Throughput Screening massiv parallel, um Fehler durch Übersehen auszuschließen (und natürlich auch aus Geld- und Zeitgründen). In der Mathematik kann Widerspruchsfreiheit bewiesen werden. In der Informatik ist das für einfache Programme durch Formalisierung ebenfalls möglich.
Alle diese Meinungsstrategien sind allerdings nur bedingt wirkungsvoll gegen kognitive Fehler, da diese meist unbewusst, subtil und in allen Phasen der Forschung von der (verzerrten) Hypothesenbildung bis zum (fehlerhaften) Design von Experimenten vorkommen.
Selbstverständlich wäre es möglich, grundsätzlich gegen die doch sorglose Haltung gegenüber Fehlern vorzugehen. Der folgende Katalog zielt in diese Richtung:
-
Erwarte allgemein eine hohe Fehlerrate.
-
Benutze standardmäßig sämtliche sinnvollen Kontrollen und Überprüfungen, die zur Verfügung stehen.
-
Berücksichtige, dass es erhebliche kognitive Einflüsse bei Problemlösungsstrategien gibt.
-
Berücksichtige, dass viele Fehler nur schwer zu vermeiden sind.
-
Prüfe Forschungsergebnisse immer auf die bekannten kognitiven Fehler.
-
Benutze bekannte Fehlerraten von Experimenten, um die Strenge deiner Überprüfungen einschätzen zu können
Das ist allerdings schwer umzusetzen, teuer und zeitaufwändig. Für eine solche Umsetzung spricht natürlich, dass die Kosten fehlender Vermeidung ein Vielfaches betragen: So kostet eine wegen eines Softwarefehlers verglühte Marssonde (Mars Orbiter) mal eben 320 Millionen $ und pro Jahr müssen 130 Milliarden $ pro Jahr in den USA allein für Bekämpfungsmaßnahmen gegen neu eingeführte Arten ausgegeben werden!
Für eine bessere Fehlervermeidung auf wissenschaftlichem Niveau spricht auch, dass das Niveau der Fehlervermeidung bislang niedrig ist. Das bedeutet, dass Verbesserungen im Moment noch sehr billig zu haben sind und effizient sein sollten. Beispiele für das niedrige Niveau: eine Trägerrakete Ariane explodiert durch einen Integer Buffer-Overflow; etwa 45% der Fehler auf Intensivstationen sind vermeidbar…
Das bringt mich zu den letzten Punkt, der für eine bessere Fehlerforschung spricht, nämlich die oft katastrophalen Folgen. Die genannten Fehler auf Intensivstationen führen in 18 % der Fälle zu Tod oder Behinderung und allein 60 000 Tote in Deutschland pro Jahr allein durch Fehler mit Medikamenten sprechen eine deutliche Sprache.
Nun aber endlich zu den Möglichkeiten, Fehler zu vermeiden (einige sind im obigen Text bereits genannt worden):
-
Verwendung von Hilfsmitteln (Expertensysteme, Simulationen, usw.)
-
Lernen von guten Problemlösern
-
Alternativen, Begründungen ausdenken
-
Gruppenarbeit, Kontrollen, Wiederholungen,
-
Doppelblindversuche, Placebos, Randomisierung
-
Programmierung: Debugging-Techniken
-
Verwertung von Ergebnissen der technischen Unfallforschung
-
Verwendung von Null-Fehler-Konzepten in der Produktion
-
Qualitätsmanagement
-
Rekonstruktion von Katastrophen
-
Medizinische Fehlerberichtssysteme
Denjenigen, die diese Liste unbefriedigend oder sogar ad hoc finden, kann ich nur zustimmen. Aber leider ist man hier schlichtweg noch nicht weiter. Allein die Tatsache, dass erst in den letzten Jahren in Deutschland überhaupt an medizinische Fehlerberichtsystemen gedacht wird, spricht meines Erachtens Bände.
Noch besser wäre es, ich hätte wichtige Bereiche der Fehlervermeidungsforschung einfach übersehen – und es gibt sie doch, systematische, wirksame und praktikable Fehlervermeidungstrategien. Ich bin gespannt auf euer Feedback!
Vielfalt
Hallo Ulrich,
danke für den Beitrag! Dein Buch empfehle ich weiterhin munter weiter und hoffe, dass es noch viele, viele Leser finden möge!
Zum Beitrag möchte ich noch eine Ergänzung vorschlagen: Vielfalt. Wo Teams aus Menschen unterschiedlicher Fachrichtungen, Generationen, Geschlechter, Kulturen zusammen gesetzt sind, sinkt die Chance, dass bestimmte (z.B. kulturelle, gruppendynamische) “blinde Flecken” dauerhaft bestehen bleiben. Natürlich setzt das eine offene Kommunikationskultur voraus. Aber dann werden die Ergebnisse m.E. oft kreativer, anregender und fehlersicherer sein, als wenn nur ein Ansatz gruppendynamisch “durchgezogen” wird.
Beste Grüße!
Gruppen und Vielfalt
Vielen Dank, Michael!
Du weist zu Recht auf eine wichtige Quelle der Vermeidung hin: Gruppen, die mit ihrer Heterogenität verschiedene Meinungen und Ansichten produzieren und damit viele Fehler vermeiden können.