Evidenzbasiert entscheiden Teil 1: Die Mathematik des Ernstnehmens
Alle Teile der kurzen Serie: Teil 1, Teil 2, Teil 3, Teil 4
Ich hatte in einem früheren Blogbeitrag (in dem es um bzw. gegen Übervereinfachung bei evidenzbasierter Medizin und Pandemie ging) die bayessche Statistik als einen Rahmen erwähnt, in dem man Entscheidungen zwischen verschiedenen Modellen der Wirklichkeit oder auch zwischen verschiedenen Hypothesen treffen kann – evidenzbasiertes Entscheiden, das Situationen wie z.B. einer aktuellen Pandemie gerecht wird und mathematisch gut fundiert ist. Bayessche Statistik ist hier auf den SciLogs nichts Neues; ich habe gesehen, dass z.B. Kollege Honerkamp einen Beitrag zum Bayesschen Theorem online hat. Aber es lohnt sich, denke ich, trotzdem, das Thema hier noch einmal elementar zu behandeln. Der Aspekt, den ich am wichtigsten finde und den ich daher hier besonders betone, ist die Rolle bayesscher Statistik als Alltags-Werkzeug. So, wie wir auch die Grundregeln der Logik im Alltag beim Argumentieren anwenden – und sie eben bei weitem nicht nur den wissenschaftlichen Studien überlassen – können uns auch bayessche Abschätzungen dabei helfen, besser, konsistenter und evidenzbasierter zu argumentieren. Das Ergebnis ist eine Art Mathematik des Ernstnehmens.
Die Mathematik des Ernstnehmens
Fangen wir in punkto Alltagstauglichkeit damit an, dass wir den abstrakten Begriff der Wahrscheinlichkeit durch einen Begriff ersetzen, den man in der Mathematik erst einmal nicht vermuten würde, so subkjektiv wie er ist: Wie ernst nehmen wir eine bestimmte Aussage, oder auch ein bestimmtes Erklärungsmodell? Anders formuliert: Wie groß ist unser Vertrauen, dass jene Aussage richtig ist, dass das Erklärungsmodell die entscheidenden Facetten der Wirklichkeit korrekt beschreibt?
Wenn wir dieses Ernstnehmen quantifizieren, ihm also eine Zahl zuordnen wollen, können wir wie folgt vorgehen. Der größtmöglichen Sicherheit sollte auch die größtmögliche Zahl unserer Skala zugeordnet werden. Wählen wir dazu den Wert 1 (zu den Hintergründen dieser Wahl später noch etwas mehr). Wenn wir absolut sicher sind, dass das Erklärungsmodell falsch ist, die Aussage nicht zutrifft, weisen wir den kleinsten Wert unserer Skala zu: Null. Unsere Zuverlässigkeits- oder Ernstnehm-Skala reicht damit von 0 bis 1.
Als nächstes sorgen wir dafür, dass unsere Zuweisung sinnvoll die Verhältnisse beschreibt, wenn sich Aussagen wechselseitig ausschließen. Im einfachsten Fall sollte klar sein, dass wir zwei Aussagen, von denen per Definition nur eine wahr sein kann, nicht jeweils den Wert 1 zuweisen können. Wenn wir uns der einen Aussage absolut sicher sind, können wir uns nicht gleichzeitig des Gegenteils oder einer Alternative sicher sein, die mit jener ersten Aussage unvereinbar ist. Insbesondere dass entweder eine bestimmte Aussage oder ihr Gegenteil (Komplement) richtig ist, sollte ja immer richtig sein und von uns entsprechend den Ernstnehmens-Wert 1 zugewiesen bekommen. (Dass wir hier strenggenommen über eindeutig formulierte Aussagen reden und unsere Methodik auf vage oder unklare Aussagen nur bedingt anwendbar ist, lasse ich hier erst einmal beiseite.)
Summeneigenschaft des Ernstnehmens
Eine naheliegende Wahl ist, dass wir dem Gegenteil jeder Aussage genau denjenigen Ernstnehmen-Wert zuordnen, der sich mit dem Ernstnehmen-Wert der Aussage selbst zu 1 addiert. Wenn wir absolut sicher sind, dass die Aussage stimmt (Wert 1) dann sind wir uns automatisch sicher, dass das Gegenteil der Aussage nicht stimmt (Wert 0). Mit dieser Wahl bekommt dann insbesondere auch der Ernstnehmen-Wert 0.5 eine einfache Bedeutung: Ihn weisen wir Aussagen zu, bei denen wir perfekt unentschieden sind, ob die Aussage oder ob ihr Gegenteil zutrifft. Genau dann bekommt zum einen die Aussage selbst den Ernstnehmen-Wert 0.5 zugewiesen, aber ihr Gegenteil bekommt genau denselben Wert zugewiesen. Die Summe ist, wie gefordert, 1.
Wir können noch etwas weitergehen und sagen: Diese Komplementaritäts-Eigenschaft soll auch dort gelten, wo wir es nicht nur zwischen einer Aussage und ihrem Gegenteil zu tun haben, sondern mit mehr als zwei sich ausschließenden, aber sich ergänzenden Aussagen. Ein Beispiel, und das riecht dann schon mehr nach Mathematik ist ein Würfelwurf, bei dem als Ergebnis 1, 2, 3, 4, 5 oder 6 herauskommen kann. Wenn wir die Aussage “Der Würfel zeigt 1” als sicher ansehen, dann bleibt für die Aussagen “Der Würfel zeigt 2” bis “Der Würfel zeigt 6” jeweils nur der Ernstnehmen-Wert Null übrig. Wenn wir keinen Grund haben, eine jener Aussagen den anderen vorzuziehen – beispielsweise weil es um Vorhersagen der Form “Der Würfel wird wenn er zur Ruhe gekommen ist eine 1 zeigen” geht anstatt um feststehende Ergebnisse – dann sollten wir jeder der sechs Möglichkeiten denselben Ernstnehmen-Wert zuordnen. Und wenn wir sicher sind, dass eine der Möglichkeiten nachher tatsächlich zutreffen wird, sollten wir jenem Kombinations-Ergebnis “der Würfel wird nach dem Wurf 1, 2, 3, 4, 5 oder 6 zeigen” unseren Wert für Sicherheit zuordnen: 1.
All das legt nahe, dass wir für unsere Ernstnehmen-Zahl die folgende Eigenschaft annehmen sollten: Wenn wir für sich einerseits ausschließende, andererseits ergänzende Aussagen wie unsere sechs Würfel-Ergebnismöglichkeiten die Ernstnehmen-Werte addieren, dann erhalten wir den Ernstnehmen-Wert dafür, dass eine beliebige jener Aussagen wahr ist (mathematisches “oder”). Am Beispiel: der Ernstnehmen-Wert von “der Würfel zeigt wenn er zur Ruhe gekommen ist entweder eine 1 oder eine 2” ist die Summe der Werte für “der Würfel zeigt … eine 1” und für “der Würfel zeigt … eine 2”.
Wahrscheinlichkeit, Ernstnehmen, Zuverlässigkeit
Kenner*innen haben an dieser Stelle sicher gemerkt, dass meine Ernstnehmen-Werte damit bereits die drei Kolmogorow-Axiome erfüllen und damit das sind, was in der Mathematik “Wahrscheinlichkeiten” heißt. Im allgemeinen Sprachgebrauch ist Wahrscheinlichkeit, im Wortsinne das wahr-scheinen, ja auch etwas, das wir Aussagen zuweisen um zu entscheiden, wie ernst wir sie nehmen müssen.
Die Axiome sind durchaus naheliegend als Beschreibung dafür, wie eine systematische Abschätzung von Vertrauen bzw. Ernstnehmen laufen sollte. Das schöne daran, sich auf eine Quantifizierung einzulassen, ist, dass sich damit dann auch komplexere Ernstnehmen-Situationen beschreiben lassen. Unsere Einschätzungen bekommen einen systematischen Unterbau.
Das wird manchmal als eine (von mehreren möglichen) Interpretationen des Wahrscheinlichkeitsbegriffs bezeichnet. Die häufigste Alternative ist der frequentistische Wahrscheinlichkeitsbegriff, der Wahrscheinlichkeiten mit Häufigkeiten in Verbindung bringt – liegt die Wahrscheinlichkeit, mit einem Würfel eine Sechs zu würfeln, bei 1/6, dann kann ich bei 60 Würfen “erwarten”, 10 Mal die Sechs zu würfeln. (Das “erwarten” steht in Anführungszeichen, weil da der Teufel im Detail steckt. Auch Fluktuationen gehören zu Wahrscheinlichkeiten dazu.) Ich finde den Interpretations-Begriff an jener Stelle nicht so hilfreich. Mir geht es von vornherein darum, Ernstnehm-Urteile zu quantifizieren. Dabei kommt die Mathematik der Wahrscheinlichkeiten recht natürlich ins Spiel. Das zwingt mich aber nicht dazu, jene Deutung überall dort zu verlangen, wo es um Wahrscheinlichkeiten geht.
Spätestens hier ist günstig, zumindest etwas Notation einzuführen, um die Beschreibung zu straffen. Ich borge mir bei der Mathematik die entsprechende Notation und bezeichne die Ernsthaftigkeits-Zahl, die Wahrscheinlichkeit, die wir der Aussage \(A\) zuordnen, als \(P(A)\) (ursprünglich von P = probability = Wahrscheinlichkeit).
Daten nutzen
Letztlich wollen wir die Wirklichkeit möglichst realistisch, möglichst zutreffend beschreiben. Welche Aussagen wir treffen, soll nicht primär von innerer Überzeugung oder gar einer Offenbarung abhängen, sondern sich an dem orientieren, was uns an Informationen zugänglich ist. Uns interessieren Erklärungen, die unseren Informationen nach am wahrscheinlichsten sind – wahrscheinlicher als alternative Erklärungen. Wir benötigen also eine Möglichkeit um auszudrücken, wie sich unsere Einschätzung je nach Datenlage ändern.
Der mathematische Ausdruck dafür ist wieder eher abstrakt: bedingte Wahrscheinlichkeiten. Was sich dahinter verbirgt, ist im Gegenteil sehr direkt. Nehmen wir als Beispiel die Einschätzung, ob eine Person, die vor uns steht, Polizist(in ist oder nicht. Verfüge ich über keinerlei weitere Informationen habe, dann werde ich der Aussage “die Person, die vor mir steht, ist Polizist*in” keinen besonders hohen Ernstnehm-Wert zuordnen. Eine mögliche Abschätzung wäre: Es gibt in Deutschland rund 317.000 Polizist*innen (Länder, Bund), aber insgesamt 84 Millionen Einwohnerinnen. Steht vor mir tatsächlich eine zufällig ausgewählte Person, dann wäre die Wahrscheinlichkeit, dass die Zufallsauswahl mir ausgerechnet eine*n der Polizist*innen beschert hat, 317.000 geteilt durch 84 Millionen, oder 0,0038.
Anders ist die Lage, wenn die Person vor mir eine echt aussehende Polizeiuniform trägt. Liegt das Datum “Person trägt echt aussehende Polizeiuniform” vor, dann ändert sich meine Einschätzung drastisch. Eine solche bedingte Einschätzung, “wenn die Daten D vorliegen, dann hat meine Einschätzung den Wert X” heißt bedingte Wahrscheinlichkeit und wird geschrieben als \(P(A|D)\). Das ist der Ernstnehm-Wert, den ich der Aussage A zuweise, wenn ich weiß, dass die Aussage D zutrifft. Oder anders gesagt: Der Ernstnehm-Wert, den ich A zuweise, wenn ich die Daten D vorliegen habe. Und wie jede wenn-dann-Kombination kann die Zuweisung auch hypothetisch sein: der Ernstnehm-Wert, den ich A zuweisen würde, wenn ich die Daten D vorliegen hätte.
In dem speziellen Falle, dass \(D\) die Aussage “die Person vor mir trägt eine echt aussehende Polizeiuniform” und \(A\) die Aussage “die vor mir stehende Person ist Polizist*in” ist, fällt \(P(A|D)\) deutlich höher aus als der Ernstnehm-Wert der Aussage ohne Vorliegen der Daten \(P(A)\). Die Daten erhöhen mein Zutrauen in die Aussage, und zwar ganz beträchtlich.
Umgekehrt: Stünde ein Kind vor mir, wäre \(D’\) also “die betreffende Person sieht wie ein Kind aus”, würde die entsprechende bedingte Wahrscheinlichkeit \(P(A|D’)\), es mit einer/einem (echten) Polizist*in zu tun zu haben, durch jene Zusatzinformation deutlich sinken.
Solche Wahrscheinlichkeiten-auf-Datenbasis möchten wir letztlich ausrechnen. Denn so sollten ja idealerweise sowohl wissenschaftliche Untersuchungen als auch systematische Einschätzungen als Grundlage politischer oder anderer Entscheidungsprozesse funktionieren: indem wir möglichst solide Schlüsse aus den vorhandenen Daten ziehen. Treffen wir auf der Basis von Daten \(D\) eine Aussage \(A_1\) darüber, wie die Welt funktioniert, oder was in einer bestimmten Situation passiert ist, dann interessiert uns, wie ernst wir jene Aussage in Anbetracht der Daten nehmen sollten, \(P(A_1|D)\), und dann meist noch, wie jener Ernstnehm-Wert für die konkurrierende Erklärung \(A_2\) aussieht, nämlich \(P(A_2|D)\).
Eine Anmerkung nach: Was ich hier “Daten” nenne, das hat sich an den Formulierungen ja schon gezeigt, lässt sich seinerseits natürlich auch durch Aussagen beschreiben, denen ich, wenn ich mir nicht sicher bin, einen Ernstnehm-Wert zuordnen kann. Dieser Umstand wird später noch wichtig.
Mehrere Aussagen gleichzeitig ernstnehmen
Es gibt noch eine weitere häufige Situation, die wir in Bezug auf das Ernstnehmen beschreiben müssen, und das ist die Kombination von Aussagen mit dem “logischen und”: Wenn wir zwei separaten Aussagen A und B die Ernstnehm-Werte \(P(A)\) und \(P(B)\) zuordnen, welchen Ernstnehm-Wert sollten wir dann A und B gemeinsam zuordnen – wie ernst sollten wir die Möglichkeit nehmen, dass beide, sowohl A als auch B, zutreffen? Wir können das umformulieren zu: Was ist die Wahrscheinlichkeit, dass die Aussage “A und B”, in der Mathematik oft geschrieben als \(A\wedge B\), wahr ist?
Die Extremwerte Null und Eins geben uns an dieser Stelle willkommene Orientierung. Wenn wir sicher sind, dass A falsch ist, also \(P(A)=0,\) dann muss auch die Aussage \(A\wedge B\) sicher falsch sein, \(P(A\wedge B)=0.\) Denn wenn bereits A für sich genommen nicht zutrifft, dann kann ja “sowohl A als auch B” ebenfalls nicht zutreffen. Sind wir uns dagegen sicher, dass die Aussage A zutrifft, \(P(A)=1,\) dann hängt unsere Ernstnehm-Einschätzung für \(A\wedge B\) nur noch davon ab, wie ernst wir die Aussage B nehmen, als Formel ausgedrückt: \(P(A\wedge B)=P(B).\) In gewisser Weise ist eine gesichert wahre Aussage bei und-Aussagen so etwas wie ein “neutrales Element” – es ändert nichts an der Gesamteinschätzung – während eine gesichert falsche Aussage ein Dealbreaker ist, angesichts derer die zweite Komponente der und-Aussage nicht mehr ins Gewicht fällt. Mathematisch gesehen sind beide Fälle abgedeckt, wenn wir ganz allgemein
$$P(A\wedge B) = P(A)\cdot P(B)$$
postulieren. Das rechtfertigt nachträglich auch, warum die Konvention sinnvoll ist, den sicher wahren Aussagen den Ernstnehm-Wert 1 zuzuordnen und den sicher falschen den Ernstnehm-Wert 0, denn die Eigenschaften jener beiden Zahlen machen die Produkt-Schreibweise für den Ernstnehm-Wert von und-Aussagen überhaupt erst möglich.
Dass die Produktformel sinnvoll wiedergibt, was wir ihr zuschreiben, können wir am einfachsten nachprüfen, wenn wir als und-Aussage wiederum ein Beispiel wählen, in dem die Symmetrie (alle Aussagen gleich wahrscheinlich) und die Summeneigenschaft der Ernstnehm-Werte uns direkt zeigen, welchen Ernstnehm-Werten die und-Aussage hat. Einfachstes Beispiel ist der Münzwurf. Wenn ich zwei unterscheidbare Münzen unabhängig voneinander werfe, dann ergeben sich die Ernstnehm-Werte für die vier verschiedenen und-Aussagen “Münze 1 zeigt Kopf, Münze 2 zeigt Kopf”, “Münze 1 zeigt Zahl und Münze 2 zeigt Kopf”, “Münze 1 zeigt Kopf und Münze 2 zeigt Zahl” und “Münze 1 zeigt Zahl und Münze 2 zeigt Zahl” direkt aus der Symmetrie. Zumindest wenn die Ergebnisse für den Wurf von Münze 1 komplett unabhängig sind von denen des Wurfs von Münze 2, sind alle vier und-Aussagen gleichberechtigt.
Dass sich eine davon nach dem Durchführen der Würfe als wahr erweist, ist ganz sicher; mehr als die vier genannten Möglichkeiten gibt es beim Münzwurf realistischerweise nicht. (Das “realistischerweise” bezieht sich darauf, dass Münzen extrem selten auch einmal auf dem Rand balancierend zur Ruhe kommen könnten; diesen Fall lassen wir hier außen vor.) Vor Erfolgen des Münzwurfs bekommt daher jede der vier und-Aussagen denselben Wert zugewiesen, nämlich 1/4. Und das ist in der Tat das Produkt der Ernstnehm-Werte für die zwei Teil-Aussagen: “Münze 1 zeigt Kopf” und “Münze 1 zeigt Zahl” bekommen ja beim idealen Münzwurf, ebenfalls aus Gründen der Gleichberechtigung (Symmetrie) beide den Ernstnehm-Wert 1/2 zugewiesen, und analog für Münze 2.
Wichtig war bei der Argumentation natürlich, dass die beiden Münzen völlig unabhängig voneinander bei Kopf oder Zahl zur Ruhe kommen. Wären die Münzen in irgendeiner Weise miteinander gekoppelt, hätte das einfache Abzählen gleichberechtigter Kombinations-Ergebnisse nicht funktioniert. Die Produkt-Formel für die Verknüpfung der Ernstnehm-Werte von Aussagen funktioniert nur, wenn die Aussagen voneinander unabhängig sind. In der Schreibweise der bedingten Wahrscheinlichkeiten heißt das \(P(A|B)=P(A)\) und umgekehrt \(P(B|A)=P(B),\) und analog für das Gegenteil der jeweils als Vorbedingung herangezogenen Aussage. Sind B und A Aussagen zu unterschiedlichen Münzwürfen, oder auch zu unterschiedlichen Würfel-Würfen, ist diese Unabhängigkeit gegeben. Im obigen Polizisten-Identifikations-Beispiel dagegen war diese Art von Unabhängigkeit ausdrücklich nicht gegeben: Der Ernstnehm-Wert der Aussage “vor mir steht ein 13jähriges Kind” und der Aussage “die Person, die vor mir steht, ist ein*e Polizist*in” sind ja ausdrücklich nicht unabhängig voneinander, sondern die erste Aussage enthält Informationen die wichtig zum Einschätzen des Ernstnehm-Wertes der zweiten Aussage sind.
Aussagen, Hypothesen und (Erklärungs-)Modelle
In meinen Beispielen sind die Aussagen \(A\) bislang sehr einfach gewesen. Für realistischere Anwendungen können sie durchaus komplex sein. Ab einem bestimmten Komplexitätsgrad ist es natürlicher, sie nicht mehr nur als Aussagen oder Hypothesen anzusprechen sondern Erklärungsmodelle oder verkürzt Modelle zu nennen. Wenn ich Planetenbahnen beschreiben und meine Beschreibung auf die Probe stellen möchte, dann besteht mein Modell typischerweise aus der Newtonschen Mechanik, dem Newtonschen Gravitationsgesetz sowie bestimmten Annahmen über Orte, Massen und Geschwindigkeiten einer größeren Zahl von Himmelskörpern. Das ist deutlich mehr als das, woran die meisten von uns denken, wenn wir vom “Treffen einer Aussage” reden. Im Extremfall kann es bei den Bewertungen, die wir vornehmen, um ganze Weltbilder gehen.
Für den mathematischen Formalismus der Ernstnehmen-Werte bzw. Wahrscheinlichkeiten macht das keinen Unterschied. Aber um näher am Alltags-Sprachgebrauch zu bleiben, werde ich je nach Situation im folgenden von einer Aussage \(A\) oder eben von einem (Erklärungs-)Modell \(A\) reden, je nachdem was für mich an der entsprechenden Stelle die natürlichere Wortwahl ist. An der zugrundeliegenden Mathematik ändert das nichts.
Das soll es für Teil 1 dann auch schon gewesen sein. Unser Fundament für die Mathematik des Ernstnehmens ist gelegt. In Teil 2 geht es dann weiter mit einer praktischen Formel, bestimmte bedingte Wahrscheinlichkeiten miteinander zu verknüpfen: mit dem Satz von Bayes.
Ich fürchte, so gegen Ende des Textes blick ich nicht mehr durch.
P(A|B)=P(A)
A soll doch im Beispiel weiter oben die Aussage bedeuten, die Person ist Polizist.
B enthält eine Zusatzinformation (Person schaut aus wie ein Kind), mit deren Hilfe die Wahrscheinlichkeit der Aussage A überprüft werden kann.
Soll die Gleichung nun tatsächlich bedeuten, für die Abschätzung P(A) brauch ich B gar nicht mehr, auch wenn ich eine Katze vor mir stehen seh?
Nein, P(A|B)=P(A) gilt nur dort, wo die Aussagen unabhängig voneinander sind. Also z.B. “erster Würfel zeigt 6 und zweiter Würfel zeigt 5” bei zwei geworfenen Würfeln. Wenn die Aussagen nicht unabhängig sind, wie bei “vor mir sitzt eine Katze” und “das vor mir sitzende Wesen ist Polizist” sondern im Gegenteil die Wahrscheinlichkeit der einen die Wahrscheinlichkeit der zweiten Aussage beeinflusst, gilt jene Formel nicht. Ich nehme die Rückfrage aber mal zum Anlass, an der entsprechenden Stelle noch etwas zu ergänzen, insofern: danke für die Rückmeldung!
Okay, aber was bedeutet nun ganz konkret das Zeichen “|” ?
“∧” kann’s ja wohl bei den Münzwürfen nicht sein.
Oder vielleicht doch (das würde aber eine weitere Verständnisfrage meinerseits nach sich ziehen)?
P(A|D) ist die bedingte Wahrscheinlichkeit: der Ernstnehm-Wert, den ich der Aussage A zuweise, wenn ich weiß, dass die Aussage D zutrifft. Oder anders gesagt: Der Ernstnehm-Wert, den ich A zuweise, wenn ich die Daten D vorliegen habe. Habe ich im Haupttext jetzt entsprechend explizit ergänzt, danke für die Rückmeldung!
P(A | D ) ?
Also A ist eine Annnahme (Polizistin zu sein ) , D ist ein Faktum (eine Uniform tragen)
Wie kann man denn jetzt Zahlen einsetzen ? Besonders für D ?
Oder irre ich mich-
Auch hier die gleiche Frage, der senkrechte Strich dient der nur der Trennung von A und D oder kann ich jetzt rechnen ? Das Faktum Uniform tragen, welchen Wert weise ich dem zu. Nach der Wahrscheinlichkeit von falschen Polizisten ?
Wenn also P(A) = 0,0038 seien, und D wären 0,99 oder fast jeder Uniformträger wäre richtig ,dann erhöht sich die Wahrscheinlich von P (A|D) auf 0,0038/0,99 =3,83
Aber das wäre nach unserer Annahme, dass das Ergebnis nicht größer sein darf als 1 ?
Tatsächlich kann auch D als Annahme behandelt werden (auch ein Faktum ist ja letztlich eine besonders gut gesicherte Annahme). Der senkrechte Strich dient zunächst einmal nur dazu, klarzustellen, wie das Argument gelesen werden soll, nämlich als bedingte Wahrscheinlichkeit. Wie man damit rechnen kann zeigt dann Teil 2 (derzeit in Arbeit, hoffentlich in weniger als einer Stunde fertig und online).
Danke Herr Pössel,
Nachtrag, vielleicht müsste man die Wahrscheinlichkeiten von A und D addieren, der Gedanke ist mir gerade gekommen, dann wäre die Wahrscheinlichkeit
0,0038 + 0,99 = 0,9938 in diesem konkreten Fall fast 1, dass das eine echte Polizistin ist.
Ja, so bekommt die Sache ein Gesicht !
Nein, addieren würde ja im Gegenteil heißen, dass wir bei zwei unabhängigen Aussagen wissen wollen ob die eine oder die andere oder aber beide wahr sind (sprich: mathematisches “A oder B”). Etwas Geduld, Teil 2 kommt gleich!
Sie waren doch Lehrer, wissen Sie was aus Ihren Schülern geworden ist?
Joker
Die Schüler sind Polizist/innen geworden.
Wenn Herr Pössel uns noch die Formel zur Berechnung der Berufswahlwahrscheinlichkeit übermittelt, bekommtst du es auf das Komma genau.
Kann damit auch eine männliche Polizeikraft gemeint sein?
eine oder einen?
Habe ich jetzt komplett den Anschluß ans korrekte Gendern verpasst oder sind im Text Gendersternchen abhandengekommen?
Moment. Da sind (aber warum?) offenbar in der Tat Gendersternchen abhandengekommen. WordPress ist offenbar anti-woke 🙂
Habe jetzt korrigiert, was ich da gefunden hatte. Aber keine Ahnung, wie das passiert ist. Bester Fehlerkandidat ist ein Kopierprozess (die jetzige Mini-Serie war anfangs ein ellenlanger einzelner Blogtext). Danke jedenfalls für den Hinweis!
Warum einigen wir uns nicht einfach bei Polizist auf eine menschliche Person.
In “South Park” hatten wir es ja mal auch schon mit außerirdischen Polizisten zu tun. Die sollen hier nicht zählen (wäre zumindest mein Vorschlag).
Ich glaub, jetzt hab ich’s kapiert.
P(A|D) bedeutet: A ist ein Ernst nehm Wert. Zu dessen Ermittlung kann uns der
Ernst nehm Wert D helfen.
P(A|D): Fast. A ist die Aussage. D sind die Daten. P(A) wäre der Ernstnehm-Wert für A ganz allgemein. P(A|D) ist der Ernstnehm-Wert, den ich A zuordne, wenn ich bereits weiß, dass die Aussage D zutrifft, mit anderen Worten: wenn ich bereits die Daten D habe.
Kurzbeispiel: Bei fairem Würfel ist die Wahrscheinlichkeit (der Ernstnehm-Wert) für A= “der Würfel zeigt eine 4” genau 1/6. Wenn ich zusätzlich bereits weiß, dass das Ergebnis des Würfelwurfs eine gerade Augenzahl war, D = “das Ergebnis des Würfelwurfs war eine gerade Augenzahl”, dann verändert sich der Ernstnehm-Wert. Für einen idealen Würfel ist dann nämlich P(A|D)=1/3. Die zusätzliche Information hat meine Einschätzung verändert.