Umgang mit unsicherem Wissen: Glaubwürdigkeit und Wahrscheinlichkeit

Seitdem ich in dem Blogbeitrag über die Anfänge der Logik berichtet habe, dass Aristoteles die Schlussfolgerungen in logische und dialektische unterschieden hat, habe ich mich ausschließlich mit dem logischen Schluss, dem Beweis beschäftigt.  Ich habe dabei die Grundzüge der Aristotelischen Logik und die der modernen Logik vorgestellt und deren gemeinsame Struktur dargelegt. Nun ist es Zeit, sich auch mit dem dialektischen Schluss zu befassen, begegnet ein solcher uns doch viel eher bei Reden und Diskussionen im täglichen Leben.

Aristoteles nennt einen Schluss dann dialektisch, wenn die Annahmen in der Schlussformel nur glaubwürdig sind, also nicht unbedingt als wahr erkannt werden können. Wie haben es also jetzt mit Aussagen zu tun, die nicht nur entweder wahr oder falsch sind. Sie können auch noch etwas anderes sein, und für dieses andere, die Glaubwürdigkeit, können wir nicht einmal einen festen Wert angeben, sondern müssen wohl verschiedene Grade zulassen. Hier kommt offensichtlich auch ein subjektives Element in die Diskussion. Ein hart gesottener Mathematiker oder Physiker würde sofort abwinken und entrüstet denken: „So etwas kommt bei uns nicht in Frage“.  In der Tat muss man ja auch nicht bei einer ersten subjektiven Einschätzung bleiben. Wir werden ein Theorem kennenlernen, mit Hilfe dessen man systematisch auf der Basis von empirisch gewonnenen Befunden den Glaubwürdigkeitsgrad entsprechend verändern kann. Damit wird die erste, subjektive Einschätzung der Glaubwürdigkeit nur zu einem Ausgangspunkt, einem a-priori Wissen. Mit diesem Theorem besitzt man ein verlässliches Verfahren, um „das Bessere zu finden“, d.h. in diesem Falle, den Grad der Glaubwürdigkeit empirischen Daten anzupassen.

Wie wir aus einem früheren Blogbeitrag wissen, besitzt die Aussagenlogik die Struktur eines Booleschen Verbands und die dichotome Bewertung der Aussagen in wahr bzw. falsch wird durch eine Abbildung auf einen zweiwertigen Booleschen Verband beschrieben. So liegt es nahe, statt dieser zweiwertigen Abbildung nun eine allgemeinere Abbildung zu betrachten, und zwar eine Abbildung auf ein Intervall aller reellen Zahlen zwischen 0 und 1, einschließlich der Randwerte 0 und 1. Die Zahlen sollen den Grad der Glaubwürdigkeit bezeichnen, insbesondere soll dann die Zahl „1“ für „mit Sicherheit wahr“, die „0“ für „mit Sicherheit falsch“ stehen.

Für diese Abbildung werden wir diejenige Struktur fordern, die man für die mathematische Wahrscheinlichkeitstheorie entwickelt hat. Das ist nicht riskant. Da in unserer Umgangssprache die Begriffe ja alle nicht scharf definiert sind, haben wir das Recht, jetzt die Glaubwürdigkeit einer Aussage zu deuten als die Wahrscheinlichkeit, dass sie wahr ist. Dadurch wird dem subjektiven Charakter der Zuordnung zwar nicht abgeholfen, wir nutzen aber eine Struktur der Mathematik, die „einen sicheren Gang“ bei der weiteren Argumentation gewährleistet. Wir müssen hier also zunächst auf die Elemente der Wahrscheinlichkeitstheorie zu sprechen kommen.  

Ergebnisse, Ereignisse, Aussagen

Die Wahrscheinlichkeitstheorie ist entstanden, als man begann, sich Gedanken darüber zu machen, ob man bei Glücksspielen oder allgemein bei Handlungen mit unsicherem Ausgang gewisse Regelmäßigkeiten entdecken kann. Sie gehört damit auch zur Grundlage aller systematischen Bemühungen um eine Interpretation von Experimenten und Beobachtungen. Man hat es also immer damit zu tun, dass verschiedene Ergebnisse bei einem Experiment oder einer Beobachtung möglich sind. Ein Prototyp für eine solche Situation stellt ein Würfelspiel dar.

Man betrachte also einen üblichen Würfel, mit dem man bei einem Wurf als Ergebnis eine Augenzahl zwischen 1 und 6 erhält. Es gibt also sechs mögliche Ergebnisse. Die Menge aller Ergebnisse stellt den so genannten Ergebnisraum Ω dar; hier ist dieser also die Menge {1,2,3,4,5,6}.

Es ist nützlich, neben Ergebnissen auch noch den Begriff der Ereignisse einzuführen.  Ereignisse sollen Teilmengen von Ω sein, also Mengen von möglichen Ergebnissen wie {1}, {1,2,3} oder {1,2,3,5}. Ereignisse wie {1}, {2}, … {6}, die jeweils nur ein Ergebnis enthalten, heißen Elementarereignisse.

Ereignisse sind also Mengen. Aus dem Blogbeitrag „Boolesche Verbände“ kennen wir die unterliegende Struktur, nämlich die eines Booleschen Verbandes, die auch Struktur der Aussagenlogik ist. Wir machen also nichts falsch, wenn mir mit den Ereignissen rechnen wie mit den Aussagen und umgekehrt. Dazu brauchen wir nur ein Eintreten eines Ereignisses als Aussage formulieren, wie z.B.

A: = „Die Augenzahl liegt in der Menge {1}, d.h. ist 1“, oder

B: = „Die Augenzahl liegt in der Menge {2,4,6}.

Die Wahrscheinlichkeit, dass solche Aussagen wahr sind, bezeichnen wir also als deren Glaubwürdigkeit.

Wir haben somit wieder eine Aussagenstruktur vor Augen. Verknüpfungen von Aussagen wie z.B.

¬B = „Die Augenzahl liegt nicht in der Menge {2,4,6}“, oder

A ∨ B = „Die Augenzahl ist 1“ oder „Die Augenzahl liegt in der Menge {2,4,6}“

ergeben einen Sinn und sind entweder wahr oder falsch. Würden wir zunächst in der Mengeninterpretation bleiben, so würden wir in diesem Falle die Vereinigungsmenge

A ∪ B = {1,2,4,6}

bilden und erhielten nach Übergang zur Aussageninterpretation die gleiche Aussage.

Es gibt eine Tautologie ⊤ wie „Die Augenzahl ist {1}“ ∨ „Die Augenzahl ist nicht {1}“. Die Tautologie ist in der Mengeninterpretation also gleich der Menge {1} ∪ {2,3,4,5,6} = {1,2,3,4,5,6], d.h. gleich Ω. Auch gibt es einen Widerspruch „⊥“ wie „Die Augenzahl ist {1}“ und „Die Augenzahl ist nicht {1}“, d.h. der Durchschnitt {1} ∩ {2,3,4,5,6} ist gleich der leeren Menge, welche dem Widerspruch in der Aussageninterpretation entspricht.

Oft spielen Ereignisräume mit nur zwei sich gegeneinander ausschließenden Ergebnissen eine Rolle. Dann hat man schon mit einer Aussage über ein Ergebnis K und seiner Negation ¬K alle Aussagen über die möglichen Ereignisse erfasst, es ist dann Ω = {K, ¬K}. In der Medizin findet man dafür viele Beispiele, denn dort muss man ja oft mit unsicherem Wissen umgehen. Ein prominentes Beispiel ist:

K: = „Der Patient hat Krebs“, und

¬K: = „Der Patient hat nicht Krebs“.

Wir werden bald weitere solcher Beispiele kennen lernen.

Wahrscheinlichkeit als ein Maß für Glaubwürdigkeit

Wir können also alle Ereignisse in Form von Aussagen formulieren. Nun müssen wir die Abbildung konstruieren, die uns ein Maß für eine „Glaubwürdigkeit“ liefern und dabei an die Stelle desjenigen zweiwertigen Booleschen Verband treten soll, der uns auf die Dichotomie „wahr/falsch“ in der Aussagenlogik geführt hat.

Wir definieren dazu eine Funktion bzw. Abbildung P, die jeder Aussage eine Zahl zwischen 0 und 1 einschließlich der Randwerte zuordnet und die dabei folgende Eigenschaften besitzt:

  • P(⊥) = 0,   P(⊤) = 1,
  • Gilt A ⊆ B, so gilt P(A) ≤ P(B),
  • Wenn A, B, C, … paarweise disjunkt sind, dann ist 

P(A ∨ B ∨ C ∨ …)  = P(A) + P(B) + P(C) + ….

Dies sind auch die Axiome, mit denen der russische Mathematiker Andrei Nicolajewitsch Kolmogorov (1903-1987) eine feste mathematische Grundlage für eine Wahrscheinlichkeitstheorie formuliert hat, in der also die Funktion P(A) als Wahrscheinlichkeit für das Auftreten eines Ereignisses A interpretiert. Hier interpretieren wir nun P(A) als Glaubwürdigkeit einer Aussage A. Ist 1/2 < P(A) < 1, so hält man A eher für wahr, ist 0 < P(A) < 1/2, so hält man A eher für falsch. Für eine wahre Aussage gilt P(A) = 1, für eine falsche Aussage gilt P(A) = 0.

Einige Bemerkungen sind aber dabei am Platze:

  • Wenn A ⊆ B, so heißt das für Aussagen:  A ∧ B = A. Die Relation P(A) ≤ P(B) ist dann plausibel. Sei z.B. im Würfelspiel A = {1}, B = {1,2,3}.  Dann gilt offensichtlich A ⊆ B. Ich kann also eher glauben, dass sich beim Würfeln eine Augenzahl aus der Menge {1,2,3} ergibt als dass sich gerade „1“ ergibt.
  • Im dritten Axiom ist von paarweise disjunkten Mengen A, B die Rede. Damit ist gemeint, dass A ∩ B = 0, also gleich der leeren Menge ist. Zwei Aussagen A und B stehen aber nur in dem entsprechenden Verhältnis, wenn sie in Negation zu einander stehen, z.B. B = ¬A ist. Dann ist aber A ∨ B eine Tautologie, also gleich ⊤. Damit folgt aus dem 3. Axiom mit P(⊤) = 1:

      P(A ∨ B) = P(A) + P(¬A) = 1, und also

      P(¬A) = 1 – P(A).

  • Es gilt:

     P(A ∧ B) = P(A) + P(B) – P(A ∨ B).

     Für einen Beweis siehe Wikipedia: Wahrscheinlichkeitstheorie.

Diese Nutzung der Axiome der Wahrscheinlichkeitstheorie für eine „Glaubwürdigkeits-Theorie“ nennt man nach dem englischen Philosophen, Mathematiker und presbyterianischen Pfarrer Thomas Bayes (1701 bis 1761) auch „Bayessche Wahrscheinlichkeitstheorie“. Im Englischen spricht man in diesem Rahmen auch oft von „Belief“ statt von „Probability“.  Ein berühmtes Theorem, welches auch nach Bayes benannt wird, ist Thema des nächsten Blogbeitrags.

Oft steht aber eine andere Interpretation des Zeichens „P“ im Vordergrund. Diese ist die so genannte frequentistische Interpretation. Da stellt man sich vor, dass für alle Einzelereignisse A aus dem Ereignisraum Ω die Werte P(A) von Natur aus gegeben sind, sei es bei einem Experiment oder bei einer Beobachtung. Will man diese Wahrscheinlichkeitswerte kennen lernen, so muss man das Experiment bzw. die Beobachtung N mal wiederholen und die Häufigkeit nA notieren, mit der sich ein Einzelergebnis A ergeben hat. Mit dem Verhältnis nA/N hat man dann einen Schätzwert für P(A) gewonnen. Man wird feststellen, dass sich dieser Schätzwert in der Regel mit zunehmendem N immer weniger verändert, man damit einen immer genaueren Wert für P(A) erhält. Man hat sich hiermit ein Problem der Datenanalyse eingehandelt, einer mathematischen Disziplin, in der man Methoden entwickelt, mit denen man aus Daten verlässlich auf bestimmte Größen in einer Theorie schließen kann. Das ist ein weites Feld, das aber hier nicht zum Thema gehört.

Es gibt also zwei Vorstellungen davon, was man unter einer Wahrscheinlichkeit verstehen soll. Eine, in der man ein a-priori-Wissen nutzt, und eine, in der man die Wahrscheinlichkeitsverteilung als vorliegend betrachtet und empirisch zu bestimmen sucht. Diese Tatsache hat in der Geschichte zu vielen Diskussionen Anlass gegeben. Man stritt darüber, wie denn die Wahrscheinlichkeit wirklich definiert sei. Im ersten Fall würde man sagen, sie sei ein „gefühlter Grad an Sicherheit“, ein Maß für die Stärke eines „Glaubens“ an die Wahrheit der Aussage, ein „Belief“. Im zweiten Fall wird die Wahrscheinlichkeit der Einzelereignisse einer irgendwie zu definierenden Gesamtheit diesen als Eigenschaft zugesprochen, die man mit einem Experiment, mindestens über einem Gedankenexperiment, messen kann. Im Würfelexperiment wäre diese Gesamtheit eine im Prinzip unendliche Menge von Würfen.

Der Streit über die „richtige“ Definition ist natürlich völlig überflüssig ist. Eine mathematische Struktur ist auf der syntaktischen Ebene durch die Axiome festgelegt und kann auf der Ebene der Semantik verschieden interpretiert werden. Wir können die Größe P(A) als ein Maß für die Glaubwürdigkeit der Aussagen ansehen oder aber auch als ein Maß dafür, zu welchem Prozentsatz diese Aussage bei einer im Prinzip unendlich häufigen Wiederholung wahr ist.

Wir wollen in Folgenden immer von der Glaubwürdigkeit reden. Hiermit knüpfen wir an den Begriff des dialektischen Schlusses an.

Die bedingte Glaubwürdigkeit

Die Glaubwürdigkeit für ein Ereignis B kann von bestimmten Umständen beeinflusst, z.B. davon, dass ein Ereignis A eingetreten ist. Mit der sogenannten bedingten Glaubwürdigkeit P(B|A) wird die Glaubwürdigkeit des Ereignisses B bei gegebenem A angegeben. Als sinnvolle Definition erweist sich:

P(B|A) = P(B ∧ A)/P(A),

wobei wir voraussetzen, dass P(A) nicht gleich 0 ist, denn dann kann es eine solche Abhängigkeit ja ohnehin nicht geben. Diese Beziehung in der Form

P(B ∧ A) = P(B|A) ∙ P(A)

geschrieben zeigt, dass für P(A) = 1 die bedingte Glaubwürdigkeit P(B|A) mit P(B ∧ A) übereinstimmt, wie es sein sollte.

Gilt P(B|A) = P(B), so ist das Ereignis B nicht von A abhängig. Man nennt man dann die Ereignisse A und B unabhängig. Es gilt dann auch

P(B ∧ A) = P(B) ∙ P(A).

Im Folgenden schreiben wir statt P(B ∧ A) auch manchmal P(B, A) oder P(A, B).

Die Aussage A in P(B|A) nennt man das Vorwissen für B. Eigentlich gibt es immer ein Vorwissen, selbst wenn man keinen Unterschied zwischen den Ereignissen eines Ereignisraumes bezüglich der Möglichkeit ihrer Realisierung kennt. Das stellt ja dann eben auch ein Vorwissen dar. Man sollte dann allen Ereignissen den gleichen Glaubwürdigkeitsgrad zuordnen, wie 1/6 im Fall des Würfelns. Ganz ohne eine Information kann man also selbst keine a-priori-Glaubwürdigkeit formulieren.

Im nächsten Blogbeitrag werden wir sehen, dass man auf der Basis der hier vorgestellten Struktur sicher mit der Unsicherheit umgehen kann, und zwar so sicher wie überhaupt möglich.  

Avatar-Foto

Veröffentlicht von

Josef Honerkamp war mehr als 30 Jahre als Professor für Theoretische Physik tätig, zunächst an der Universität Bonn, dann viele Jahre an der Universität Freiburg. Er hat er auf den Gebieten Quantenfeldtheorie, Statistische Mechanik und Stochastische Dynamische Systeme gearbeitet und ist Autor mehrerer Lehr- und Sachbücher. Nach seiner Emeritierung im Jahre 2006 möchte er sich noch mehr dem interdisziplinären Gespräch widmen. Er interessiert sich insbesondere für das jeweilige Selbstverständnis einer Wissenschaft, für ihre Methoden sowie für ihre grundsätzlichen Ausgangspunkte und Fragestellungen und kann berichten, zu welchen Ansichten ein Physiker angesichts der Entwicklung seines Faches gelangt. Insgesamt versteht er sich heute als Physiker und "wirklich freier Schriftsteller".

9 Kommentare

  1. Die Überschrift ist sehr passend “der Umgang mit unsicherem Wissen”.
    Zum ersten Mal gibt es nicht mehr das kategorische wahr oder falsch, jetzt gibt es das eingeschränkte wahr oder falsch.
    aber auch das lässt sich berechnen und nennt sich Wahrscheinlichkeit.
    Und jetzt kommt gleich ein konkreter Fall.
    An einem Zebrastreifen stehen 8Personen. (habe ich selbst erlebt !). PKW rast mit stark übehöhter Geschwindigkeit auf den Zebrastreifen zu , beschleunigt nochmal auf geschätzte 80 km/h und rast an den verdutzten Personen vorbei.
    Zur Information, die 9 Personen gehörten einer Kommission an, die prüfen sollte, ob an dieser Stelle 30km/h eingeführt werden sollte. Unter den Personen befanden sich ein Schulrat, ein Beauftragter des Kultusministeriums, zwei Beamte von der örtlichen Polizeidienststelle, zwei Lehrer und zwei Mütter.
    Einer der Beamten fragte nach dem KFZ-Kennzeichen. Keiner wusste es . Auf die Frage nach der Automarke, keiner wusste es . Ich selbst , muss ich zu meiner Schande gestehen, wusste noch nicht einmal die Farbe des Wagens. So schnell ging das alles.
    Jetzt zu der Frage , wie wahrscheinlich ist es, wenn von 9 Zeugen einer behauptet, das Auto wäre weiß gewesen, alle anderen sagten, es war nicht weiß.

  2. Sau-interessant! Das mit dem Zuordnen von gleichen Wahrscheinlichkeiten für unbekannte Ausgänge halte ich allerdings für problematisch. Nehmen wir an, ich habe eine monotone Funktion x –> f(x) und weiß nicht, bei welchem x ein spezifisches f(x) folgt. Also ordne ich einfach eine gleichmäßige Wahrscheinlichkeit zu.
    f(x) könnte aber auch genauso gut die Funktion x –> g(x) = e^f(x) sein (ich kenne sie ja nicht). Wenn ich das für g(x) jetzt genauso mache, erhalte ich einen Voraussage-Widerspruch zu meinem Herangehen für f(x). Die Wahrscheinlichkeit für das Eintreffen von Bild- bzw. Werteintervallen beider Funktionen widersprechen sich gegenseitig. Ich kann aber nicht entscheiden, welche Voraussage richtiger ist. Dieses Problem wird noch offensichtlicher, wenn man sich z.B. dass Doomsday-Argument anschaut, wo genau dieser Widerspruch dann zentral wird. Damit verknüpft ist ein weiteres Problem: Bei realen Problemen können die Ausgänge willkürlich gewählt werden. Z.B. wenn ich einen Zufallsmechanismus habe, der Farben ausgibt, könnte ich die Ziel-Werte so einteilen: (1) Sehr dunkles Rot, (2) dunkles Rot, (3) mittleres Rot, (4) helles Rot, (5) sehr helles Rot, (6) andere Farben. Wenn ich diesen Varianten gleiche Wahrscheinlichkeiten zurechne, habe ich dann etwas falsch gemacht? Schließlich könnte der Mechanismus diese Wahrscheinlichkeitsverteilung tatsächlich produzieren; ich weiß es ja nicht.

    Meine derzeitige Schlussfolgerung: Ganz ohne Vorinformation führt eine gleichmäßig angenommene Wahrscheinlichkeit für Ausgänge bei realen Problemen zu Widersprüchen.

  3. Der Streit über die „richtige“ Definition [von Wahrscheinlichkeit, Ergänzung : Dr. Webbaer] ist natürlich völlig überflüssig ist.

    Deckt sich mit dem (fast immer dilettantenhaften) Verständnis des Schreiber dieser Zeilen, der in diesem Sinne die Wahrscheinlichkeit als rein mathematisch oder logisch versteht, so dass hier nicht weiter i.p. Definition Aufwand entstehen muss.
    (Wobei ‘überflüssig’ womöglich bereits ‘völlig überflüssig’ abdeckt, scnr.)

    “Bayes” bzw. seine ‘Wahrscheinlichkeitstheorie’ ist dem Schreiber dieser Zeilen bekannt und sie ist hilfreich, also praktisch, bspw. in Spielen wie Backgammon oder Poker.


    Wobei im Poker, gegensätzlich zum Spiel Backgammon, die spielerische Information nicht umfänglich vorliegt, ein Spiel mit unvollständiger Information vorliegt, weil im Gegensatz zum genannten Brettspiel verdeckte und an Spielgegner verteilte Spielkarten vorliegen.

    Wobei im Poker doch tatsächlich probabilistisch gehandelt werden muss, also in einer Spielserie in ein und derselben (!) Spielsituation einmal so und einmal so, auf spiel-bestmögliche Art und Weise verteilt (also einmal passen und fünfmal bezahlen beispielsweise), wenn gewonnen werden will.


    Herr Ulrich Berger war 2015 so freundlich dieses kleine Spiel zu entwickeln oder zumindest zur Diskussion zu stellen – wenn jemand weiß, dass dieses Spiel von anderen ist, wäre Dr. Webbaer für die Quellenangabe dankbar :

    -> http://scienceblogs.de/kritisch-gedacht/2015/12/07/dezemberraetsel-tauschen-oder-nicht/

    Dieses Spiel beweist (!), dass gelegentlich in Spielen von Spielern probabilistisch gehandelt werden muss, wenn gewonnen werden will.
    Das Bergersche Spiel von 2015 ist nicht ganz einfach zu verstehen, vielleicht wirft aber jemand mit Interesse und Zeit mal einen Blick darauf.

    MFG + schöne Woche noch!
    Dr. Webbaer

  4. @ Kommentatorenfreund ‘Wizzy’ :

    Es ist so, dass es darum geht, auch im Naturwissenschaftlichen, wenn sog. Evidenz angehäuft werden soll, einer sozusagen natürlich(-erscheinden)en Hypothese eine andere, spezielle Hypothese entgegenzustellen.

    Wenn bspw. naturwissenschaftlich (eine Allegorie folgt nun, die das Wesen der naturwissenschaftlichen Arbeit treffen soll) ein zehnseitiger Würfel mit den an den Seiten befestigten Aufschriften 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 beforscht wird – und so etwas heraus kommt :

    -> https://dilbert.com/strip/2001-10-25

    …wird geschaut wie oft so etwas mit einem idealtypischen und rein mathematisierten Würfel herauskommt, also bei einem Würfel, der mit der Wahrscheinlichkeit 1 / 10 die 9 würfelt.

    Kommt dies (dann gemessen) dann sehr selten vor, wird bspw. sog. Statistische Signifikanz festgestellt, die die bekannten 5 % meint (was physikalisch selbstverständlich unzureichend ist, aber wegen oft geringer Probandenzahl in den Soz-Wissenschaften zu reichen scheint) oder irgendwie auf der “Sigma-Schiene” eingeordnet.

    Erscheint es also zu unwahrscheinlich, dass ein Messergebnis rein zufällig entstanden ist, ein entsprechendes Messmodell zugrunde gelegt, wird idR eine Anomalie festgestellt und nach anderen Erklärungsmodellen gesucht, die dann wiederum statistisch / stochastisch genau so bearbeitet werden können.

    Trial & Error.

    MFG
    Dr. Webbaer

  5. @Pokern

    Bei Pokervarianten mit eigenen verdeckten Karten, die man selber sehen kann, kommt es weniger drauf an, die Stärke des eigenen Blattes einzuschätzen. Reine Mathematik zählt da nicht so viel. Man muss ja nur ein besseres Blatt haben als der Gegner. Viel wichtiger ist, am Spielverhalten des Gegners einzuschätzen, wie gut dessen Blatt wohl ist – und das eigene Spielverhalten so zu gestalten, dass die Gegner nur schlecht erkennen können, wie stark das eigene Blatt ist. Man muss variieren und den Gegner erziehen, auch wenn man mal kleinere Einsätze dabei verliert.

    So kann man die dicksten Pötte gewinnen, wenn die Gegner glauben, dass man nur mittelmäßige Karten hat, aber man in Wirklichkeit starke Karten hat. Wenn man zu durchsichtig spielt, gewinnt man wenig.

    Das drum herum, Intuition und Menschenkenntnis und letztlich Glück, entscheiden beim Pokern dann auch noch. Das macht das Spiel ja so spannend.

  6. Dr.W.
    Die geringe Anzahl von Probanden ist die Ursache, dass statistische Angaben geschönt werden können.
    Man könnte sogar behaupten, dass die Statistik die Moral relativiert.

  7. @Webbär
    Die Schwierigkeit auf die Whizzy hinweist ist eine andere. Das Problem ist, dass es häufig nicht möglich ist festzustellen “wie oft so etwas mit einem idealtypischen und rein mathematisierten Würfel herauskommt, also bei einem Würfel, der mit der Wahrscheinlichkeit 1 / 10 die 9 würfelt.”
    Je nach Beschreibung des Gegenstandes würden miteinander inkompatible Wahrscheinlichkeiten das Indifferenzprinzip erfüllen. Die Verteilung der Wahrscheinlichkeiten ist überdeterminiert. Dann ist es unklar mit welchen Werten die Messwerte zu vergleichen sind.

  8. @ Tobias Jeckenburger :

    Gerne mal, im Mathematischen, hier (ff) schauen :

    -> http://poker-play.srv.ualberta.ca

    Poker ist bei geringer Komplexität, qua Rechenleistung, (fast) maschinen-gelöst.
    Zumindest sind derartige Bots, sofern nur wenige, idealerweise zwei Spieler beteiligt sind, deutlich besser als bärische oder menschliche Spieler, heutzutage.
    Womöglich werden bestimmte Arten von Poker alsbald als verstanden publiziert werden, dies ist bisher, mangels Rechenleistung, noch nicht der Fall, korrekt.

    @ Kommentatorenfreund ‘libertador’ :

    KA, was Sie genau meinen, der Schreiber dieser Zeilen ist kein Mathematiker, was aber sicher ist, ist dass Modelle empirisch, also qua Messung, miteinander zu vergleichen sind, um dann Anomalien feststellen zu können und ggf. auch Modell und nachfolgende Theorie zu verwerfen, bei großer Datenprobe dann kaum mehr spekulativ zu nennen, weil auch Anwendungen, auf diesen Modellen basieren, zuverlässig funktionieren. (Streng genommen : scheinbar zuverlässig, korrekt!)
    Letzt-Zweifel bleiben, die Natur kann ihre Regelmengen, ihren Betrieb auch jederzeit ändern wollen.

  9. Ein alternativer Zugang zur Frage des unsicheren Wissens ist die von L. Zadeh entwickelte ‘Fuzzy set theory’ bzw. die ‘Possibility theory’. Dort wird – anders als in der Wahrscheinlichkeitsrechnung (auch in der auf dem Bayes-Therem basierenden) – davon ausgegangen, dass auch der Zustand von Elementarereignissen unsicher ist: also nicht, a ist Element von A, sondern a ist z.B. ‘ziemlich sicher’ ein Element von A. Übrigens findet sich das schon in der antiken Philosophie in den Paradoxa des Eubulides.
    Andere nicht possibilistische Ansätze haben J. Pearls oder Max Black vorgelegt.

Schreibe einen Kommentar