Die formale Sprache der Aussagenlogik

Die Natur der Naturwissenschaft

Nachdem ich im letzten Blogbeitrag die Syllogistik des Aristoteles kurz vorgestellt habe, müsste ich eigentlich nun ausführen, wie diese in der Antike, im Mittelalter und bis in die Neuzeit hinein rezipiert und ausgearbeitet worden ist. Insbesondere müsste man die Arbeiten von Gottfried Wilhelm Leibniz (1646 bis 1716) würdigen, in denen man schon wichtige Ansätze in Richtung der modernen Logik finden kann. Es wäre auch dessen großes Projekt zu beschreiben, eine „Scientia generalis“ nach dem Muster der Mathematik zu begründen, um „das jenige was Cartesius und andere per Algebram und Analysin in Arithmetica et Geometria gethan, in allen scienten zuwege zu bringen“. (Sämtliche Schriften II,1. S.160, nach Schupp III, S.238). Zu diesem Zweck wollte Leibniz eine „lingua characteristica“ mit geeigneten Zeichen (characteristica universalis) entwickeln. Ich will das hier aber überspringen und gleich auf die moderne Logik zu sprechen kommen. Man kann dies und andere Entwicklungen in dieser Richtung ohnehin besser in einem Rückblick einordnen.

Die moderne Logik begründete der Mathematiker und Philosoph Gottlob Frege (1848-1925) mit einem Buch, das den Titel trägt: „Begriffsschrift – Eine der arithmetischen nachgebildete Formelsprache des reinen Denkens“. Im Vorwort heißt es: In dieser „kleinen Schrift habe ich nun eine Wiederannäherung an den Leibnizischen Gedanken einer lingua characterica versucht“. Leibniz steht also Pate bei der Erfindung der modernen formalen Logik. (Wille, 2017, S.96)

Gottlob Frege (1848-1925) war Philosoph und Mathematiker, sein Vater hatte eine neuhochdeutsche Grammatik geschrieben (Wikipedia: Gottlob Frege). Frege kannte also vermutlich die Kraft einer formalen Sprache; mit einer solchen hob er dann auch die Logik auf eine ganz neue Ebene, auf der man Beweise wie in der Mathematik führen konnte. Er entdeckte damit eine „neue Wissenschaft“ für die Logik, wie es Galilei für die Naturforschung getan hatte. Und wieder sieht man, wie eine Formalisierung dazu führt, dass ein Wissensgebiet eine beschleunigte Entwicklung erfährt und dabei aus der Philosophie „auswandert“.

Die endgültige Form eines Systems einer „Aussagenlogik“ entstand dann etwas später durch Alfred North Whitehead (1981 bis 1947) und Bertrand Russell (1872 bis 1970). Die „Begriffslogik“, wie sie die Philosophen bis dahin immer betrieben hatten, wurde daraufhin bald durch diese Aussagenlogik verdrängt; die Logik entwickelte sich zu einer vorwiegend mathematischen Disziplin. Ihre mathematische Form ermöglichte die Übertragung logischer Schlussregeln auf Maschinen, was u.a. zu dem heute florierenden Forschungsgebiet der „künstlichen Intelligenz“ geführt hat.

Da man immer wieder erlebt, welche Scheu die meisten Zeitgenossen vor mathematischen Formeln haben, muss man bei der Vorstellung einer formalen Sprache für die Logik große Vorsicht walten lassen. Am besten man betrachtet den Aufbau einer formalen Sprache immer in Analogie zum Aufbau unserer Muttersprache und demonstriert dabei die Ähnlichkeit einer formalen Sprache mit unserer Umgangssprache. Es ist nur alles viel einfacher, und zwar so einfach, dass man zunächst fremdelt. Als Zwischenstation zwischen der formalen Sprache der Logik und unserer Umgangssprache mag die Sprache der Mathematik herhalten, denn diese ist ja schon formal und der Zeitgenosse hat aber immerhin einige Erfahrungen mit dieser.

Wir betrachten nun also drei Sprachen, die der Logik, der Mathematik und unsere Umgangssprache. In allen drei Sprachen gibt es eine bestimmte Menge von Zeichen, mit denen man Zeichenketten bilden kann. In der Umgangssprache stellt diese Menge das Alphabet dar, Zeichenketten sind Wörter und mehrere Zeichenketten stellen Sätze dar. So lernt man in der Schule ja auch erst, die Buchstaben zu schreiben, dann die Wörter und dann die Sätze.

Hier muss schon auf den wichtigen Unterschied von Syntax und Semantik eingegangen werden. Syntax ist das, was man bei natürlichen Sprachen als Grammatik bezeichnet. In dieser wird z.B. dargestellt, wie die Wörter unabhängig von ihrer Bedeutung je nach Funktion und Stellung in einem Satz dekliniert oder konjugiert werden und in welcher Reihenfolge sie in einem Satz auftreten können. Die Syntax bzw. Grammatik regelt also die formale Struktur einer Sprache. Die Semantik dagegen beschäftigt sich mit der Bedeutung von Wörtern und Sätzen.

In formalen Sprachen wird die Unterscheidung zwischen Syntax und Semantik noch deutlicher. In der Syntax wird genau festgelegt, was erlaubt sein soll im Hinblick auf die Bildung von Zeichenketten. Auf der syntaktischen Ebene hat man es also nur mit Zeichen verschiedener Komplexität zu tun, ohne dass diesen Zeichen schon eine Bedeutung zugeteilt worden ist.

Selbst eine rudimentäre Kenntnis der Mathematik gibt uns schon einen Hinweis auf den Nutzen einer formalen Sprache. Man kann in ihr „rechnen“, d.h. formal argumentieren, und zwar so, dass man die Bedeutung der Zeichen und Zeichenketten, die man dort nach gewissen Regeln ändert, generiert oder entfernt, nicht kennen muss. Das Ganze geschieht ja auf der syntaktischen Ebene und die Regeln sind so gemacht, dass aus wahren Aussagen wieder wahre Aussagen entstehen – völlig unabhängig von dem Sinn der Zeichen und Zeichenketten. Nur so ist ja verständlich, dass wir das Rechnen und das logische Schließen einer Maschine übertragen können, dass wir also Algorithmen entwickeln können, um Aufgaben zu lösen, die von uns selbst eine gewisse Intelligenz erfordern würden.  

Die Syntax der Sprache für eine Aussagenlogik

Allgemein beginnt eine Konstruktion einer formalen Sprache, indem man zunächst einen Zeichensatz, eine bestimmte Menge von Symbolen, bereitstellt, d.h. ein Alphabet definiert.

In derAussagenlogikbesteht das Alphabet aus einem Vorrat an

  • Variablen A, B, …, also an Großbuchstaben unserer Alltagssprache.
  • den Zeichen „¬“ und sowie „→“, „∧“ und „∨“
  • dem Gleichheitszeichen „=“,
  • den Klammern „(„ und „)“, diese sollen immer eingesetzt werden, wenn man einen Zeichengebilde als eine Einheit sehen will, um Übersicht zu behalten. Ebenso wird manchmal ein Leerzeichen eingesetzt, um die Übersichtlichkeit zu erhöhen, und schließlich  
  • den Konstanten „0“ und „1“. 

Mit Hilfe dieser Zeichen bzw. „Buchstaben“ kann man Zeichenketten bilden. Wir werden sehen, dass man in der formalen Sprache der Aussagenlogik keinen Unterschied zwischen Buchstaben, Wörtern und Sätzen machen muss. Man kennt nur Zeichen und Zeichenketten, und diese nennt man einheitlich Ausdrücke.

Wie Zeichenketten, also komplexere Ausdrücke aus den Zeichen des Alphabets gebildet werden können, regeln bestimmte Gesetze, nämlich:

  • Ist A ein Ausdruck, so ist auch ¬A ein Ausdruck.
  • Sind A und B Ausdrücke, so auch A → B, A ∧ B, A ∨ B und A = B.

Man kann auf solche Weise immer neue Ausdrücke bilden. Mit A und A → B können wir z.B. so A ∧ (A  →  B) bilden, und schließlich  auch  (A ∧ (A  →  B)) → B, einen Ausdruck, der uns noch beschäftigen wird.

Man nennt Ausdrücke, die nach den Regeln gebildet sind, wohlgeformt. So sind A → B und so A ∧ B ∧ C wohlgeformt, aber ABA oder AB→  nicht.

Anmerkungen:

Unsere natürlichen Sprachen besitzen auch jeweils ein Alphabet. Am besten vertraut ist uns das Alphabet der deutschen Sprache. Andere Alphabete weichen mehr oder weniger davon ab. Mit Hilfe dieser Zeichen werden auch Zeichenketten gebildet, die wir Wörter nennen. Diese Wörter werden durch den Umgang der Menschen mit den Dingen der Umwelt gebildet. Das ist ein geschichtlicher Prozess, und durch die Erfahrung mit immer neuen Dingen dieser Welt werden auch stets neue Wörter erfunden. Hier gibt es kaum Regeln, höchstens die Bedingung, dass das Wort aussprechbar sein muss. So wird man z.B. die Zeichenkette mjk?a nicht als einen sinnvollen Kandidaten für ein Wort ansehen. Die Wortbildung geschieht also auf der semantischen Ebene: „Das Ding muss einen Namen bekommen“. Es bildet sich dann auch eine Vorschrift dafür aus, wie die akzeptierten Wörter geschrieben werden müssen. Die Orthographie ist die Lehre des „richtigen Schreibens“, der richtigen Darstellung „akzeptierter Zeichenketten“. Mit Wörtern bildet man in der Umgangssprache Sätze, die dann jeweils eine Aussage darstellen können. Die Wörter werden dann je nach Satzstellung modifiziert, dekliniert bzw. konjugiert.

Im Gegensatz dazu werden in einer formalen Sprache „Wörter“ auf der syntaktischen Ebene gebildet, und nach nur wenigen Regeln. „Orthographie“ heißt hier Beachtung der Regeln für die Bildung von Zeichenketten. So etwas wie Sätze gibt es nicht.

  • Die Mathematik ist auch eine formale Sprache. Hier besteht der Zeichenvorrat meistens aus der Menge der Symbole {0,1, … ,9}, also der Zahlen von 0 bis 9, und den Zeichen {+, -, ·, :, =}.  Je nach mathematischer Theorie kommen weitere Zeichen dazu. Weiterhin braucht man immer noch Symbole als Platzhalter u.a. für zunächst nicht weiter spezifizierte Zahlen. Oft nimmt man dazu Buchstaben des Alphabets der Umgangssprache. Es gibt hier auch für die Bildung von „Wörtern“ und „Sätzen“ klare Regeln.  „Wörter“ sind dann solche Zeichenketten wie x + 0 oder 5·4, die man auch „Terme“ nennt.  „Sätze“ sind Gleichungen wie x + 2 = 0, und auch sie werden nach bestimmten Regeln formuliert.

Hiermit haben wir die Syntax dreier Sprachen beschrieben. Sie regelt, welche Zeichenketten man auf der Basis eines Zeichenvorrats bilden darf.

Die Semantik bzw. die Bewertung

In der Semantik müssen wir nun sagen, was wir unter den Zeichen, die wir in der Syntax eingeführt haben, verstehen wollen, welche Bedeutung wir ihnen geben wollen.

In der Aussagenlogik sollen die Variablen A, B, … für Aussagen in unserer Umgangssprache stehen, die entweder wahr oder falsch sind. Man beachte, dass es hier nicht um den Inhalt der Aussage und ihre Bedeutung geht, sondern nur um eine Bewertung: wahr oder falsch. Insofern sollte man eigentlich auch nur von Bewertung statt von Semantik reden. Aber so genau müssen wir in unserer Umgangssprache, in der wir die formale Sprache konstruieren und in der wir später darüber reden, nicht werden. Die Umgangssprache nennen wir die „Metasprache“, die Sprache der Aussagenlogik ist dann hier die „Objektsprache“. In dieser müssen wir ganz genau sein. In unserer Umgangssprache finden wir aber auch sonst genügend vage Begriffe. 

Diese Voraussetzung, dass wir nur Aussagen betrachten wollen, die entweder wahr oder falsch sind, ist konstitutiv für die gesamte Aussagenlogik. Es geht also nicht um Fragesätze oder Ausrufe. Auch lassen wir außeracht, dass es vielleicht Aussagen geben kann, bei denen man nie entscheiden kann, ob sie wahr oder falsch sind. Dass diese Beschränkung für einige Mathematiker nicht selbstverständlich ist, muss hier nicht diskutiert werden.

Betrachten wir einige einfache Aussagen. Sei z.B.

A:= „Es regnet.“ 

B:= „Die Straße ist nass.“

So ist A genau dann wahr, wenn es der Fall ist, dass es regnet. Wahrheit ist gegeben, wenn die Aussage mit den Tatsachen übereinstimmt.

Um die Bewertung aller Ausdrücke, die wir mit solchen Aussagen nach den Regeln der Syntax bilden können, müssen wir nun sagen, was wir mit den anderen Zeichen aus dem Zeichenvorrat vorhaben:

Wir interpretieren die „1“ als wahr, die „0“ als falsch.

Das Zeichen „¬“ vor einer Aussage soll diese negieren:

¬A = Es ist nicht der Fall, dass A, d.h. in unserem Beispiel: „Es regnet nicht.“

Es ist so auch:

¬1 = 0, „nicht wahr“ bedeutet: „falsch“,

¬0 = 1, „nicht falsch“ bedeutet: „wahr“.

Der Ausdruck A ∧ B stellt eine Verknüpfung zweier Aussagen dar, erinnert an 5 + 4 oder 5 · 4. Die Bedeutung des Zeichens „∧ “ legen wir dadurch fest, indem wir sagen, wann dieser Ausdruck in Abhängigkeit von den Wahrheitswerten A und B wahr sein soll und wann falsch. Im Prinzip haben wir dort 16 Möglichkeiten. Die Standardwahl ist in folgender Wahrheitstafel dargestellt:

A B A B
1 1 1
1 0 0
0 1 0
0 0 0

Diese Zuordnung ist so geschehen, dass das Symbol „∧“ dem umgangssprachlichem „und“ entspricht. Wir testen das an unserem Beispiel:

A ∧ B = „Es regnet“ und „die Straße ist nass“.

Wir empfinden diese Aussage offensichtlich genau dann als wahr, wenn beide Aussagen A und B wahr sind, so wie es auch in der Tabelle steht.

Die Wirkung des Zeichens „∨“ definieren wir so, dass dieses im Ausdruck A ∨ B dem umgangssprachlichem „oder“ gleicht:

A B A B
1 1 1
1 0 1
0 1 1
0 0 0

Der Ausdruck A ∨ B hat nur dann die Bewertung 0, ist also nur dann falsch, wenn beide Aussagen A und B falsch sind. Mit diesem „oder“ ist also „A oder B“ wahr, wenn entweder A oder B wahr sind, aber auch, wenn beide, A wie B, wahr sind. Dies entspricht dem einschließenden „oder“. Wenn wir in der Umgangssprache das Wort „oder“ gebrauchen, meinen wir aber manchmal das ausschließende „oder“, also das „entweder-oder“. Das ist ein typisches Beispiel für die Mehrdeutigkeit unserer Umgangssprache.

Diese drei Regeln genügen eigentlich, um beliebige Zeichenketten zu konstruieren.

Besonders wichtig und nützlich ist aber das Symbol „→ “ mit der Bedeutung:

A B   A B
1 1 1
1 0 0
0 1 1
0 0 1

Der Ausdruck ¬A ∨ B hat, wie man sich leicht überzeugen kann, die gleiche Wahrheitstafel, ist also mit A → B logisch äquivalent. Man schreibt so:  

¬A ∨ B = A → B.

Damit ist auch die Bedeutung des Gleichheitszeichens „=“ gegeben.

Die Verknüpfung A → B heißt Implikation: Wenn A, dann B. Genauer: Stets falls A wahr ist, ist auch B wahr. Die Aussage A ist also eine hinreichende Bedingung für B.

Die Implikation ist nur dann falsch, wenn B falsch ist.

Ist A falsch, dann ist die Implikation A → B nach der Wahrheitstafel immer wahr, egal ob B wahr oder falsch ist. Ist die Aussage A also nicht hinreichend, so kann man bei einer wahren Implikation nichts über den Wahrheitswert von B sagen.

Für längere Zeichenketten lässt sich auf diese Weise immer der Wahrheitswert feststellen. Wir wollen hier ein Beispiel anführen, was in der Folge noch beschäftigen wird. Wir betrachten die Zeichenkette: 

(A ∧ (A→ B)) → B, dann berechnet man:

A B A B A (A B) (A (A B))B
1 1 1 1 1
1 0 0 0 1
0 1 1 0 1
0 0 1 0 1

Es gibt also Ausdrücke in der Aussagenlogik, die in jedem Fall wahr sind, unabhängig davon, welchen Wahrheitswert die Einzelaussagen haben. Man nennt solche Ausdrücke Tautologien. Wir werden im nächsten Blogbeitrag sehen, welche bedeutende Rolle solche Ausdrücke für die Bildung von Schlussregeln spielen.

Josef Honerkamp

Veröffentlicht von

Josef Honerkamp war mehr als 30 Jahre als Professor für Theoretische Physik tätig, zunächst an der Universität Bonn, dann viele Jahre an der Universität Freiburg. Er hat er auf den Gebieten Quantenfeldtheorie, Statistische Mechanik und Stochastische Dynamische Systeme gearbeitet und ist Autor mehrerer Lehr- und Sachbücher. Nach seiner Emeritierung im Jahre 2006 möchte er sich noch mehr dem interdisziplinären Gespräch widmen. Er interessiert sich insbesondere für das jeweilige Selbstverständnis einer Wissenschaft, für ihre Methoden sowie für ihre grundsätzlichen Ausgangspunkte und Fragestellungen und kann berichten, zu welchen Ansichten ein Physiker angesichts der Entwicklung seines Faches gelangt. Insgesamt versteht er sich heute als Physiker und "wirklich freier Schriftsteller".

13 Kommentare

  1. Gab es in diesem Zusammenhang nicht auch noch ein George Bool? Dieser hatte doch mit seinem Werk “Laws of Thought” eine formale Beschreibung der Aussagelogik analog der Algebra entwickelt. Im Prinzip basiert unsere Digitaltechnik darauf.

  2. @Rudi Knoth:

    Gab es in diesem Zusammenhang nicht auch noch ein George Bool?

    Ja, einen George Boole gab es. Darauf werde ich im Rahmen Boolescher Verbände noch eingehen.

  3. Zu diesen Wahrheitstabellen oder Logikgatter gibt es die passenden Elektronikbauteile zu kaufen. Wenn man die Implikation wählt, dann braucht man nur zwei Logikbausteine , einen Inverter und eine or – Verknüpfung der Baureihe 74xx.
    Wenn man die zusammenlötet und an eine 5 V Spannungsquelle anschließt, dann kann diese Schaltung eine Implikation durchführen.
    Die Implikation wird schaltungstechnisch durch die Verknüpfung (nicht A) oder (B) realisiert.

  4. Alles sehr hübsch, der hiesige Schreiber dieser Zeilen mag auch Aussagen bspw. der Art : ‘Wenn wir in der Umgangssprache das Wort „oder“ gebrauchen, meinen wir aber manchmal das ausschließende „oder“, also das „entweder-oder“.’ + ‘Nur so ist ja verständlich, dass wir das Rechnen und das logische Schließen einer Maschine übertragen können, dass wir also Algorithmen entwickeln können, um Aufgaben zu lösen, die von uns selbst eine gewisse Intelligenz erfordern würden.’ + ‘Dass diese Beschränkung für einige Mathematiker nicht selbstverständlich ist, muss hier nicht diskutiert werden.’

    Wobei diese pers. gehaltene Einschätzung eines Lesers den Ablauf des “Online-Kurses” nicht stören sollte,
    MFG
    Dr. Webbaer (der noch eine schöne Woche wünscht – hier selbst wohl früher einiges verpasst hat, als er noch an den üblichen Bildungsstätten beschult worden ist, abär das meiste sozusagen intuitiv immer verstanden hat)

  5. Dr.W.
    Die Maschinenlogik hat längst Einzug gehalten in unseren Alltag. Wer ahnt schon, dass für den Nebelscheinwerfer ein Logigbaustein verwendet wird.
    Das Nebellicht darf nämlich nur leuchten, wenn gleichzeitig das Abblendlicht eingeschaltet ist.
    Das entspricht unser Redensart: Nur dann, wenn…….
    Und da wir es hier mit zwei Stromkreisen bzw. zwei Schaltern zu tun haben, haben wir wieder vier Möglichkeiten.
    1. Ablendlicht aus – Nebellampenschalter aus = Nebellampe leuchtet nicht
    2. Abllendlicht aus – Nebellampenschalter an = Nebellampe leuchtet nicht
    3. Ablendlicht an – Nebellampenschalter aus = Nebellampe leuchtet nicht
    4. Ablendlicht an- Nebellampenschalter an = Nebellampe leuchtet
    Der vierte Fall erfüllt genau die Implikation und wird auch so realisiert.

    Nachtrag: das ausschließende Oder wird in der Elektronik als XOR bezeichnet. Für die Realisierung nimmt man den Baustein 7486.

  6. @Josef Honerkamp

    Bei logischen Formeln begnegnet man zwei verschiedenen Bedeutungen von Äquivalenz, nämlich zum einen als logische Äquivalenz und zum anderen als materiale Äquivalenz (auch Bikonditional oder Koimplikation), wobei mit ersterer ein metasprachliches, mit letzterer hingegen ein objektsprachliches Konzept bezeichnet wird. Wenngleich zwischen diesen beiden eine Beziehung besteht, braucht es daher auch unterschiedliche Symbole zur formalen Kennzeichnung.

    In der Notation von Hermes, die Sie ansonsten hier ja verwenden, wird materiale Äquivalenz durch `\(\leftrightarrow\)’ symbolisiert, und für zwei aussagenlogische Formeln \(\phi,\psi\) ist dann auch \(\phi \leftrightarrow \psi\) wieder ein objektsparachlicher Ausdruck.

    Wenn Sie nun logische Äquivalenz mit dem Gleichheitszeichen `\(=\)’ symbolisieren, ist \(\phi = \psi\) eine metasprachliche Aussage über zwei aussagenlogische Formeln, die jedoch selbst kein objektsprachlicher Ausdruck ist.

    Die Beziehung zwischen logischer und materialer Äquivalenz wäre dann die, dass der metasprachliche Aussage \(\phi = \psi\) genau dann gilt, wenn der objektsprachliche Ausdruck \(\phi \leftrightarrow \psi\) eine Tautologie ist.

    Der deutsche wikipedia Eintrag Logische Äquivalenz gibt im übrigen eine meines Erachtens bemerkenswert gute Darstellung dieser ganzen Thematik.

  7. @Chrys:
    Sie haben recht. Ich wollte möglichst wenig neue Symbole einführen und habe dabei übersehen, dass ich dann das =-Zeichen auf verschiedenen Ebenen benutze. Eigentlich brauche ich weder = noch ≡ einzuführen. Es reicht, wenn ich A → B als Abkürzung für ¬A ∨ B einführe, dafür die Wahrheitstafel berechne und diskutiere.

  8. @bote19 2. April 2019 @ 09:00

    Nun ja da braucht man für diese logische “Und” Operation nicht unbedingt einen Logikbaustein. Aber es ist richtig, daß unsere Technik von dieser Schaltung bis zum PC, mit dem ich diesen Kommentar schreibe auf der “Boolschen Algebra” und der dahinterstehenden Aussagenlogik beruht. Es gab vor vielen Jahren von Kosmos ein Experimentierbaukasten mit Nahmen “Logikus” mit dem man Logik -Schaltungen mit Draht realisieren konnte.

  9. @Josef Honerkamp

    “Ich wollte möglichst wenig neue Symbole einführen”

    Mir würde es reichen, wenn Sie @Chrys mit dem altbekannten Simbol ‘y’ schreiben würden. Das würde mir die Suche nach interessanten Kommentaren erleichtern.

    Es ist für mich schon sehr gewöhnungsbedürftig, dass hier im Blog die neuesten Kommentare immer oben stehen, was dem gewohnten Lesefluss schon arg entgegenwirkt.

    Bitte überbewerten Sie meine Kritik nicht, lesenswert finde ich diese Serie auf jeden Fall, danke dafür.

  10. Rudi Knoth
    Sie haben natürlich Recht, man braucht keinen Logikbaustein, man könnte sogar ganz auf diverse Bauteile verzichten und den Bordcomputer per Software die Autobeleuchtung steuern lassen. Wahrscheinlich ist das nicht erlaubt, weil die Alarmanlage unabhängig vom Bordnetz arbeiten muss.

  11. @Joker:

    Mir würde es reichen, wenn Sie @Chrys mit dem altbekannten Simbol ‘y’ schreiben würden

    Oje, da muss ich mich auch beim Chrys entschuldigen. Ich hab’s korrigiert.
    Das Problem der Reihenfolge der Kommentare habe ich an den Administrator weitergereicht.

  12. @Josef Honerkamp

    Vielen Dank für das Ypsilon. 🙂

    Noch angemerkt zur Historie: Der Herausbildung der modernen Logik von Leibniz bis Frege ist der 3. Band des Handbook of the History of Logic (Dov M. Gabbay & John Woods, eds.) gewidmet, wozu wiederum ein ziemlich detailliertes Review Essay von Irving H. Anellis im Web erhältlich ist (open access). Allfällig an dieser Thematik Interessierten sei dieser Link hier einfach zur Kenntnis gebracht.

Schreibe einen Kommentar