Sprache, Logik und ein Mord

„Es gibt meiner Meinung nach keinen wesentlichen theoretischen Unterschied zwischen natürlichen Sprachen und den formalen Sprachen der Logiker; tatsächlich glaube ich, dass es möglich ist, Syntax und Semantik beider Arten von Sprachen auf der Grundlage einer gemeinsamen natürlichen und mathematisch präzisen Theorie zu verstehen.“[i]

Mit diesem Paukenschlag setzt 1970 ein Artikel des amerikanischen Logikers Richard Montague ein, der den unbescheidenen Titel „Universal Grammar“ trägt und trotzdem nur gerade mal 25 Seiten umfasst. Zusammen mit zwei weiteren hochformalisierten Artikeln[ii] gelingt Montague ein „erstmaliger grandioser Brückenschlag“[iii] zwischen Linguistik und Logik, „ein ganz entscheidender Durchbruch“[iv] in der „mehr als 2500-jährigen Geschichte“[v] der abendländischen Sprachforschung, wie Wolfgang Stegmüller es in seinen „Hauptströmungen der Gegenwartsphilosophie“ jubilierend beschreibt. Die drei Artikel sind dermaßen kompakt formuliert, dass es Jahre dauert, bis selbst in Fachkreisen alle darin verborgenen Erkenntnisse für die Sprachwissenschaft durchdrungen sind. Dass Montague seine Theorie selbst nicht ausführlicher und verständlicher dargestellt hat, hat einen einfach Grund: Am 7. März 1971 wurde er, vierzigjährig, ermordet in seinem Haus in Los Angeles aufgefunden. Die Tat ist bis heute nicht aufgeklärt.[vi]

Die Logik war seit der Antike einen weiten Weg gegangen, die sie im 19. Jahrhundert zu einer Grundlagenwissenschaft der Mathematik hatte werden lassen. Der Preis dafür war allerdings der, dass sie sich immer weiter von der Sprache und der sprachlichen Kommunikation entfernt hatte. Ursprünglich war sie ja unter dem Namen “Dialektik” als Hilfswissenschaft der Rhetorik entstanden mit der Aufgabe, die Schlüssigkeit von Argumentationen in Reden zu gewährleisten. Sprachliche Äußerungen galten aus Sicht der Logik als unpräzise und nicht exakt formalisierbar, so dass Methoden der mathematischen Logik nur durch die Intuition des logischen Analytikers auf die Sprache angewandt werden konnten.

Brückenschlag zwischen Sprache und formaler Logik

Montague gelingt der Brückenschlag, also die Ausschaltung der Intuition, indem er ein generatives Grammatikmodell, das dem von Noam Chomsky ähnelt, um semantische Regeln erweitert: Jede Grammatikregel bekommt eine logische Regel an die Seite gestellt, so dass bei jedem grammatischen Konstruktionsschritt zugleich ein logischer Konstruktionsschritt ausgeführt wird. Chomskys Grammatik-„Maschine“ hat dabei also nicht mehr nur die Aufgabe, grundlegende grammatische Strukturen als Basis für konkrete Sätze zu erzeugen, sondern fungiert zugleich auch als Konstruktionsplan für den Aufbau von Satzbedeutungen. Die Bedeutung eines Satzes, im Sinne eines logischen Ausdrucks, wird auf diese Weise Schritt für Schritt aus kleineren Einheiten zusammengesetzt: der Satz aus Satzteilen, den Phrasen, diese aus Teilphrasen und Wörtern. Weil die Ausdrücke der Logik einen ganz anderen Aufbau haben als die der natürlichen Sprache, ist dafür ein komplizierter formaler Apparat erforderlich. Deshalb war die Möglichkeit, die Intuition in der Erfassung von Bedeutungen mit logischen Mitteln zu überbrücken, auch so lange unentdeckt geblieben.

Die Auffassung, dass sich komplexe Bedeutungen aus einfacheren, weniger komplexen Bedeutungen zusammen mit den Regeln ihrer Kombination „berechnen“ lassen, wird als Kompositionalitätsprinzip bezeichnet. Das Kompositionalitätsprinzip ist das Grundprinzip der formalen Semantik, wie man das Teilgebiet der Linguistik bezeichnet, das aus Montagues Arbeiten hervorgegangen ist. Wie auch in der Grammatiktheorie beruht die formale Semantik auf einem rigiden Verständnis von Regeln, bei dem keine Abstufungen oder Varianten vorgesehen sind. Darüber hinaus stellt sich die Frage, ob Bedeutungen tatsächlich nach dem Kompositionalitätsprinzip aufgebaut sind. In isolierten Beispielsätzen funktioniert das zwar, ob wir jedoch in realen Kommunikationssituationen in dieser Weise Bedeutungsatome zu Bedeutungsmolekülen kombinieren, ist eher zweifelhaft. Viele Konstruktionen, die wir in Gesprächen oder Texten verwenden, bauen wir nicht Wort für Wort auf, sondern rufen sie komplett als Muster ab und passen sie unserem kommunikativen Bedarf an. Auch die Bedeutung von Wörtern oder Wortgruppen variiert stark im Kommunikationszusammenhang. Wörter haben keine fixierte Bedeutung, die wir wie Bausteine zusammensetzen können. Vielmehr wird ihre Bedeutung erst im Zusammenhang festgelegt oder gar gebildet.

Weiterführung der rationalistischen Idealisierung der Antike

Die formale Semantik greift also die rationalistische Idealisierung menschlicher Kommunikation erneut auf. Diese hatte ja bereits in der Antike mit der Dialektik eingesetzt, war jedoch durch die Emanzipierung der mathematischen Logik als eigenständige Disziplin unterbrochen worden. Mit der formalen Semantik wird diese Tendenz sogar noch verschärft, indem auf der Grundlage des Kompositionalitätsprinzips mit Montagues Brückenschlag die logisch-rationalistische Konstruierbarkeit der Bedeutung eines jeden sprachlichen Ausdrucks behauptet wird. Schüler und Nachfolger Montagues weiten dies sogar auf ganze Texte und Gespräche aus. Damit gerät die Bedeutungsseite menschlicher Kommunikation gänzlich in den Bereich der mathematischen Logik, während die logisch nicht rekonstruierbaren Bereiche wie die der zwischenmenschlichen Interaktionsdynamik, der pragmatischen, emotiven oder durch kognitive Prozesse beeinflusste Bedeutungskonstitution nicht berücksichtigt werden. Die rationalistische Idealisierung von Sprache wird in der formalen Semantik als Logizentrik radikalisiert.

Beitragsbild: Eigener Screenshot (Ausschnitt) aus Richard Montague (1974), The Proper Treatment of Quantification in Ordinary Language.

Anmerkungen:
[i] Montague, Richard (1970). Universal Grammar. Theoria 36: 373–398, eigene Übersetzung.
[ii] Montague, Richard (1974). English as a Formal Language. In Formal Philosophy. Selected Papers by Richard Montague, Richmond Thomason (Hg.). New Haven: Yale University Press, zuerst erschienen 1970, und Montague, Richard (1974). The Proper Treatment of Quantification in Ordinary Language. In Formal Philosophy. Selected Papers by Richard Montague, Richmond Thomason (Hg.). New Haven: Yale University Press, zuerst erschienen 1973.
[iii] Stegmüller, Wolfgang (1978). Hauptströmungen der Gegenwartsphilosophie. Eine kritische Einführung, Band II. Kröners Taschenausgabe. Band 309. Stuttgart: Kröner, 6. Aufl.: 37.
[iv] Stegmüller (1978: 35).
[v] Stegmüller (1978: 64).
[vi] Vgl. Fefermann, Anita & Solomon Fefermann (2004). Alfred Tarski: A Life. Cambridge, MA: Cambridge University Press: 332–333.

Avatar-Foto

Veröffentlicht von

www.lobin.de

Henning Lobin ist seit 2018 Direktor des Leibniz-Instituts für Deutsche Sprache in Mannheim (Mitglied der gemeinsam vom Bund und allen 16 Bundesländern finanzierten Leibniz-Gemeinschaft) und Professor für Germanistische Linguistik an der dortigen Universität. Zuvor war er ab 1999 Professor für Angewandte Sprachwissenschaft und Computerlinguistik an der Justus-Liebig-Universität Gießen. Seine Forschungsschwerpunkte bilden die Auswirkungen der Digitalisierung auf die Sprache, Texttechnologie, Grammatik, Wissenschaftskommunikation und Politolinguistik. Er ist Sprecher der Sektion "Geisteswissenschaften und Bildungsforschung" und Präsidiumsmitglied der Leibniz-Gemeinschaft, Mitglied germanistischer Fachbeiräte ua. von DAAD und Goethe-Institut, er war Mitglied des Forschungsbeirats der Stiftung Wissenschaft und Politik und des Fachkollegiums Sprachwissenschaft der DFG. Lobin ist Autor von neun Monografien und hat zahlreiche Sammelbände herausgegeben. Zuletzt erschienen sind Engelbarts Traum (Campus, 2014, polnische Übersetzung 2017, chinesische Übersetzung 2018), Digital und vernetzt. Das neue Bild der Sprache (Metzler, 2018) und Sprachkampf (Duden, 2021). Bei den SciLogs ist Henning Lobin seit 2014 Autor des Blogs "Die Engelbart-Galaxis", nachdem er dort bereits ab 2008 am Gruppenblog "Interactive Science" beteiligt war.

25 Kommentare

  1. Henning Lobin,
    …….theoretischer Unterschied zwischen natürlichen Sprachen und formalen Sprachen.
    Wenn es keine Unterschiede gäbe, würden sich die Menschen nicht über Texte streiten können.

    Formale Systeme sind geschlossene System, ohne inneren Widerspruch und ohne Redundanz, d.h. ohne überflüssige Zeichen . Z.B. die Mathematik. Formale System unterliegen nur der Logik. Es kommt nicht auf den Inhalt an, sondern nur auf die Widerspruchsfreiheit an. “Frau Merkel ist ein Mann”, ist im Sinne der Logik wahr.

    Natürliche Sprachen haben Redundanz, sie haben überzählige Zeichen, Begriffe mit unklarer Bedeutung, mehr als einen Begriff für eine Sache. Weil ja Sprache eine Geschichte hinter sich hat und die Sprache verschieden Einflüssen ausgesetzt war.
    Für die natürliche Sprache ist die Logik auch unverzichtbar aber nicht hinreichend. Das wichtige bei den natürlichen Sprachen ist der “Sinn” einer Aussage , mit der sich die Hermeneutik und die Semantik beschäftigt.
    Frau Merkel ist ein Mann ist logisch richtig, hermeneutisch und semantisch aber falsch.

    Auf diese Unterschiede ist man gestoßen, als sich die Computersprachen entwickelt haben . Douglas R. Hofstadter hat dazu ein sehr gutes Buch geschrieben, für das er den Pulitzer Preis erhalten hat. “Gödel,Escher,Bach.”

    • Na ja, GEB von Hofstadter hat ja schon fast vierzig Jahre auf dem Buckel, habe ich seinerzeit natürlich auch gelesen. Das Interessante an der logischen Analysen von Sprache seit Montague (“formale Semantik”) ist in meinen Augen, dass immer mehr subtil Bedeutungsnuance mit den Mitteln der formalen Logik erfasst wurden, ob es nun die berühmt-berüchtigten Partikeln im Deutschen sind (“wohl”, “eigentlich” etc.) oder die Bedeutungsunterschiede zwischen ähnlichen Wörtern. So viele “überzählige Zeichen” bleiben da gar nicht übrig – diese Vagheit der Sprache zu fassen und zu zeigen, dass sich gar nicht um Vagheit handelt, sondern um ein differenziertes sprachliches System, war im das, was mich an der formalen Semantik so fasziniert hat. Montague selbst gelingt das übrigens mit einer intensionalen Typenlogik n-ter Ordnung.

  2. Zielt denn ein solches Projekt überhaupt darauf, auf die natürliche Kommunikation angewendet zu werden?

    Eher habe ich den Eindruck, dass derlei Unternehmen auf die Präzisierung wissenschaftlicher Theorien gerichtet sind, oder vielleicht auch als Vorarbeiten für die Computerisierung der Sprache.

    Ersteres stünde im Umfeld des verdämmerten Projekts Logischer Empirismus. Was letzteres betrifft, habe ich keine Ahnung, ob daran gearbeitet wird.

    • Ursprünglich ging es tatsächlich um Grundlagenforschung, um die uralte Frage nach dem Verhältnis von Sprache und Logik. In der Computerlinguistik ist die formale Semantik dann aber tatsächlich angewandt worden, um die Bedeutung von Sätzen zu beschreiben. Aufgrund der automatischen grammatischen Analyse (Parsing) lässt sich nämlich über Montague-artige Übersetzungsregeln eine logische Repräsentation der Bedeutung eines Satzes ableiten, mit der wieder “gerechnet” werden kann, etwa um Schlussfolgerungen zu ziehen oder Antworten zu generieren. Auch in der Lexikologie ist die formale Semantik eingegangen bei der Beschreibung gerade solcher Wörter, deren Bedeutung auf anderem Wege schwer zu fassen ist (wie die gerade erwähnten Partikeln, im Gegensatz also zu “Inhaltswörtern” wie Substantiven, Adjektiven und Verben).

      • Das wäre natürlich mal interessant zu erfahren, wie man in einem solchen System ein Partikel wie das deutsche „doch“ definiert bzw. unterbringt.

        • Hier ein Überblicksartikel zur formalsemantischen Analyse von Partikeln wie ja, doch und wohl (leider mit Bezahlschranke, sofern Sie nicht Zugriff über eine UB haben):

          Malte Zimmermann (2011): “Discourse Particles”. In: von Heusinger, Klaus / Maienborn, Claudia / Portner, Paul (eds.), Semantics: An International Handbook of Natural Language Meaning (= Handbücher zur Sprach- und Kommunikationswissenschaft / Handbooks of Linguistics and Communication Science, 33.2.). Berlin, New York: de Gruyter, S. 2012–2038.

          DOI (Chapter): https://doi.org/10.1515/9783110255072.2012,
          https://www.degruyter.com/viewbooktoc/product/175240

          • Ich komme da leider nicht dran, trotzdem vielen Dank für den Link. Ich behalte das Thema im Auge.

  3. @ Bote 17

    Natürliche Sprachen haben weit mehr Aufgaben zu bewältigen, als formale Sprachen. Formale Sprachen sind vor allem Objektsprachen, die dazu ersonnen werden, um Sachverhalte und ihre logischen Zusammenhänge präzise abzubilden.

    Natürliche Sprachen müssen darüber hinaus adäquat sein, um im Bereich der Gefühle, des Wertens, des Suggerierens, der Selbstwahrnehmung, des sozialen Miteinanders allgemein und vieles andere anwendbar zu sein. Wahrscheinlich ist es albern, zu versuchen, eine Entschuldigung in einer formalen Sprache auszudrücken. Die natürliche Sprache leistet mithin regelrecht Widersprüchliches – nämlich sowohl logische Präzision als auch vorsätzliche Unschärfe, Andeutung, Metapher etc. – in einem System.

    • Da stimme ich Ihnen zu. Die Erfolge in der logischen Modellierung von Sprache haben die Linguistik dazu verleitet, diesen Zugang zur Bedeutung zu verabsolutieren. Mein Eindruck ist, dass gegenwärtig diese anderen Faktoren, die aus der Situation, der Interaktion, aber auch der kognitiven Verarbeitung im Menschen resultieren, inzwischen wieder deutlicher gesehen werden, was zu einer Veränderung des Bildes von Sprache führt.

      • Ich muss zugeben, dass ich das Thema nicht mehr verfolge, weil es mir unfruchtbar erscheint. Der Ansatz, wissenschaftliche Theorien in formalisierter Sprache zu verfassen, hat sich in der Praxis nicht durchgesetzt, weil ja schon der Entwurf einer solchen Sprache nicht gelungen ist.

        Vielleicht verschiebt sich seit einiger Zeit das Interesse von der Abfassung wissenschaftlicher Theorien hin zur Konsumenten-Anwendung, also interaktive Computer, die ein menschliches Gegenüber simulieren können. Ich weiß es nicht.

  4. “Wörter haben keine fixierte Bedeutung, die wir wie Bausteine zusammensetzen können. Vielmehr wird ihre Bedeutung erst im Zusammenhang festgelegt oder gar gebildet.”
    Die Theorie der Ethnomethodologie ( hoffentlich richtig geschrieben .Ich bin weder Sprach-noch Sozialwissenschaftler ) des Prof. Garfinkel unterstützt Ihre Formulierung , insbesondere was die Bedeutung betrifft.

    • Genau! Die Ethnomethodologie zeigt der formalen Semantik ihre Grenzen auf, indem sie in einer völlig anderen Art beschreibt, wie in natürlichen Interaktionen Bedeutungen ausgehandelt werden.

  5. Eine verlustfreie Übersetzung eines natürlichsprachlichen Textes in eine formalsprachlich begründete Notation wäre ein sehr mächtiges sprachliches Mittel. Damit wäre eine Universalsprache geschaffen, die die Aussage eines Textes so festhalten könnte, dass eine Übersetzung in jede andere natürliche Sprache möglich würde – und das automatisch ohne menschlichen Übersetzer. Heute erleben wir beispielsweise bei der Wikipedia, dass jeder Eintrag in dutzenden von verschiedenen Sprachen existiert, wobei teilweise Inhalte aus beispielsweise der englischsprchigen Ausgabe übernommen werden, teilweise aber auch eigenständige Einträge ohne Abstimmung mit den Einträgen in anderen Sprachen existieren. Es wäre sehr schön und nützlich, wenn sich beispielsweise ein chinesisch sprachlicher Eintrag in einer formalen Notation festhalten liesse, die Garantien dafür gäbe, dass sich der Inhalt ohne Verfälschungen in andere Sprachen übertragen liesse. Heutzutage sind wir für so etwas auf die Künste eines automatischen Sprachübersetzers wie google translate angewiesen oder aber auf einen Dolmetscher. Beidesmal gibt es keinerlei Garantien, dass die Übersetzung die Aussageabsicht des Originals wahrt.
    Wer aber müsste sinnvollerweise den Originaltext in die formale Universalsprache übertragen? Natürlich der Autor des Originals, denn nur er weiss, was er sagen will und warum er beispielsweise eine bestimmte Metapher verwendet. Man kann nur sagen: Schade, dass es diese Universalnotation nicht gibt.

    • Eine Alternative für die manuelle Übertragung eines natürlichen Textes in eine Universsalsprache wäre ein Frage-Antwortsystem, welches den Autor eines Textes zu Konkretisierungen, zu Festlegungen bei mehrdeutigen Textstellen zwingt. Dieses Frage-Antwortsystem würde dann aufgrund der gegebenen Antworten eine interne Repräsentation des Textes erstellen, die die Grundlage für die universelle Übersetzbarkeit bilden würde. Heute kann es einen solchen automatischen Textklarifizierer noch nicht geben, denn heutige Computer verstehen Texte in keiner Art und Weise. Deshalb können sie auch keine Fragen stellen. Nur wenn sich das ändert, werden Computer allerdings einmal ernstzunehmende denkende Wesen werden. Heute müsste der Frage-Antwort-Teil von Menschen übernommen werden und diese hätten dann auch noch das Problem, den Textinhalt in einer Universalsprache festzuhalten. Ein automatisches System dadegen müsste die interne, universelle Repräsentation des Textes nicht unbedingt offenlegen.

      • Noch ein Wort zu Ihren Bemerkungen zur Übersetzung von Wikipedia: Für viele Artikel gilt sicherlich, dass es gut wäre, sie automatisch zu übersetzen. Allerdings darf man auch bei Wikipedia, wie bei jedem Lexikon, den spezifischen kulturellen Einfluss nicht unterschätzen, der in Hinsicht auf Auswahl der Lemmata, Verlinkung und Darstellung des Gegenstands vorliegt. Der Eintrag zu Konfuzius muss im chinesischen Wikipedia anders aussehen als im deutschen.

    • Die von Ihnen beschriebene Idee liegt der “Universal Networking Language” zugrunde, deren Entwicklung bis ins jahr 1996 zurückgeht. Im Bereich der Maschinellen Übersetzung (MÜ) gibt es ein ähnliches Konzept, dass man “Interlingua-basierte MÜ” nennt. Damit ist eine zumeist formallogisch strukturierte Zwischensprache gemeint, in die ein Text übersetzt wird, um von dort aus in prinzipiell beliebig viele Zielsprachen weiterübersetzt zu werden. Auch das riesige deutsche Verbmobil-Projekt (1993-2000) setzte mit den “Verbmobil Interface Terms” auf eine logische Interlingua. Linguistisch sehen diese Ansätze alle wunderbar aus, auch wenn sie die in diesem Beitrag beschriebenen Probleme beinhalten (bestimmte bedeutungskonstituierende Prozesse bleiben unberücksichtigt). Allerdings ist die Entwicklung von Interlingua-Ansätzen von den statistischen Verfahren, die mit dem wachsenden World Wide Web und insbesondere den dort vorliegenden mehrsprachigen Textsammlungen immer besser wurden, sehr bald in den Schatten gestellt worden. Auch dem Google-Übersetzer liegen statistische Übersetzungsverfahren zugrunde. Der Verarbeitungsaufwand bei Interlingua-basierten Systemen ist enorm hoch, so dass bei ihnen nur sehr schwer ein akzeptables Laufzeitverhalten erzielt werden kann.

    • Martin Holzherr schrieb (11. Juni 2017 @ 14:11, 11. Juni 2017 @ 14:55):
      > […] beispielsweise bei der Wikipedia, dass jeder Eintrag in dutzenden von verschiedenen Sprachen existiert

      Das wäre ja an sich nicht nachteilig;
      sicherlich würde z.B. jemand, der die chinesische Sprache und Kultur (bis auf Weiteres) höchstens oberflächlich kennt, andere Enzyklopädie-Inhalte über [[Konfuzius]] brauchbar finden, als ein Chinese.
      (Womöglich würden sogar verschieden vorgebildete Chinesen verschiedene Enzyklopädie-Inhalte über [[Konfuzius]] brauchbar finden. …)

      Andererseits ist die fortgeschrittene Fragmentierung “der Wikipedia” (nicht nur in Sprachvarianten, sondern sogar in “Schwesterprojekte”) beim Verwikilinken der Inhalte hinderlich.

      > Es wäre sehr schön und nützlich, wenn sich beispielsweise ein chinesisch sprachlicher Eintrag in einer formalen Notation festhalten liesse, die Garantien dafür gäbe, dass sich der Inhalt ohne Verfälschungen in andere Sprachen übertragen liesse.

      Gewiss.

      > Schade, dass es diese Universalnotation nicht gibt.

      Aber doch zumindest in (ausbaufähigen) Ansätzen; anhand der (mittlerweile angesammelten) gesamten verwikilinkbaren Enzyklopädieinhalte, zusammen mit der (bekannten) Wiki-Syntax
      [[ <Kompositionsthema> # <Kompositionsmotiv> | <sprachliche Äußerung> ]].

      (Schade dass, als ich in den frühen 2000-er Jahren das WikiProject Encyclopedic Network anregte, ich die Funktion des “#”-Zeichens in der Wikisyntax noch nicht kannte, und mich auch niemand darauf hinwies …)

      > Wer aber müsste sinnvollerweise den Originaltext in die formale Universalsprache übertragen? Natürlich der Autor des Originals, denn nur er weiss, was er sagen will und warum er beispielsweise eine bestimmte Metapher verwendet.

      Wer aber müsste den in formaler Universalsprache (in Form von Verwikilinkung) vorliegenden Enzyklopädie-Inhalt (seiner Wahl) in Text seiner Wahl übertragen bzw. darstellen lassen?: Natürlich der Nutzer.

      • p.s.
        Henning Lobin schrieb (9. Juni 2017):
        > Viele Konstruktionen, die wir in Gesprächen oder Texten verwenden, bauen wir nicht Wort für Wort auf, sondern rufen sie komplett als Muster ab

        Um die Paarungen solche Konstruktionen mit den entsprechenden Text-Mustern in der Wikipedia-Universalsyntax zu annotieren, bieten sich die Formen

        [[ Konstruktion # Text-Muster | ]]

        bzw.

        [[ Konstruktion # Text-Muster | <Satzzeichen> ]]

        am Ende des jeweiligen Text-Musters an
        (dessen kleinere Bestandteile dabei wiederum einzeln annotierbar bleiben; insbesondere auch mit der oben (13. Juni 2017 @ 11:17) gezeigten Notationsform).

      • p.s.
        Henning Lobin schrieb (9. Juni 2017):
        > Viele Konstruktionen, die wir in Gesprächen oder Texten verwenden, bauen wir nicht Wort für Wort auf, sondern rufen sie komplett als Muster ab

        Um die Paarungen solche Konstruktionen mit den entsprechenden Text-Mustern in der Wikipedia-Universalsyntax zu annotieren, bieten sich die Formen

        [[ Konstruktion # Text-Muster | &amp;#8203; ]]

        bzw.

        [[ Konstruktion # Text-Muster | <Satzzeichen> ]]

        am Ende des jeweiligen Text-Musters an
        (dessen kleinere Bestandteile dabei wiederum einzeln annotierbar bleiben; insbesondere auch mit der oben (13. Juni 2017 @ 11:17) gezeigten Notationsform).

  6. Pingback:Psiram » Psirama – Der Psiram-Wochenrückblick (KW23, 2017)

  7. Blöd halt, dass die Semantik die Welt meint, also das näherungsweise, ausschnittsartige und an Interessen (!) gebundene Tasten des erkennenden Subjekts, das sich um sein Fortkommen bemüht und deshalb die Mathematik (“die Fähigkeitslehre” oder “Lernlehre”) und zuvor die Logik (“Sprachlichkeit”), am Anfang war bekanntlich das Wort, entwickelt hat.

    Insofern hat der Linguist hier “hartes Brot”, die Syntax mag verstanden werden, sofern sie dafür nicht die Semantik benötigt, nicht aber die Semantik, die einerseits den Altvorderen geschuldet ist, Etymologie hier das Fachwort, und andererseits eben nur an der Welt nagt.

    Am Rande notiert :
    Eine der ersten philosophischen Texte, die sich Dr. W vor langer Zeit zugeführt hat, war dieser.
    -> http://www.loske.org/html/school/philo/russell.pdf (“Loske” ist hier nicht geprüft worden, der Text könnte OK sein)

    MFG + schöne Woche noch,
    Dr. Webbaer

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +