Chomskys linguistische Revolution – radikal und konservativ zugleich

Wenn man sich die Entwicklung der Wissenschaft im 20. Jahrhundert ansieht, hat man zunächst den Eindruck, dass überall Revolutionen stattgefunden haben. Bei näherem Hinsehen erweisen sich diese Revolutionen oftmals als eine ziemlich gradlinige Entwicklung aus dem, was es vorher schon gegeben hat. In der Sprachwissenschaft ist das nicht anders. Der Strukturalismus lässt sich als eine moderne Fortschreibung von Grundprinzipien deuten, die noch aus der Antike und dem Mittelalter entstammen. Ferdinand de Saussures epochemachendes Buch “Cours de linguistique générale” systematisierte vieles, was schon im 19. Jahrhundert in der Linguistik bekannt war, und setzte dabei die Verabsolutierung einer reinen Sprachlichkeit fort, wie sie schon in der Tradition der klassischen Rhetorik praktiziert worden ist.

Knapp 40 Jahre nach der Veröffentlichung des „Cours“ erschien 1957 bei einem holländischen Verlag das Buch eines gerade 28 Jahre alten amerikanischen Linguisten, das sich zusammen mit Saussures Werk als das einflussreichste in der Sprachwissenschaft des 20. Jahrhunderts erweisen sollte. Noam Chomsky, der Autor dieses Buchs, entwirft in „Syntactic Structures“[i] auf kaum mehr als hundert Seiten das Modell einer „generativen Transformationsgrammatik“. Anders als bei den bislang angewandten Verfahren der grammatischen Beschreibung zeigt Chomsky, wie man mit einer Art Sprachautomat grammatisch korrekte Sätze einer Sprache erzeugen kann. Die Idee dabei ist, dass die Beschreibung grammatischer Verhältnisse auf diese Weise viel präziser wird: Die Abgrenzung von grammatischen zu ungrammatischen Sätzen wird durch die Eigenschaften der „Maschine“ definiert, und auch die Mehrdeutigkeit mancher Satzkonstruktionen hinsichtlich ihrer Bedeutung – eine Art Test für die Güte einer grammatischen Analyse – lässt sich durch unterschiedliche Wege bei der Erzeugung des Satzes erklären.

Chomskys „Maschine“ erreicht dies durch zwei getrennte Komponenten: Mit der ersten Komponente, der „Phrasenstrukturebene“, werden durch ein formales Regelwerk Basissätze aufgebaut, die durch die zweite Komponente, die „Transformationsebene“, in verschiedener Weise variiert werden können (beispielsweise durch Aktiv-Passiv-Konversion). Einige Jahre später, in seinem zweiten Hauptwerk[ii], verändert er dieses Modell dahingehend, dass die Phrasenstrukturebene zu einer „Tiefenstruktur“ der Grammatik wird, die keine Sätze, sondern abstrakte grammatische Strukturen erzeugt.  Erst aus denen werden dann durch die Transformationskomponente „normale“ Sätze einer Sprache erzeugt. Damit ist er nicht sehr weit entfernt von Saussures Differenzierung von Sprache in langue und parole: Die Tiefenstruktur spiegelt die reine Sprachlichkeit der langue wieder, die aus der Anwendung der Transformationskomponente hervorgehende Oberflächenstruktur überführt die Sprache gewissermaßen in die Realität und erzeugt konkrete Laut- oder Buchstabenketten – Erscheinungsweisen der parole.[iii]

Ein wesentlicher Unterschied zu Saussure besteht allerdings darin, dass Chomsky dessen Auffassung von Sprache (langue) als ein abstraktes, statisches und irgendwie auch überindividuelles System von Zeichen ablehnt.[iv] Stattdessen nimmt er die kognitiven Fähigkeiten des Sprachbenutzers in den Blick und bezeichnet die zugrunde liegende Fähigkeit als „Kompetenz“. Die Verbindung der grammatischen Analyse mit den (behaupteten) Eigenschaften der menschlichen Kognition verwandelt diesen etwas trockenen Zweig der Geisteswissenschaften auf einen Schlag in eine Art kognitionswissenschaftliche Grundlagenforschung – ein genialer Schachzug Chomskys, um die mit ihrer Formalisierung ständig abnehmende praktische Relevanz der Grammatikforschung mit neuer programmatischer Relevanz aufzuladen. Gleichzeitig wird die Grammatikforschung mit der kognitionswissenschaftlichen Verortung als ein ganz eigenständiges, vom Rest der Sprachwissenschaft unabhängiges Forschungsgebiet legitimiert – die „theoretische Linguistik“ war geboren mit ihrer Königsdisziplin, der Grammatiktheorie.

Indem er Kompetenz mit diesem Modell der sprachlichen Tiefenstruktur und der danach anzuwendenden Transformationskomponente (die in späteren Fassungen entfällt) identifiziert, erreicht Chomsky gleichzeitig auch, sich um Reichweite und Gültigkeit der Regeln nicht zu viele Gedanken machen zu müssen. Die Varianten, Fehler und Uneindeutigkeiten in der konkreten Realisierung der sprachlichen Hervorbringungen von Menschen werden mit den Anwendung dieses Modells durch reale Sprecher erklärt. Dies nennt er als Gegenbegriff zur Kompetenz „Performanz“ – und verbannt ihn damit gleichzeitig aus dem Zuständigkeitsbereich der Grammatiktheorie. Dort verbleiben glasklare Regeln, die kein Sowohl-Als-auch und keine Wahrscheinlichkeiten kennen. Auch wenn die Regeln wegen der kognitivistischen Ausrichtung dieser Grammatiktheorie nicht normativ verstanden werden, so ist kaum ein Unterschied zu den normativen Grammatiken aus Antike, Mittelalter und früher Neuzeit zu erkennen. Ob grammatische Regeln nun bewusst von einem Menschen einzuhalten sind, damit dieser in „korrektem“ Deutsch spricht oder schreibt, oder ob er diese Regeln unbewusst befolgt, um ganz abstrakte, noch nicht durch Performanz verunreinigte Sätze zu produzieren, ist eigentlich ohne Belang. In beiden Fällen werden Regeln benutzt, um sprachliches Verhalten in einer apodiktischen, nicht durch die kommunikative Wirklichkeit beeinflussten Weise zu beschreiben. Aus dieser Perspektive betrachtet erscheint die Chomskysche Grammatiktheorie keineswegs mehr als so revolutionär, wie sie in den fünfziger und sechziger Jahren des vergangenen Jahrhunderts wahrgenommen wurde. Vielmehr führt auch sie die seit der Antike verfolgte Regelorientierung der grammatischen Beschreibung von Sprache fort und spitzt sie dabei sogar noch zu. Die Radikalisierung der Regelorientierung überhöht die Grammatik in einer zuvor nicht gekannten Weise und hebt sie damit aus einer an der sprachlichen Wirklichkeit orientierten Sprachwissenschaft heraus. Mit der kognitiven Theorie der Grammatik wird Grammatikschreibung zu einer Grammatikideologie.

Beitragsbild: Noam Chomsky 1977. CC BY-SA 3.0, Quelle: Wikipedia. Bearbeitung: Formatänderung.

Anmerkungen: 

[i] Chomsky, Noam (1957): Syntactic Structure. Den Haag, Paris: Mouton.

[ii] Chomsky, Noam (1965): Aspects of the Theory of Syntax. Cambridge, MA: MIT Press.

[iii] Zur Deutung der ersten und der zweiten Phase von Chomsky Grammatiktheorie insbesondere im Kontext der strukturalistischen Entwicklung s. das 9. Kapitel in Helbig, Gerhard (1989): Geschichte der neueren Sprachwissenschaft. 8. Aufl., 1. Auflage 1971. Opladen: Westdt. Verl. (WV-Studium, 48).

[iv] So Chomsky, Noam (1973): Aspekte der Syntax-Theorie. Frankfurt am Main: Suhrkamp (Suhrkamp Taschenbuch Wissenschaft, 42), S. 14–15.

Avatar-Foto

Veröffentlicht von

www.lobin.de

Henning Lobin ist seit 2018 Direktor des Leibniz-Instituts für Deutsche Sprache in Mannheim (Mitglied der gemeinsam vom Bund und allen 16 Bundesländern finanzierten Leibniz-Gemeinschaft) und Professor für Germanistische Linguistik an der dortigen Universität. Zuvor war er ab 1999 Professor für Angewandte Sprachwissenschaft und Computerlinguistik an der Justus-Liebig-Universität Gießen. Seine Forschungsschwerpunkte bilden die Auswirkungen der Digitalisierung auf die Sprache, Texttechnologie, Grammatik, Wissenschaftskommunikation und Politolinguistik. Er ist Sprecher der Sektion "Geisteswissenschaften und Bildungsforschung" und Präsidiumsmitglied der Leibniz-Gemeinschaft, Mitglied germanistischer Fachbeiräte ua. von DAAD und Goethe-Institut, er war Mitglied des Forschungsbeirats der Stiftung Wissenschaft und Politik und des Fachkollegiums Sprachwissenschaft der DFG. Lobin ist Autor von neun Monografien und hat zahlreiche Sammelbände herausgegeben. Zuletzt erschienen sind Engelbarts Traum (Campus, 2014, polnische Übersetzung 2017, chinesische Übersetzung 2018), Digital und vernetzt. Das neue Bild der Sprache (Metzler, 2018) und Sprachkampf (Duden, 2021). Bei den SciLogs ist Henning Lobin seit 2014 Autor des Blogs "Die Engelbart-Galaxis", nachdem er dort bereits ab 2008 am Gruppenblog "Interactive Science" beteiligt war.

15 Kommentare

  1. “keineswegs mehr so revolutionär, als wie …” ??? Hoppla, Herr Linguistikprofessor, wohl schon zu lange in Gießen, wo mer ja a bissche annerschter schwatze duht ALS WIE annerschwo!

    • Da können Sie mal sehen, dass selbst ein Linguistik-Professor nicht an Chomskys idealen Sprecher-Hörer herankommt. Vielen Dank für den Hinweis! Ich habe den Satz nun durch Verschiebung des “als” in den Hauptsatz vom Mittelhessischen ins Hochdeutsche überführt.

  2. Chomsky’s Erfolg wäre also eventuell seinem Reframing altbekannter, bereits von anderen formulierten Wahrheiten und Erkenntnissen, zu verdanken.
    Wobei ich Reframing hier nicht im ursprünglichen Sinne verwende, bezeichnet es doch laut Wikipedia eine Form der Familientherapie. Doch mit folgendem aus dem Wikipedia-Artikel kann man auch Chomskys neue Sicht auf die Grammatik deuten:

    Durch Umdeutung wird einer Situation oder einem Geschehen eine andere Bedeutung oder ein anderer Sinn zugewiesen, und zwar dadurch, dass man versucht, die Situation in einem anderen Kontext (oder „Rahmen“) zu sehen

    Chomskys Umdeutung der Grammatik in „Syntactic Structures” läuft auf eine Verschiebung von Bekanntem in den Bereich des informationstheoretischen und/oder Kognitiven hinaus. Um dies noch weiter zu motivieren, möchte ich auf folgendes hinweisen: Es ist kein Zufall, dass Chomskys Klassifizierung verschiedener Sprachklassen und beispielsweise seine Definition, was eine kontextfreie Sprache ist, in den Computerwissenschaften bekannt ist und jeder Informatiker Chomsky kennt. Denn Chomsky hat bereits sehr früh die Sprache der Computerwissenschaftler gesprochen. Indirekt hat Chomskys Herangehensweise wohl sogar die Kluft zwischen Linguisten und Computerwissenschaften verringert und der Computerlinguistik den Boden geebnet.

    Und das alles durch Reframing.

    • Ergänzung: Die Quora-Frage How has Noam Chomsky’s work influenced the field of computer science? wurde von 2 Informatikern, einem Wissenschaftsjournalisten und Linguisten beantwortet. Die Informatiker verwiesen auf Chomskys Sprachenhierarchie, der Wissenschaftsjournalist Arjun Subramaniam behauptet:

      Noam Chomsky’s work has greatly influenced artificial intelligence. … Chomsky focused less on the ‘action-reward system’ [was die Behavioristen taten] and more on gene-based modules in our brain that when evolved and put together, morphed into an intricate computational system whose output was language.

      und der Linguist antwortete auf die Eingangsfrage:

      I used Chomsky’s work as a linguist to help in designing the first level (parser) of a natural language interface for my MSCS final project. …

      Chomskys These einer Universalgrammatik mit den dazugehörigen Begriffen der Tiefenstruktur und der generativen Transformationsgrammatik scheinen mir für einen Computerwissenschaftler gut nachvollziehbar. Vor allem deshalb, weil es dabei implizit um Prozesse geht. Transformierende Prozesse als quasi Abbildungen auf einer höheren Abstraktionsstufe aufgefasst, sind Computerwissenschaftlern vertraut. Sie kommen in der Informatik überall vor, von der Kryptogpraphie über Programmiersprachkonzepte bis hin zu mehrstufigen neuronalen Netzen.

    • Chomskys Wirkung ist auf alle Fälle kaum zu überschätzen, das streite ich überhaupt nicht ab. Für die Computerlinguistik (CL) war die Generative Transformationsgrammatik (GTG), wie seine Grammatiktheorie am Anfang hieß, ein ganz wichtiger Impuls, unabhängig von der Theorie formaler Sprachen, die er nicht in “Syntactic Structures”, sondern schon parallel in anderen Publikationen entwickelt hat. Allerdings hat sich die CL auch schnell wieder von der GTG entfernt, da man festgestellt hat, dass die Erkennung der kontextfreien Phrasenstrukturkomponente zusammen mit den Transformationen exponentiell entwickelt (Transformationsregeln sind kontextsensitive Regeln – Chomsky hat diesen Regeltyp genau für seine linguistisch motivierten Transformationen “entdeckt”). Bis auf ganz, ganz wenige Ausnahmen sind die Phänomene der natürlichen Sprach jedoch kontextfrei beschreibbar, sehr vieles sogar durch endliche Automaten. Auf Grundlage der GTG wurde deshalb bis heute kein einziger funktionstüchtiger Parser eines nennenswerten Ausschnitts einer natürlichen Sprache entwickelt, allenfalls einige Spielzeugsysteme. Allerdings sind aus der Auseinandersetzung mit den formalen Eigenschaften der GTG – und ihrer Reduktion – eine ganze Reihe von Grammatikmodellen hervorgegangen, die heute eine wichtige Rolle in der Grammatiktheorie spielen, allen voran die Head-driven Phrase Structure Grammar und die Lexical Functional Grammar.

      Überhaut keine Beziehung weist die GTG allerdings bis heute zu korpusbasierten Ansätzen auf, in denen das Konzept der Regel (bzw. entsprechender Strukturen) durch statistisch motivierte, aus Korpusdaten extrahierte Konstruktionen ersetzt wird, die oftmals an bestimmten Wörtern oder Wortmengen festgemacht werden können. Hier bahnt sich in meinen Augen ein gewaltiger Wandel in der Linguistik an, und Chomskys GTG und die späteren Varianten davon befinden sich bei aller Bedeutung, die Chomsky selbst zweifellos besitzt, eher auf der althergebrachten Seite.

      • Klar ist Chomsky heute für machine translation und speech recognition kaum mehr von Bedeutung. Alles andere würde verwundern, stammt doch „Syntactic Structures“ aus dem Jahr 1957. Letztlich sind weite Teile von Chomskys Werk geisteswissenschaftlich fundiert, womit diesem Werk die empirisch/formale Grundlage fehlt, die nötig wäre um etwas zeitlos gültiges zu schaffen, etwas was über “Zeitgeist”-inspiriertes hinausgeht und die Gültikeit eines mathematisch/naturwissenschaftlichen Werkes wie den Newtons erreichen kann.

        Wer von einer Universalgrammatik als Bestandteil unseres “Geistes” (minds) spricht wie Chomsky oder wer etwas über die kindliche kognitive Entwicklung behauptet wie Piaget, muss das letztlich empirisch nachweisen. Sonst bleibt es eine Behauptung, selbst wenn einige Beobachtungen dafür sprechen. Solche Fragen wie sie Chomsky oder Piaget aufgeworfen haben müssen letztlich naturwissenschaftlich beantwortet werden und das wiederum ist nur möglich, wenn wir dem Hirn beim Arbeiten zusehen können und verstehen wie die Antwort des Hirns auf Umweltreize zustande kommt. So weit sind wir selbst heute noch nicht.

        • Machine Translation und Speech Recognition hat sich seit Chomsky in Richtung nichtlineare, statistisch operierende und rausch- und störungstolerante Systeme entwickelt.
          Das galt schon für das statistische, auf bilingualen Textkorpora basierende machine translation. Und es gilt in vermehrten Masse auch für das “neural machine learning”, wobei der statistische Ansatz bei neuronalen Netzwerken implizit im Netzwerkansatz angelegt ist und nicht explizit in bewussten Suchen nach Korrelationen wie beim statistischen machine learning. Die Foliensammlung Elements of Nonlinear Statistics and
          Neural Networks
          verweist auf den Zusammenhang zwischen nichtlinearer Statistik und neuronalen Netzwerken.

          Eigentlich ist es klar, dass Chomskys grammatikbasierter Ansatz allein nicht genügen kann um mit einer nicht exakten, “fuzzy”- Realität umgehen zu können in der wir Menschen uns ständig bewegen. Chomsyks Ansatz passt aber gut zur frühen Informatik welche noch von diskreter Logik geprägt war.

        • Dem ist zu widersprechen. Die Generative Grammatik ist keineswegs veraltet, sondern ist bis heute weiterentwickelt worden. Die Tatsache, dass Chomskys Modell heute keine Rolle im Bereich der Sprachtechnologie spielt, ist darauf zurückzuführen, welche Ausrichtung es nach und nach genommen hat, nicht aber darauf, dass es vor bereits 60 Jahren seine Anfang genommen hat.
          Und auch Ihrer impliziten Gleichsetzung von “empirisch” mit “naturwissenschaftlich” widerspreche ich. Es gibt selbstverständlich in jeder geisteswissenschaftlichen Disziplin eine empirische Ausrichtung, und einige wie die Linguistik und die Archäologie lassen sich nur empirisch fundiert betreiben. Aufgrund der zunehmenden Datenorientiertheit heißt “empirisch” dabei mittlerweile auch sehr oft “statistisch”. Und wenn die Erforschung des Spracherwerbs, wie es heute geschieht, auf der Grundlage der statistischen Auswertung umfangreicher Korpora des Spracherwerbs von Kindern geschieht, dann macht das diese Wissenschaft um keinen Deut “naturwissenschaftlicher” als zuvor. Entsprechend gilt das für die Erforschung von Netzwerkwerkstrukturen (z.B. in der Geschichtswissenschaft) oder Prozessen. Empirie in den Geisteswissenschaften führt nicht automatisch zu einer kognitivistischen oder gar hirnphysiologischen Perspektive.

          • Ja, empirisch und naturwissenschaftlich gleichzusetzen bedeutet wohl, die Geisteswissenschaften zurückzusetzen, zu amputieren. Doch sogar die (deutschsprachige) Wikipedia sieht empirisch und naturwissenschaftlich zunehmend in einem Bett, liest man dort doch:

            Im Zuge einer fortschreitenden Trennung von Natur- und Geisteswissenschaften rückte die Beziehung des Empirismus zu den Naturwissenschaften und z. B. eine Präferenz quantitativ-statistischer Methoden aber stärker in den Vordergrund.

            Zudem: “eine fortschreitenden Trennung von Natur- und Geisteswissenschaften” (Wikipedia) zu sehen scheint mir eine Sache der Perspektive. Ich beobachte eher, dass naturwissenschaftliche Institutionen wie das Max Planck Institut oder gewisse der Physik nahestehende Institute der ETH ihre interdisziplinäre Forschung zunehmend in Bereich ausdehnen, die früher den Geisteswissenschaften zugeordnet wurden. Bei den Geisteswissenschaften und den Humanities beobachte ich umgekehrt eine Digitalisierung, die allerdings weniger den Inhalt als die Art der Dokumentation, Verlinkung und Weitergabe von Information betrifft.

          • Die Digitalisierung der Geisteswissenschaft führt in vielen Fällen zu einem neuen Blick auf die geisteswissenschaftlichen Gegenstände. Ein gutes Beispiel dafür ist etwa das “Distant Reading” des Stanforder Literaturwissenschaftlers Franco Moretti. Er liest und analysiert nicht einzelne oder wenige Romane und schreibt dann darüber, sonder Tausende, und zwar statistisch. So analysiert er etwa die komplette viktorianische Romanproduktion und zeichnet ihre Entwicklung mithilfe der statistischen Analyse der Verwendung von Adjektiven oder Personenbezeichnungen nach. Ähnliches finden Sie inzwischen auch in der Kunstgeschichte oder der Geschichtswissenschaft (s. dazu z.B. die Journals Digital Scholarship in the Humanities oder Digital Humanities Quarterly). Da passiert gegenwärtig wesentlich mehr als nur Dokumentation, Verlinkung und Informationsweitergabe.

  3. Ich finde, es greift zu kurz, wenn man das werk Chomskys auf seine frühen linguistischen veröffentlichungen reduziert. Denn mit der “Government and binding theory” bzw. dem “Prinzipien- und Parametermodell” aus den 80er und 90er Jahren (habe selbst von 1989 – 1995 in Ffm linguistik studiert) sollte ja die transformationsgrammatik vor allem den daten aus spontansprachlichen äußerungen und denen aus dem erstspracherwerb von kindern gerecht werden. Was auch bis zu einem gewissen grad sehr gut gelungen ist. Zudem konnte dieses modell auch viel besser solche phänomene erklären, die sich durch störungen des sprachsystems (bspw. durch hirnschädigungen) ergeben. Erklären ist hier das stichwort und nicht nur beschreiben, denn es konnte vorhersagen machen, welche störungen zu erwarten wären, wenn unterschiedliche teile des sprachsystems im gehirn geschädigt sind (Broca, Wernicke) bzw. konnte anhand von spontansprachlichen daten solcher patienten auch eingegrenzt werden welcher teil der sprachproduktion (syntax, morphologie, phonologie) von der störung betroffen ist. Daraus ergab sich sogar ein berufsbild des “klinischen linguisten” (verschwand aber im zuge der ersten gesundheitsreform wieder), um neurologen und psychologen in analyse und therapie zur seite zu stehen. Darüber hinaus konnte ein solches modell in kaum gekannter weise fehlerhafte spontansprache wie versprecher sehr gut erklären, da sie sozusagen strukturell angelegt waren und fehler auf den unteschiedlichsten ebenen der sprachproduktion vorkamen. Laut dieser theorie musste es solche fehler geben. Und nicht vergessen werden sollte, dass diese art der grammatischen theorie anwendbar auf alle bekannten menschlichen sprachen war. Ich denke, dass dies tatsächlich erst die eigentliche revolution war. Ich gebe zu, dass Chomsky selbst diese theorie später wieder verworfen hat, warum genau entzieht sich aber meiner kenntnis, denn da hatte ich schon aufgehört linguistik zu studieren.

    mfg

    ndray

    • Haben Sie vielen Dank für den Hinweis auf diesen Aspekt. In der Tat hatte es in den achtziger Jahren einen gewissen Boom damit gegeben, aphatische sprachproduktionsphänomene, vor allem den sog. Agrammatismus, mit Chomskys Government-Binding-Modell zu erklären. Vor allem die Arbeiten von Grodzinsky hatten dies ausgelöst (s. z.B. Grodzinsky, Y. (1984). The syntactic characterization of agrammatism. Cognition, 16, 99–120). Das ist allerdings später weitgehend im Sande verlaufen, und zwar aus gutem Grund: Wenn man sich mal reale Agrammatismus- bzw. Dysgrammatismus-Daten anschaut von echten Patienten, und zwar die ganze Breite von deren Sprachproduktion, dann merkt man schnell, dass da alle möglichen kognitiven Prozesse zusammenlaufen – Aufmerksamkeit, Prozesssteuerung, Gedächtnis, Eigenwahrnehmung usw. Das Grammatikmodul, falls es denn tatsächlich existiert, sitzt in diesem Orchester allenfalls irgendwo weiter hinten.
      Ich selbst habe diese Erfahrung gemacht, als ich nach meinem Studium 1988/89 den Zivildienst (damals immerhin 20 Monate lang) in der Forschungsgruppe der Abteilung für Sprachstörungen in der Rheinischen Landesklinik in Bonn gemacht habe. Ich arbeitete damals gerade an meiner Doktorarbeit im Bereich Syntax und hatte großes Interesse daran, formale Syntaxtheorien mit der Sprachproduktion der Aphasiker schlüssig zusammen zu bringen. Es funktioniert einfach nicht, es sei denn, man pickt sich isolierte Äußerungen der Patienten heraus und biegt die sich ein bisschen hin. Zwar verfolge ich dieses Forschungsgebiet nicht mehr, aber meines Wissens ist der Ansatz der grammatiktheoretischen Erklärung aphatischer Sprachproduktion mausetot.

  4. Pingback:Sprachautomaten » Die Engelbart-Galaxis » SciLogs - Wissenschaftsblogs

  5. Pingback:Sprache, Logik und ein Mord » Die Engelbart-Galaxis » SciLogs - Wissenschaftsblogs

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +