Sprachautomaten

Der Informatiker Wolfgang Coy hat den Computer einmal als ein Gerät beschrieben, das drei verschiedene Erscheinungsformen aufweist: als Automat, als Werkzeug und als Medium.[i] Auch bei der maschinellen Sprachverarbeitung lassen sich diese drei Entfaltungsstufen erkennen. In der ersten, frühesten Entwicklungsstufe als Automat ging es darum, menschliche Tätigkeiten durch den Computer zu ersetzen. Einen Text zu übersetzen war die erste automatisierte Sprachanwendung. Seit den 1960er Jahren ging daraus die akademische Disziplin der Computerlinguistik hervor, die sich bis heute mit den Grundlagen der Sprachtechnologie befasst.[ii] Dazu gehören von Anfang etwa die Verfahren der Grammatik-Analyse, das sogenannte Parsing, oder die Analyse der Struktur von Wörtern, um diese auf ihre Lexikonform zurückzuführen. Und auch die Bedeutungsseite der Sprache wurde bald berücksichtigt, indem die durch Parsing ermittelten grammatischen Strukturen auf logische Ausdrücke abgebildet wurden.

Die algorithmische Verarbeitung von Sprache und Texten erfordert die Formalisierung linguistischen Wissens. In der Frühphase der Computerlinguistik griff man dabei zu Chomskys Generativer Grammatik, da dieser selbst erste Überlegungen aus der maschinellen Sprachverarbeitung in seine Theorie hatte einfließen lassen. Allerdings stellte sich schon bald heraus, dass diese Theorie nicht für reale Sprachverarbeitungszwecke geeignet war. So war es nicht möglich (und ist es bis heute nicht), streng der Theorie folgend ein Parsing-Programm zu erstellen, das den Echtzeit-Anforderungen der Kommunikation Genüge tut – auf der Grundlage der Generativen Grammatik gebaute Parser sind schlicht zu langsam. Der Ausweg, der in der Computerlinguistik gewählt wurde, war der, eigenständige Formalismen zu entwickeln, mit denen linguistische Strukturen algorithmisch besser fassbar und programmiertechnisch handhabbar werden. Dabei erwies es sich als sehr vorteilhaft, derartig formalisierten linguistischen Strukturen nicht mit ihrer Verarbeitung – etwa bei der Analyse oder der Synthese von Sätzen – zu vermischen, sondern Daten und Prozesse strikt voneinander zu trennen. Auf diese Weise können sich mit diesen Formalismen arbeitende Linguisten ganz auf die sprachliche Seite konzentrieren, während Algorithmen und Programme nach allen Regeln der Informatik von Sprachtechnologen entwickelt werden.

SHRDLU und HAL 9000

Auf dieser methodischen Grundlage wurden seit den 1960er und 70er Jahren diverse anwendungsbezogene Sprachverarbeitungssysteme entwickelt, die Maschinelle Übersetzung war nur der Anfang. Besonders aufsehenerregend waren Dialogsysteme, die mit Menschen Gespräche zu vorgegebenen Themen führen können sollten. Das System SHRDLU etwa, dessen Entwickler Terry Winograd ihm ganz bewusst einen unaussprechlichen Namen geben wollte, konnte per Computerterminal Anweisungen entgegennehmen und Erklärungen zu den Verhältnissen in seiner „Welt“ abgeben. Diese Welt bestand aus einigen grafisch simulierten Quadern, Würfeln, Pyramiden, Kugeln und Kästen, die mit einem ebenfalls simulierten Greifarm bewegt werden konnten.[iii] Das System war ein Experte in dieser „Blocks World“ und konnte beispielsweise auch schlussfolgern, dass eine Kugel nicht auf einer Pyramide abgelegt werden kann.

Die Begeisterung über SHRDLU war groß seinerzeit, und die Wissenschaftler wähnten sich der Realisierung von künstlicher Intelligenz schon ganz nahe. Leider stellte sich schon bald heraus, dass der Übergang von der simulierten „Blocks World“ zur realen Welt keineswegs nur eine Fleißarbeit war, sondern prinzipielle Probleme mit sich brachte, die durch die Dynamik, die Komplexität und die Ungenauigkeit in der Erfassung der Wirklichkeit bedingt war. Schon einige Jahre zuvor war allerdings eindrucksvoll bewiesen worden, wie leicht wir Menschen in Sachen künstlicher Intelligenz hinters Licht geführt werden können. Joseph Weizenbaum hatte 1966 das Dialogsystem ELIZA so programmiert, dass es mit einigen Dutzend Frage- und Antwort-Mustern und ein paar simplen Umformungsregeln den Anschein erweckte, als ob es einen Psychotherapeuten simulieren könnte. Bei einem unvoreingenommenen Test dieses Systems erreicht man sehr schnell dessen Grenzen und erkennt seine völlig „unintelligente“ Funktionsweise. Versuchspersonen jedoch, denen gegenüber ELIZA als künstlicher Therapeut dargestellt wurde, fanden sich teilweise vom System gut beraten und baten sogar darum, zur Wahrung der Privatsphäre doch bitte allein gelassen zu werden.[iv]

Ein tatsächlich intelligentes Dialogsystem, das sich allerdings als zu intelligent erweisen sollte, wurde 1968 sogar Hauptfigur in einem Kinofilm: Stanley Kubricks Science-Fiction-Meisterwerk „2001: Odyssee im Weltraum“ schildert eine Expedition zum Saturn, in dessen Verlauf der „HAL 9000“[v] genannte sprachfähige Computer nach und nach die Kontrolle zu übernehmen versucht, bis er vom letzten noch im Raumschiff verbliebenen lebenden Menschen ausgeschaltet wird. „HAL 9000“ zeigt die volle Entfaltung dessen, was ein Kommunikationsautomat zu leisten hat. Neben der Analyse der sprachlichen Äußerungen des Gesprächspartners, ihre inhaltliche Auswertung und die Bestimmung einer Antwort oder eines Kommentars muss auch eine Folge von Sätzen als Antwort oder weiterführende Bemerkung im Dialog produziert werden.

Realistische Ziele

Die erste Euphorie über Dialogsysteme und die nachfolgende Ernüchterung ließ die Frage aufkommen, ob die Entwicklung solcher Systeme überhaupt sinnvoll ist. Viele Computerlinguisten wandten sich deshalb übersichtlicheren Teilaufgaben zu, um diese viel intensiver und mit einer realistischen Anwendungsperspektive zu bearbeiten. Für praktische Zwecke viel wichtiger als Dialoge wurden dabei Texte: Texte werden im technischen, administrativen, wissenschaftlichen und kulturellen Bereich praktisch seit der Entstehung der Schrift verwendet, und Computer können beim Umgang mit Texten zu Effizienzsteigerungen führen. Dies lenkte die Aufmerksamkeit der Wissenschaftler auf die Analyse und die Generierung von Texten.

Bei beiden Aufgaben kann zwischen „tiefen“ und „flachen“ Verfahren unterschieden werden. Die „tiefe“ Textgenerierung geht von der Repräsentationen von Bedeutungen aus und formt diese Schritt für Schritt in eine Abfolge von Sätzen um. Dazu muss zunächst ermittelt werden, welche Bedeutungen überhaupt sprachlich zu realisieren sind, welche erschlossen werden können und welche für das Verständnis zusätzlich erforderlich sind. Sodann sind Satzeinheiten zu bilden, die wichtigsten bedeutungstragenden Wörter (Verben, Substantive, Adjektive) auszuwählen und grammatische Strukturen zu bilden, um zuletzt, die Wörter in der richtigen Reihenfolge und in der richtigen Form als Satz auszugeben.[vi] „Flache“ Textgenerierungsverfahren hingegen beginnen nicht in der Tiefe abstrakter Bedeutungen, sondern verwenden von vornherein vorformulierte Versatzstücke auf Satz- oder Textebene, um daraus den resultierenden Text zusammenzusetzen. Diese Versatzstücke können aus anderen Texten kommen, die inhaltlich mit dem Zieltext verwandt sind, oder in einer Datenbank abgelegt sein. Die Aufgabe des Textgenerierungsprogramms besteht hier vor allem darin, geeignete Textstücke auszuwählen und sie in den entstehenden Satz- und Textzusammenhang einzupassen.

Ganz ähnlich, nur in umgekehrter Richtung, verhält es sich bei der Textanalyse: Eine „tiefe“ Textanalyse will durch semantische Verarbeitungsmethoden Bedeutungsrepräsentationen aufbauen, die den Inhalt eines Textes möglichst umfassend wiedergeben. Dass das ein sehr schwieriges Unterfangen ist, liegt auf der Hand. Die Bedeutung eines Textes kann nicht allein dadurch ermittelt werden, dass die Bedeutungen von Wörtern und Sätzen geschickt miteinander verbunden werden. Vielmehr fließt in hohem Maße „unsichtbares“ Wissen in die Textanalyse ein, das lediglich angestoßen werden muss, um dann länger bei der Bedeutungsbildung mitzuschwingen. Hören wir einen Satz wie „Er schloss die Tür seines Appartments auf“, dann muss uns nicht erklärt werden, dass hinter der Tür ein Flur und andere Räume liegen, dass sich niemand in diesem Appartment befindet und so weiter. Nur vor diesem Wissenshintergrund kann als nächster Satz „Er erschrak, weil er Stimmen hörte.“ korrekt gedeutet werden. Es ist also sehr schwierig, genau zu sagen, wo eigentlich die Grenze einer Textbedeutung liegt und wie weit die Textanalyse zu gehen hat.

Flache Textanalyse

Bei der „flachen“ Textanalyse gibt man sich mit sehr viel eingeschränkteren Ergebnissen zufrieden. Eine Teilaufgabe besteht beispielsweise darin, für jedes Wort im Text die Wortart zu bestimmen. Bei vielen Wörtern ist das nicht sehr schwierig, aber eine vollständig korrekte Analyse ist aufgrund der Mehrdeutigkeiten nur sehr schwer zu erreichen. Ist das Wort „der“ etwa ein Artikel („der Hund“), ein Demonstrativpronomen („Es war der.“) oder ein Relativpronomen („der Hund, der“). Einen Schritt weiter geht die Ermittlung der Lexikonform eines jeden Wortes, die sogenannte Lemmatisierung. Dazu müssen bei den veränderlichen Wortarten der Verben, Substantive, Adjektive, Pronomina, Artikel und mancher Adverbien die Wortform analysiert werden, was oftmals ebenfalls nur in der Kombination von Wortbildungsregeln und Kontextanalyse geschehen kann. Bei der Tokenisierung werden getrennt erscheinende Wörter wie „findet … statt“ als Einheiten markiert, aber auch Teilsätze und Sätze. Letztere können nämlich keineswegs eindeutig durch den abschließenden Punkt identifiziert werden, denn dieser wird ja auch in verschiedenen anderen Zusammenhängen verwendet. Und schließlich, um ein letztes Beispiel der flachen Textanalyse zu geben, kann auch ein Teil der grammatischen Struktur mit einfachen Regeln aus den Sätzen abgeleitet werden. Ein solches flaches Parsing ermittelt zwar nicht die grammatischen Verhältnisse eines Satzes in ihrer vollständigen Komplexität, ist aber in der Lage, Nominalgruppen mit einiger Verlässlichkeit aufzufinden und zu markieren.[vii]

Man kann sich natürlich fragen, worin denn überhaupt der Sinn davon besteht, eine Textanalyse nicht so tief wie möglich zu treiben, sondern sich mit der Markierung einiger relativ oberflächlicher Texteigenschaften zufrieden zu geben. Interessant ist dieses Verfahren nicht für einzelne Sätze oder auch nur einzelne Texte, sondern für größere Textkorpora. Dort nämlich treten durch statistische Auswertungen Muster zutage, die auf Gesetzmäßigkeit schließen lassen. Und auch die flache Textgenerierung bedarf eines Textkorpus, um funktionstüchtig zu sein: Die erwähnten Versatzstücke sind nichts anderes als Muster, die mit einer gewissen Wahrscheinlichkeit in Texten auftreten. Flache Verarbeitungstechniken sind also korpusbasiert und auf Korpora bezogen – und das unterscheidet sie von den tiefen Verarbeitungsverfahren für Texte.

Beitragsbild: Im Inneren von HAL 9000 – Filmstill aus “2001: A Space Odyssey” von Stanley Kubrick (1968) via FilmGrab.

Anmerkungen:

[i] Vgl. Coy, Wolfgang (1995): “Automat – Werkzeug – Medium. In: Informatik Spektrum, Jg. 18, H. 1, S. 31–38.

[ii] Zur Computerlinguistik systematisch und historisch vgl. Lobin, Henning (2010): Computerlinguistik und Texttechnologie. München: Fink (LIBAC, 3282) und Carstensen, Kai-Uwe; Ebert, Christian; Ebert, Cornelia, et al. (Hg.) (2010): Computerlinguistik und Sprachtechnologie. Eine Einführung. 3. Auflage. Heidelberg: Spektrum Akademischer Verlag.

[iii] Vgl. Winograd, Terry (1971): Procedures as a Representation for Data in a Computer Program for Understanding Natural Language. Massachusetts Institute of Technology. Cambridge, MA. (MIT AI Technical Report, 235). Online verfügbar unter http://dspace.mit.edu/bitstream/handle/1721.1/7095/AITR-235.pdf, zuletzt geprüft am 4.7.2016.

[iv] Vgl. Weizenbaum, Joseph (1966): “ELIZA – a computer program for the study of natural language communication between man and machine”. In: Communications of the ACM, Jg. 9, H. 1, S. 36–45. Online verfügbar unter http://www.cse.buffalo.edu/~rapaport/572/S02/weizenbaum.eliza.1966.pdf.

[v] Der Name ist übrigens außerordentlich raffiniert gewählt: Nicht nur klingt er genauso wie das englische Wort für „Hölle“, sondern er enthält noch einen zweiten Verweis. Verschiebt man jeden den drei Buchstaben um eine Position im Alphabet nach hinten, ergibt sich „IBM“.

[vi] Zur Textgenerierung insgesamt vgl. Carstensen et al. (2010, S: 436–465).

[vii] Zur den verschiedenen Verfahren der flachen Satzverarbeitung vgl. Carstensen (2010, S: 264–279).

Avatar-Foto

Veröffentlicht von

www.lobin.de

Henning Lobin ist seit 2018 Direktor des Leibniz-Instituts für Deutsche Sprache in Mannheim (Mitglied der gemeinsam vom Bund und allen 16 Bundesländern finanzierten Leibniz-Gemeinschaft) und Professor für Germanistische Linguistik an der dortigen Universität. Zuvor war er ab 1999 Professor für Angewandte Sprachwissenschaft und Computerlinguistik an der Justus-Liebig-Universität Gießen. Seine Forschungsschwerpunkte bilden die Auswirkungen der Digitalisierung auf die Sprache, Texttechnologie, Grammatik, Wissenschaftskommunikation und Politolinguistik. Er ist Sprecher der Sektion "Geisteswissenschaften und Bildungsforschung" und Präsidiumsmitglied der Leibniz-Gemeinschaft, Mitglied germanistischer Fachbeiräte ua. von DAAD und Goethe-Institut, er war Mitglied des Forschungsbeirats der Stiftung Wissenschaft und Politik und des Fachkollegiums Sprachwissenschaft der DFG. Lobin ist Autor von neun Monografien und hat zahlreiche Sammelbände herausgegeben. Zuletzt erschienen sind Engelbarts Traum (Campus, 2014, polnische Übersetzung 2017, chinesische Übersetzung 2018), Digital und vernetzt. Das neue Bild der Sprache (Metzler, 2018) und Sprachkampf (Duden, 2021). Bei den SciLogs ist Henning Lobin seit 2014 Autor des Blogs "Die Engelbart-Galaxis", nachdem er dort bereits ab 2008 am Gruppenblog "Interactive Science" beteiligt war.

12 Kommentare

  1. Eigentlich sollten wir froh sein, dass ein Computerprogramm den Sinn eines Satzes nicht verstehen (analysieren) kann.
    Spätestens ab diesem Zeipunkt macht sich der Mensch überflüssig.
    Aber wenn wir einem Computerprogramm alles Wissen als Kontext beifügen, dann wird es sogar möglich, dass das Programm zwischen real und Ironie unterscheidet. Als freuen wir uns nicht zu früh.

  2. Nicht nur der Computer, auch der Mensch benutzt Sprache je nach Anlass automatisch, als Instrument/Werkzeug und medial/kommunikativ. Nur auf völlig andere Art als der Computer.
    Ein automatisch agierender Sprecher oder Zuhörer folgt dem was man den Sprachinstinkt nennen könnte und typischerweise denkt der automatisch Sprechende weder an Grammatik, Form noch Vokabular, sondern er spricht wie ihm der Schnabel gewachsen ist, also frei und ungeniert und so wie er denkt, verstanden zu werden. Als Zuhörer richtet man im automatischen Modus seine ganze Aufmerksamkeit auf den Sinn des Gesagten, die Form nimmt man bewusst kaum wahr (oft kann ich mich nicht an den Dialekt erinnern, den ein Sprecher hatte).
    Vielleicht ist es ein Fehler der Computerlinguistik, so viel Aufmerksamkeit auf Formdinge wie Grammatik, Vokabular etc. zu richten, vielleicht ist es aber auch notwendig. Notwendig wäre es dann, wenn auch wir Menschen bei der Sprachverarbeitung mit Grammatik, Form- und Wortkorpora arbeiten ohne dass wir das merken. Es könnte aber auch sein, dass Dinge wie Grammatik, Stilistik und Wortschatz beim menschlichen Sprecher und Hörer mehr die Rolle von flexiblen und anpassbaren Schablonen spielen und es noch allgemeinere Mechanismen gibt, die uns Sprache verstehen lassen. Ein Hinweis auf das Zweite ist beispielsweise die Tatsache, dass die meisten Hörer Grammatikfehler und Agrammatismen gut wegstecken können und den Sprecher in der Regel trotzdem verstehen. Etwas was dem Computer heute wohl weitgehend fehlt, was aber bei Hörern regelmässig anzutreffen ist, ist das Erspüren der Aussageabsicht. Diese Bereitschaft, die Aussage des andern zu erspüren ermöglicht es vielen auch, sich gegenüber Anderssprachigen, deren Sprache man nicht spricht, verständlich zu machen. Eine wichtige Rolle beim Verstehen spielt auch das Hineinschlüpfen in die Situation, die einem erzählt wird. Hineinschlüpfen im Sinne, dass sich im Hörerkopf ein mentales Modell des Gesagten aufbaut. Wer den Satz hört: „Er schloss die Tür seines Appartments auf und erschrak, weil er Stimmen hörte.“, der wird in der Regel die Türe, über die gerade gesprochen wird, klar vor Augen haben und sich zudem eine Vorstellung von den Stimmen machen, die es zu hören gibt. Ich denke sogar, jeder Zuhörer macht sich bei obigem Satz ein Bild. Sätze, die von abstrakten Dingen handeln werden – so meine ich – von deutlich weniger Menschen verstanden als Sätze, die von konkreten Dingen handeln und zudem wird man bei abstrakten Sätzen eine viel stärkere Streuung der mit dem Inhalt verbundenen Vorstellungen finden.

    • @ Herr Holzherr :

      Etwas was dem Computer heute wohl weitgehend fehlt, was aber bei Hörern regelmässig anzutreffen ist, ist das Erspüren der Aussageabsicht.

      Der “Computer” versteht Inhalte nur sehr sehr begrenzt, hier muss sich nichts vorgemacht werden, hier wird sich auch nichts ohne wichtige Fortschritte bei der AI ändern, wobei niemand weiß wo die her kommen sollen.

      Das ‘Erspüren’ der Absicht einer Aussage mag im Alltagsverkehr weiterhelfen, beim Textverständnis ist dieser “Intentionalismus” dagegen höchst problematisch, diese Problematik, sofern sie eine ist, spielt auch in rechtswissenschaftliche, rechtsphilosophische Diskussionen hinein.

      Böse formuliert will der Intentionalist oft nur über alte Texte und deren Bedeutung herrschen. (Originalismus oder Textualismus sind also bessere Maßgaben.)

      MFG
      Dr. Webbaer

  3. Hören wir einen Satz wie „Er schloss die Tür seines Appartments auf“, dann muss uns nicht erklärt werden, dass hinter der Tür ein Flur und andere Räume liegen, dass sich niemand in diesem Appartment befindet und so weiter. Nur vor diesem Wissenshintergrund kann als nächster Satz „Er erschrak, weil er Stimmen hörte.“ korrekt gedeutet werden.

    Zumal auch hier nicht ganz klar ist woher die Stimmen kamen, aus dem aufgeschlossenen Raum heraus oder aus dem Raum auf Seiten des Aufschließenden.

    “Tiefes” Parsing geht letztlich nicht, “flaches” sehr wohl, hat wohl auch Anwendungen, no problemo.

    Gibt es im Web Möglichkeiten das “flache” Parsing mal auszuprobieren?
    Also, dass dort mal ein Sätzchen eingegeben wird und die ‘grammatischen Verhältnisse eines Satzes’ ausgegeben werden?

    MFG + danke für diesen Artikel,
    Dr. Webbaer

  4. Bonuskommentar :

    So war es nicht möglich (und ist es bis heute nicht), streng der Theorie folgend ein Parsing-Programm zu erstellen, das den Echtzeit-Anforderungen der Kommunikation Genüge tut – auf der Grundlage der Generativen Grammatik gebaute Parser sind schlicht zu langsam.

    I.p. ‘Echtzeit-Anforderungen’ und ‘langsam’ wird hier aufgehorcht, gerne mal erklären.
    Eine wie hier gemeinte Langsamkeit gibt es womöglich nicht.

    • Die gemeinte Geschwindigkeit bezieht sich auf die Dauer, die ein Parsingvorgang für einen realen Satz in einem Text benötigt. Für Dialog-Anwendungen darf hier die Parsing-Komponente, einige Zehntelsekunden nicht überschreiten, wenn die Verarbeitung insgesamt nicht zwei oder drei Sekunden überschreiten soll.

  5. Martin Holzherr, Dr. Webbaer,
    …………Spracherkennung,
    Neulich bekam ich Werbung per Telefon. Bei der Anrede war mir klar, das ist ein Sprachcomputer. Als ich antwortete, merkte ich, dass genau auf meine Zwischenfragen eingegangen wurde. Dann wieder kamen stereotypische Sätze, (mit der gleichen Stimme), die wahrscheinlich schon vorher aufgenommen worden waren, dann wieder die Stimme in Echtzeit. Ich könnte mir vorstellen, dass diese hybridform des Sprechens bald Standard wird bei der Telekommunikation.

    • Genau so ist es. Für derartige Kundengespräche werden Dialoggrammatiken erstellten, in den in Abhängigkeit von Ihrer Antwort eine nächste Sequenz von Sätzen ausgewählt wird. Aufgrund der Nutzung von Smartphones werden Sprachanwendungen in gesprochener Sprache derzeit immer wichtiger, nachdem sie für einige Jahre nahezu in der Versenkung verschwunden waren.

  6. Zwei Bots, die miteinander kommunizierten, sollen ihre eigene Sprache enwickelt haben.

    “An Artificial Intelligence Developed Its Own Non-Human Language”

    “In the report, researchers at the Facebook Artificial Intelligence Research lab describe using machine learning to train their “dialog agents” to negotiate. (And it turns out bots are actually quite good at dealmaking.) At one point, the researchers write, they had to tweak one of their models because otherwise the bot-to-bot conversation “led to divergence from human language as the agents developed their own language for negotiating.” They had to use what’s called a fixed supervised model instead.

    In other words, the model that allowed two bots to have a conversation—and use machine learning to constantly iterate strategies for that conversation along the way—led to those bots communicating in their own non-human language. If this doesn’t fill you with a sense of wonder and awe about the future of machines and humanity then, I don’t know, go watch Blade Runner or something.”

    • @Joe Dramiga;
      Diesem Phänomen dürfte ein Prinzip zu Grunde liegen, das typisch ist für die natürliche Evolution autonomer, selbstreproduktiver Systeme, also auch für die biologische Evolution. In der Interaktion oder Kommunikation mit der Umwelt können solch komplexe Systeme zusätzliche Elemente ihrer Struktur angliedern, wenn die strukturellen Änderungen die Funktion nicht beeinträchtigen, wenn sie also epiphänomenal sind. Diese zufälligen oder nichtzufälligen Änderungen können künftig dann in die Struktur inkorporiert werden und möglicherweise zusätzliche Funktionen übernehmen oder vorhandene ersetzen.

      So können immer komplexere Systeme mit größerer Varianz, mit komplizierteren Funktionen und höherer Redundanz entstehen, wie die Lebewesen im Verlauf der biologischen Evolution. Ebenso kann auf diese Weise eine natürliche Sprache fremde Wörter und Ausdrücke aufnehmen und sich allmählich zu einer eigenen Sprache weiterentwickeln.

    • Vielen Dank für den Hinweis! Derartige Experimente sind auch bereits vor einigen Jahren von Luc Steels mit kommunizierenden Robotern durchgeführt worden. In der Linguistik ist es ja nicht möglich, bis zum Anfang der Sprachentwicklung auf empirischem Wege zurückzugehen, weshalb zunehmend evolutionäre Methoden experimentell eingesetzt werden. Sein Experiment hieß “Talking Heads Experiment” – hier ein TedX-Video dazu und hier sein Buch zum Thema (Open Access).

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +