Sprachwandel durch intelligente Maschinen?

In dieser Woche ist der neue Rechtschreibduden erschienen. Einen Tag zuvor war der Verkaufsstart von Google Home, dem “intelligenten Lautsprecher” mit Sprachfunktion. Zwei Ereignisse ohne Zusammenhang? Nein. Beide haben etwas mit Sprachwandel zu tun – dem realen, heutigen, und dem virtuellen, zukünftigen.

Sprachwandel kann viele Ursachen haben: kulturelle Einflüsse, Migration, Sprachkontakt, Medien, Bildungsprozesse oder sprachsystembedingte Faktoren etwa. Der Duden dokumentiert diesen Wandel für den Wortbestand des Deutschen. Die gerade erschienene 27. Auflage dieses Wörterbuchs, dessen Verlag “Bibliografisches Institut” inzwischen zur Cornelsen-Gruppe gehört, hat eine große Welle in den Medien nach sich gezogen mit den 5.000 Wörtern, die neu aufgenommen wurden. Gleichzeitig sind auch viele Wörter gegenüber der 26. Auflage verschwunden, “Jahr-2000-fähig” etwa. Bei manchen Wörtern ändern sich auch die Angaben zur Deklination oder Konjugation, zum Kasus, den ein Wort von einem anderen fordert, oder zur Bedeutung. All das lässt den kontinuierlichen Wandel, dem jede Sprache unterliegt, erkennbar werden, zumindest den Teil des Sprachwandels, der sich im Wortgebrauch manifestiert. Wandel im Bereich der Grammatik und der Sprachverwendung ist schwerer und vor allem nur langfristiger beizukommen. Aber auch diesen gibt es heute – die Diskussion um das “Kiezdeutsch”, das die Potsdamer Germanistin Heike Wiese in ihrem gleichnamigen Buch beschrieben hat (“Machst du rote Ampel!”), hat sich um diese Ebenen des Sprachsystems gedreht.

Sprachwandel nach der 4. Revolution

Bislang war der Sprachwandel immer von Menschen herbeigeführt worden, manchmal bewusst durch Sprachkritiker oder Grammatiker, zumeist jedoch unbewusst infolge unzähliger Kommunikationsereignisse in einer Sprachgemeinschaft und im Kontakt mit anderen Sprachgemeinschaften. Erstmals jedoch wird seit einigen Jahren die menschliche Sprache auch von Maschinen genutzt, Google Home ist dafür ebenso ein Beispiel wie das Gerät Echo von Amazon, Microsofts Cortana oder die vielen anderen mündlichen und schriftlichen Sprachautomaten, die es inzwischen gibt. Der Informationsphilosoph Luciano Floridi ist der Meinung, dass mit der Digitalisierung eine vierte kulturelle Revolution einhergeht, die das Selbstverständnis des Menschen so grundlegend wandeln wird wie schon die drei Revolutionen zuvor: die Kopernikanische Revolution, nach der sich der Mensch auf seiner Erde nicht mehr im Zentrum des Universums sehen kann; die Darwin-Revolution, die dem Menschen auch seine Sonderstellung in der Natur genommen hat; und die Revolution, die sich mit Freud, der Verhaltenspsychologie und den Neurowissenschaften verbindet. Mit dieser Revolution ist dem Mensch auch die Hoffnung genommen worden, zumindest der Herrschaft im eigenen Oberstübchen innezuhaben, seine Psyche und seine Handlungen also vollständig durch Introspektion verstehen zu können. Nach der vierten Revolution schließlich, der der intelligenten Maschinen, wird dem Menschen nun auch noch das letzte Bisschen seines humanen Selbstverständnisses genommen, seine Intelligenz, und mit ihr die verschiedenen Ausprägungen intelligenten Verhaltens, etwas das Kommunizieren in natürlicher Sprache.

Vier Konstellationen der Einflussnahme

Wenn nun also nicht mehr nur Menschen in natürlicher Sprache kommunizieren, sondern auch Maschinen mit dem Menschen und womöglich sogar Maschinen untereinander, stellt sich die Frage, wie sich dies langfristig auf den Sprachwandel auswirken mag. Ich meine, dass es vier verschiedene Konstellationen zu beachten gilt:

  1. Unterstützte menschliche Kommunikation:
    Dies ist schon heute beim Schreiben auf Smartphones weit verbreitet. Der Rechner macht Wortvorschläge, entweder zur Vervollständigung einer Zeichensequenz oder für das nächste Wort im Text. Damit wird ein Bias zur Verwendung bestimmter Wörter erzeugt und zur Nicht-Verwendung anderer. Wörter, die nicht im Smartphone-Wörterbuch enthalten sind, werden möglicherweise tendenziell vermieden, genauso wie grammatische Konstruktionen, die von einem System nicht durch Wortvorschläge unterstützt werden.
    Was wir bislang beim Tippen auf Smartphones erleben, dürfte beim unterstützten Schreiben erst der Anfang sein. Microsoft etwa arbeitet an Systemen, die das Schreiben in einer Fremdsprache unterstützen oder Umformulierungen vorschlagen. Ist so etwas erst einmal in Word & Co. integriert, dürfte eine Auswirkung auf die Schriftsprache offensichtlich werden. Schon heute sind gewisse Folgen der Computer-vermittelten Kommunikation festzustellen, wie etwa Christa Dürscheid und Karina Frick in ihrem Buch “Schreiben digital” zeigen.
  2. Kommunikation mit virtuellen Systemen:
    Damit sind Systeme wie das neue Google Home, Amazon Echo oder Microsoft Cortana gemeint. Derartige Systeme verfügen bislang über eine Sprachkompetenz, die nicht situationsbezogen ist. Dies betrifft sowohl die wahrnehmbare Situation, in der kommuniziert wird (was einen gerade umgibt), als auch die diskursive Situation (was bereits vorher gesagt worden ist). Trotzdem prägen auch diese Systeme die Kommunikation mit dem Menschen, und zwar im umgekehrten Sinne: Bauen wir nämlich Erfahrung darin auf, was solche Systeme verstehen (im lexikalischen und grammatischen Sinne), dann stellen wir uns nach und nach darauf ein – so sind wir Menschen nun einmal gestrickt. Bestimmte Wörter und Konstruktionen meiden wir, andere benutzen wir bevorzugt. Dadurch wird beim Menschen eine kognitive Verstärkung bewirkt, die man Entrenchment nennt. Und diese wiederum bewirkt längerfristig einen sprachlichen Wandel.
    Zwar dürfte all das noch keine Rolle spielen mit den paar sprachfähigen Geräten, die uns demnächst umgeben werden. Wenn man aber bedenkt, dass vor gerade einmal zehn Jahren das iPhone als erstes Smartphone im heutigen Sinne auf den Markt gekommen ist, vermag ich mir nicht vorzustellen, was mit virtuellen sprachlichen Systemen in zehn Jahren alles möglich sein wird.
  3. Kommunikation mit intelligenten Robotern:
    Auch wenn dies immer noch besonders futuristisch erscheint, so handelt es sich dabei doch um eine Computerlinguistik-Anwendung, an der seit mehr als 40 Jahren gearbeitet wird. Schon bei den ersten halbwegs intelligenten Robotern, ob real oder simuliert (etwa Shakey oder SHRDLU), war eine natürlichsprachliche Schnittstelle integraler Bestandteil. Ganz anders als bei virtuellen Systemen sind Roboter in eine reale Situation eingebettet, müssen sehen und agieren können, was sich auch in der Sprachnutzung niederschlägt. Idealerweise sollten intelligente Roboter auf kurze Hinweise und Anweisungen reagieren können, was die Sprachnutzung im Handlungszusammenhang beeinflusst. Sind wir erst einmal von Servicerobotern im Alltag umgeben, dürfte daraus ein spezifischer sprachlicher Anweisungsstil, womöglich ein moderner “Sklavenhalterstil” hervorgehen, wie ihn Menschen untereinander (hoffentlich) nicht verwenden würden. Auch dies dürfte ein Impuls für einen zumindest partiellen Sprachwandel darstellen.
  4. Kommunikation intelligenter Systeme untereinander:
    Auch für diesen Fall gibt es bereits Erkenntnisse: Vor kurzem ging ein Forschungsbericht durch die Wissenschaftsmedien, in dem es um zwei Software-Agenten der Facebook-Forschung ging, die in natürlicher Sprache miteinander verhandeln können. Eigentlich sollten diese Agenten mit Menschen in Chats interagieren, sie wurden aber testweise auch auf ihresgleichen losgelassen. Da es von den Programmierern versäumt worden war, die Verwendung von wohlgeformtem Englisch bei den sprachlichen Äußerungen zu fixieren, bildeten diese Verhandlungschatbots nach und nach ihre eigene Sprache aus, ohne sich weiter um Grammatik und Lexik der englischen Sprache zu scheren. Aussagen wie “i i can i i i everything else” erhielten dabei eine klare Funktion und Bedeutung, die sich aufgrund des inzwischen erfolgten Abstimmungs- und Lernprozesses der Systeme selbst kaum von ihren Programmierern entschlüsseln ließ.
    Ähnliches hatte bereits vor einigen Jahren der Belgische KI-Forscher Luc Steels erreicht. In seinem “Talking Heads”-Experiment entwickelten Roboter durch verschiedene Sprachspiele ihr eigenes Vokabular und ihre eigene Grammatik. Steels wollte damit auch einen Betrag leisten zum Verständnis der Sprachentwicklung überhaupt, insbesondere zu der klassische Frage, wie sprachliche Symbole ihre intersubjektive Bedeutung erhalten haben.
    Dass die Kommunikation intelligenter System untereinander einmal einen Einfluss auf den Sprachwandel menschlicher Sprachen haben wird, bezweifle ich. Die Betrachtung dieser Art des Sprachwandels aber bildet eine wichtige Quelle zum Verständnis des Sprachwandels in menschlichen Gemeinschaften.

Sprachwandel ist nach einem halben Jahrhundert Abstinenz wieder zu einem großen Thema der Sprachwissenschaft geworden. Anders als früher wird dieser heute anhand großer digitaler Korpora untersucht. Für viele Bereiche der Computer-vermittelten oder Computer-beeinflussten Sprachverwendung existieren allerdings noch keine Referenzkorpora. Es steht zu erwarten, dass wir das Signal der Digitalisierung in der Daten bald deutlicher werden erkennen können.

Beitragsbild: Replikat von Walter Schulze-Mittendorffs Maschinenmensch Maria aus Fritz Langs Film “Metropolis” von 1927 (Ausschnitt). Quelle: WikipediaCC BY-SA 2.0

Avatar-Foto

Veröffentlicht von

www.lobin.de

Henning Lobin ist seit 2018 Direktor des Leibniz-Instituts für Deutsche Sprache in Mannheim (Mitglied der gemeinsam vom Bund und allen 16 Bundesländern finanzierten Leibniz-Gemeinschaft) und Professor für Germanistische Linguistik an der dortigen Universität. Zuvor war er ab 1999 Professor für Angewandte Sprachwissenschaft und Computerlinguistik an der Justus-Liebig-Universität Gießen. Seine Forschungsschwerpunkte bilden die Auswirkungen der Digitalisierung auf die Sprache, Texttechnologie, Grammatik, Wissenschaftskommunikation und Politolinguistik. Er ist Sprecher der Sektion "Geisteswissenschaften und Bildungsforschung" und Präsidiumsmitglied der Leibniz-Gemeinschaft, Mitglied germanistischer Fachbeiräte ua. von DAAD und Goethe-Institut, er war Mitglied des Forschungsbeirats der Stiftung Wissenschaft und Politik und des Fachkollegiums Sprachwissenschaft der DFG. Lobin ist Autor von neun Monografien und hat zahlreiche Sammelbände herausgegeben. Zuletzt erschienen sind Engelbarts Traum (Campus, 2014, polnische Übersetzung 2017, chinesische Übersetzung 2018), Digital und vernetzt. Das neue Bild der Sprache (Metzler, 2018) und Sprachkampf (Duden, 2021). Bei den SciLogs ist Henning Lobin seit 2014 Autor des Blogs "Die Engelbart-Galaxis", nachdem er dort bereits ab 2008 am Gruppenblog "Interactive Science" beteiligt war.

7 Kommentare

  1. Pingback:[SciLogs] Sprachwandel durch intelligente Maschinen? – #Intelligenz

  2. Der Sprachwandel zeigt sich in verkürzten Sätzen, weggelassenen Präpositionen, in Internetkürzeln.
    Das kommt daher, dass die meisten nicht mit 10 Fingern eintippen können und mit nur 2 Fingern zu schreiben, dauert es zu lange. Also opfert man einen korrekten Satz einer verkrüppelten Verkürzung.
    Dazu kommen natürlich noch die vielen Fachsubstantive, die man auch noch verbalisiert oder adjektivisiert.

  3. In meinem Umfeld kenne ich kaum jemanden, der mit Siri, Cortana oder Alexa (Amazon) kommuniziert oder auch nur regelmässig Fragen stellt. Und das obwohl ich in einem Informatikumfeld tätig bin. Doch in diesem Umfeld wird heute vor allem getippt und nur wenig gesprochen.
    Es hat sicher auch mit Gewohnheiten zu tun. Ich weiss zwar, dass ich Siri einfach diktieren könnte: “Stelle den Wecker auf 7:30”, doch das mache ich bis jetzt manuell und sehe auch keinen Grund, das zu ändern.
    In den USA scheint aber beispielsweise Alexa schon eine ansehnliche Benutzergemeinde zu haben. In einer Dokumentation dazu erfuhr ich von einem Altersheim/Pflegeheim in dem Alexa von beispielsweise Sehschwachen/Teilblinden benutzt wird um Informationen über das Wetter und vieles mehr abzufragen oder um sich vorlesen oder alte Hits abspielen zu lassen. Das heisst, solche automatischen Zuhörer und “Versteher” können (Teil-)Behinderungen überwinden helfen.
    Menschen ohne Behinderungen benutzen Alexa beispielsweise um sich während des Kochens ein Rezept vorlesen zu lassen oder überhaupt um während des häuslichen Arbeitens Rückfrage- und Unterhaltungsmöglichkeiten zu haben. Es braucht dann keine Tastatur, keine PC zu dem man laufen muss, sondern man frägt während des Kochens, Putzens, etc. Alexa, damit sie einem Hilfestellung gibt oder einen mit Musik, dem Wetterbericht unterhält oder damit es einen mit einem Bekannten telephonisch verbindet.

    Doch von zwischenmenschlicher Kommunikation ist auch Alexa noch meilenweit entfernt. Das Sprachverständnis all dieser zuhörenden Assistenten ist sehr beschränkt.

    • @ Herr Holzherr :

      Die “Pflegerobbe” Paro nicht zu vergessen, oder Eliza; helfen tut hier wohl entscheidend nur die Demenz, Abnehmerzufriedenheit meinend.

      Insgesamt nerven den Schreiber dieser Zeilen, den Webbaer, auch Erfolgsmeldungen zunehmend ab, er ist vor vielen Jahren selbst ein wenig, auch im SciFi-Kontext, womöglich hat niemand mehr technische SciFi der Sechziger gelesen, als jemand, der jetzt noch lebt, irritiert worden.

      Auch hier – ‘Nach der vierten Revolution schließlich, der der intelligenten Maschinen, wird dem Menschen nun auch noch das letzte Bisschen seines humanen Selbstverständnisses genommen, seine Intelligenz, und mit ihr die verschiedenen Ausprägungen intelligenten Verhaltens, etwas das Kommunizieren in natürlicher Sprache.’ – weiß Dr. Webbaer nicht so recht, ‘das letzte Bisschen seines humanen Selbstverständnisses’, tsk, tsk…

      Marketing, es müsste Marketing vorliegen, die AI hat keineswegs derart, auch bei stark zunehmender CPU-Leistung, in den letzten Jahrzehnten derart geleistet, wie einstmals versprochen, und sie scheint nicht dabei zu sein, dies zukünftig zu tun, wie später versprochen.

      Die Grenzen der Welten sind halt unüberwindbar, “Paro 3.0” wird ein schlaues Kerlchen sein, auch womöglich sehr putzig, aber doch ganz primär in seiner Welt unterwegs.
      In puncto Linguistik wird hier Honig zu saugen sein, den teils auch sprachlich minderbemittelten hier gemeinten Primaten sozusagen bestmöglich zu unterstützen; Gegner dieser Entwicklung ist Dr. Webbaer selbstverständlich nicht.
      Jede “Pflegerobbe” könnte die letzte sein.

      MFG
      Dr. Webbaer

  4. Die “Drei Revolutionen” des hier gemeinten Primaten, sind dem Schreiber dieser Zeilen als die der Schrift, die des Buchdrucks und die der netzwerkbasierten (auch : globalen) Kommunikation, als die des “Webs” bekannt.

    Inwieweit subordinierter Sprachmissbrauch, sog. Kiezdeutsch beispielsweise, hier hinein spielt, “Isch gehen Döner” hier als Exempel, sollen andere beurteilen, gerne auch “hypen”, wenn ihnen danach ist.

    Ansonsten, vgl. mit ‘i i can i i i everything else’, der Webbaer hat sich einige Texte zu dieser Sache durchgelesen, darf womöglich auch hier gehofft werden, von anderen, dass sich auch die Sprache der AI günstig und vor allem auch : divers entwickelt.
    (Der Webbaer ist sich sicher, dass Sätze, wie die zitierten, die auf ein ‘I i i i i i i i i i i i i i i i i i i I i i i i i i i i i i i i i i i i i i’, also bildlich gesprochen vierzigfach auf ein ‘I’ hinaus laufen, nicht allzu viel Semantik transportieren werden. – Womöglich hapert es hier i.p. AI ein wenig und besonderes Erkennen muss nicht vermutet werden; medienwirksam war’s natürlich schon, aber derartige Gags der AI bereichern die Nachrichtengebung bereits seit geraumer Zeit. Vielleicht wissen Sie genau hierzu mehr, lieber Herr Dr. Lobin; dies dann auch gerne substanziiert beibringen, hier, womöglich.)


    Ansonsten, die Sprache entwickelt sich sozusagen in atemberaubenden Tempo, jeden Tag werden neue Wörter erfunden, sinnhafterweise, die “Eingabehilfen” schaden keineswegs, und der Schreiber dieser Zeilen kann sich auch vorstellen, dass zwischen Maschinen Geteiltes auch bspw. der menschlichen Sprache ähnlich, in Form sogenannter XML-Dokumente, mehr und mehr stattfinden wird, also durchaus der menschlichen Sprache ähnlich.

    Wobei die Maschinen die Welt verstehen müssten, was für sie nicht geht, jedenfalls nicht so wie im von dem hier gemeinten Primaten gemeinten Sinne; allerdings ist die Humansprache womöglich auch, wegen ihren Dichte i.p. Inhalt, für die Automaten geeignet, selbst wenn sie sie nicht verstehen.

    MFG + schönes Wochenende schon einmal,
    Dr. Webbaer

  5. Zur (Zitat) Kommunikation mit intelligenten Robotern und zur (Zitat) Kommunikation intelligenter Systeme untereinander
    Für die heutige Generation von Haushaltsrobotern wie Roomba, dem Staubsaugerroboter oder Mäh- und Gartenrobotern ist die Kommunikation heute auf das Abstecken der Arbeitsfläche durch den Besitzer beschränkt. Diese Roboter für den Hausgebrauch sind heute nicht humanoid. In der nahen Zukunft könnten sich solche Haushaltshilfen ähnlich wie Haustiere einweisen lassen – also durch Gesten, Fingerzeig etc.
    Staubsauger, Garten- und Mähroboter sind heute meist auf Karten ihrer Arbeitsumgebung angewiesen. Allerdings erstellen sie diese Karten selber. Und iRobot, der Hersteller von Roomba denkt daran, die dabei erhobenen Daten an andere Firmen weiterzugeben, die im Umfeld des Smart Home anzusiedeln sind So sieht also die Kommunikation intelligenter Systeme untereinandern heute aus: es werden Kundendaten untereinander ausgetauscht um weitere Produkte zu unterstützen.

    Das EU-Projekt Companions for Seniors Citizens geht in der Mensch-Maschinenkommunikation wesentlich weiter will es doch älteren Menschen den
    1) Zugang zu den Internetdienstleistungen über eine Art Internet-Assistent erleichtern – einen Internet-Assistenten, der weiss wie man Internetdienste anspricht und der vom Benutzer sprachliche Befehle akzeptiert.
    2) älteren Menschen durch den Alltag helfen (Getränke einschenken und servieren, etc)

    Vor allem 2) scheint mir sehr ambitioniert und heute wohl noch nicht alltagstauglich.

  6. Pingback:Roboter reden ein Wörtchen mit | Bene Homann

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +