Künstliche Intelligenz – einige Missverständnisse ausräumen

BLOG: Feuerwerk der Neuronen

Eintritt frei!
Feuerwerk der Neuronen

Bei der Tagung AI-Symposium 2018 in Münster wird natürlich zwischen den Beiträgen auch über die populärwissenschaftliche Verbreitung des Themas und die generelle Rezeption von aktuellen Entwicklungen im Bereiche Künstliche Intelligenz (KI) gesprochen. Hierbei muss man leider feststellen, dass immer noch und immer wieder auch in einschlägigen Medien Informationen verbreitet werden, die im besten Fall irreführend, schlimmstenfalls schlichtweg falsch sind. Im Folgenden möchte ich einige dieser Missverständnisse aufgreifen und erläutern.

  1. KI = KI. Nein, man muss differenzieren. Es wird zwischen starker und schwacher KI unterschieden. Vertreter starker KI (auch strong AI) haben die vollständige maschinelle Nachbildung psychischer Prozesse wie Denken, Lernen oder Problemlösen zum Ziel; letztere (auch weak AI) akzeptieren auch Teillösungen. Demgemäß kann man leicht feststellen: Formen schwacher KI existieren bereits (z. B. AlphaGo etc.), Formen starker KI nicht. Trotzdem haben viele Menschen, wenn sie von KI lesen oder hören eine Form von starker KI im Kopf. Das liegt vermutlich an der medialen Darstellung. Bis auf wenige Ausnahmen (Her zum Beispiel) werden KIs in Filmen als im starken Sinn intelligente Maschinen dargestellt, of sogar in humanoider, also menschenähnlicher Form (Xanke und Bärenz (2012) geben hier einen guten Überblick, ohne Anspruch auf Vollständigkeit; ich habe in Seng (2018) einige Beispiele aufgezählt). Auch bei der Bebilderung von Artikeln kann man eine ähnliche Tendenz feststellen. Auf twitter gibt es übrigens eine ganz neue Initiative, schlechte (ok, das ist zugegebenermaßen noch einmal etwas anderes als falsch) Roboterbilder/-Fotos/-Darstellungen zu sammeln.
  2. Angst vor KI. Die rührt sicher zum einen daher, dass viele Menschen (vielleicht aufgrund des ersten Punktes) nicht genau wissen, was KI eigentlich kann. Dazu ein kurzer Exkurs in die Geschichte des noch nicht allzu alten Fachgebiets. KI ist ein Teilgebiet der Informatik. In den 1950ern gab es eine Konferenz in den USA (Dartmouth), deren Organisatoren in ihrem Forschungsantrag tatsächlich für die Entwicklung einer Form von starken KI plädierten bzw. sich diese zum Ziel setzten.* Dies ist unter wissenschaftlichen Gesichtspunkten vermutlich nachvollziebar. Im Nachhinein ist jedoch schwer nachvollziebar, ob die Wissenschaftler tatsächlich von ihrem Ziel überzeugt waren, einige lehnten sich schon ganz schön weit aus dem Fenster und behaupteten, Formen starker KI seien bereits in wenigen Jahrzehnten entwickelt.** Mittlerweile sind wir an einem Punkt, von schon ein zweiter KI-Winter befürchtet wird. Zum Thema Angst sind zwei Fragen naheliegend. 1. Woher kommt die Angst? (Hierzu siehe Punkt 1 oder Seng 2018) und 2. Ist die Angst gerechtfertigt? Letztere Frage möchte ich nicht abschließend beurteilen, jedoch scheint es mir nachvollziebar aufgrund der Tatsache, dass KI selbst in schwacher Form immer häufiger als undurchschaubare black boxes auftreten, gepaart mit (durch diverse Medien erzeugte) falschen Vorstellungen von Menschen über KI, dass Ängste entstehen. An politischer Regulierung ist außerdem nicht viel zu bemerken. Es gibt zwar Ethik-Kommissionen, aber die Regeln sind meist so allgemein, dass sie für die Praxis zumindest meines Erachtens unbedeutend sind. Und von der Bundesregierung darf man, zumindest im Moment, offenbar auch nicht allzu viel Expertise zum Thema KI erwarten, wie dieser Thread nahe legt.
  3. Die Angst ist auch nachvollziehbar, da bestehende Regeln wie die des Bundesministeriums für Verkehr und digitale Infrastruktur zum Automatisierten Fahren oder die Three Laws of Robotics von Isaac Asimov (1950) moralische Regeln sind, die sehr allgemein formuliert und daher nicht sehr praktisch sind. In seinem Vortrag betonte Michael Decker vom KIT in Karlsruhe gestern, dass es ja schon Regulierungen wie die obige (international noch viel mehr) gebe. Ich kann mir aber nicht vorstellen, dass die in irgendeiner Rolle einen Einfluss auf technische Entwickungen haben. Aus meiner Sicht, wird entwickelt, was sich ökonomisch rentiert, dass dabei keine Menschen zu schaden kommen sollen, dafür bedarf es keiner expliziten Betonung, das ist selbstverständlich bzw. im bereits im Grundgesetz verankert.
  4. Künstliche Intelligenz vs. natürliche Dummheit? Auch hier herrschen falsche Ansichten darüber, was “intelligent” eigentlich bedeutet. Zur Definition von Intelligenz bei Menschen gibt es zahlreiche verschiedene Ansätze, Planungs- und Handlungsfähigkeit wird manchmal genannt, aber das können Raben und andere Tiere auch. Also müsste man die dann auch als gleichermaßen intelligent bezeichnen wie Menschen. Manche sagen, Intelligenz ist, was Intelligenztests messen… Intelligenz bei Künstlicher Intelligenz meint in erster Linie: Mustererkennung. Stefan Hermeling von der Heinrich-Heine Universität in Düsseldorfin demonstrierte am Mittwoch hier in Münster ein recht einfaches Programm, das er in kurzer Zeit trainierte. Er hielt der Kamera seines Laptops Cover von verschiedenen Schallplatten vor und definierte sie jeweils als “classic” oder “jazz”. Das Programm war nach ein paar Beispielen in der Lage, drei neue Cover richtig einzuordnen. Das ist maschinelles Lernen der ganz einfachen Art. Wenn man jetzt mit viel mehr Schallplatten trainieren würde, wäre das deep learning. Oft wird nach Beispielen gesucht, die solche Programme von Menschen unterscheiden. Nach dem Motto: Ja, was ist es denn nun, was noch das Menscheneigentümliche ist? Ohne hier eine Antwort auf diese Frage geben zu wollen (das überlasse ich Ihnen 😉 ), kann man auf jeden Fall feststellen, dass es ein menschliches Bedürfnis zu sein scheint, eine Eigenschaft (oder mehrere) zu finden, die als Gründe dafür herangezogen werden können, dafür zu argumentieren, das Menschen einzigartig (und nicht ersetzbar) sind.

[*] Das kann man zum Beispiel ganz gut bei Russell und Norvig 2012, S. 22 nachlesen.

[**] S. hierzu auch McCorduck (2004).

 

Literatur

  • Asimov, Isaac (1950): I, Robot. New York: Gnome Press.
  • McCorduck, Pamela (2004): Machines who think. A personal inquiry into the history and prospects of artificial intelligence, 2. Aufl. Natick: A. K. Peters.
  • Russell, Stuart J., und Peter Norvig (2012): Künstliche Intelligenz. Ein moderner Ansatz. 3. aktualisierte Aufl. München: Pearson.
  • Seng, Leonie (2018): “Mein Haus, mein Auto, mein Roboter? Eine (medien-)ethische Beurteilung der Angst vor Robotern und künstlicher Intelligenz”. In Brauchen Maschinen Ethik? Begründungstheoretische und praktische Herausforderungen. Hrsg. Matthias Rath, Friedrich Krotz und Matthias Karmasin. Wiesbaden: VS.
  • Xanke, Lisa und Bärenz, Elisabeth (2012): Künstliche Intelligenz in Literatur und Philosophie — Fiktion oder Realität? URL: .http://ejournal.uvka.de/spatialconcepts/archives/1515 aufgerufen am 17.11.2018.

Avatar-Foto

Bachelor-Studium "Philosophie, Neurowissenschaften und Kognition" in Magdeburg. Master-Studium "Philosophie" und "Ethik der Textkulturen" in Erlangen. Freie Kultur- und Wissenschaftsjournalistin: Hörfunk, Print, Online. Wissenschaftliche Mitarbeiterin, Abteilung Philosophie, Fachbereich Medienethik an der Pädagogischen Hochschule Ludwigsburg.

24 Kommentare

  1. Die von Philosophen diskutierten Dilemmatas für selbstfahrende Fahrzeuge (Trolley-Problem) zähle ich selbst zu den populistschen Darstellungen der Künstlichen Intelligenz, denn sie arbeiten mit Pseudoproblemen. Dies zu der Eingangsaussage dieses Beitrags (Zitat): Bei der Tagung AI-Symposium 2018 in Münster wird natürlich zwischen den Beiträgen auch über die populärwissenschaftliche Verbreitung des Themas und die generelle Rezeption von aktuellen Entwicklungen im Bereiche Künstliche Intelligenz (KI) gesprochen.

    Warum nun halte ich das Trolley-Problem und ähnliche Gedankenprobleme für Ausbunde einer sophistischen, popularitätsheischenden Philosophie? Weil es die Aufmerksamkeit auf ein Scheinproblem lenkt. Begründung: Allgemein wird erwartet, dass selbstfahrende Fahrzeuge die Anzahl der Verkehrstoten auf einen Zehntel der heutigen reduziert. Auch die Trolley-Dilemma-Sophisten nehmen das an. Sie problematisieren aber den Tod der verbleibenden 10%, derjenigen also, die infolge unvermeidbarer Unfälle dennoch sterben und konstruieren nun das Problem: “Wenn schon jemand sterben muss, dann doch bitte der Richtige (also nicht ich?)”.
    Dabei gibt es im Zusammenhang mit selbstfahrenden Fahrzeugen durchaus echte Probleme, von denen ich gerade eines hier darstellen möchte: Selbstfahrende Fahrzeuge sind Fahrzeuge ohne menschlichen Fahrer. Ein menschlicher Fahrer fährt aber nicht nur, er kümmert sich auch um die Fahrgäste. Wenn diese randalieren oder gar kriminelle Absichten zeigen wirft er sie raus oder ruft die Polizei. Wie nun soll ein selbstfahrendes Fahrzeug damit umgehen. Ist es einem selbstfahrenden Fahrzeug erlaubt, den Zugang für verdächtige Gäste zu verweigern (Türe geschlossen halten) oder darf ein selbstfahrendes Fahrzeug im Notfall gar von einer Schusswaffe Gebrauch machen?
    Das halte ich für ein echtes Problem über das man diskutieren könnte. Die Trolley-Probleme dagegen sind sophistische Konstruktionen für den Publikumsgeschmack. Eine ganz billige Masche gewisser Philosophen um Aufmerksamkeit auf sich zu ziehen.

  2. Vertretern der starken KI, – die versuchen wollen psychische Prozesse (Denken) vollständig nachzubilden – sollte man SOFORT sämtliche Forschungsgelder und technische Infrastruktur entziehen.

    Unser Gehirn arbeitet so extrem fehlerhaft, dass es wirklich völliger Unsinn ist, diese Arbeitsweise des Gehirns technisch nachbauen zu wollen.

    Buchtipp: Julia Shaw ´Das trügerische Gedächtnis – Wie unser Gehirn Erinnerungen fälscht´.

    Es sollte mittlerweile allgemein bekannt sein, dass unser Gehirn extrem viele Fehler macht. Wer dieses Allgemeinwissen als Wissenschaftler ignoriert – hat in der wissenschaftlichen Forschung nichts zu suchen.

  3. Der Begriff »Künstliche Intelligenz« ist irreführend und bei genauer Betrachtung grundsätzlich falsch. Da auch komplexere und verschachtelte Algorithmen, die auf (informations-)mathematischen Verknüpfungen aufbauen, keine allgemeinmethodischen Lösungswege generieren.

  4. Auch für den von Leonie Seng positiv verlinkten Artikel Keine Panik, es ist nur künstliche Intelligenz der Süddeutschen Zeitung gilt für mich der von die Aussage (zitiert von oben): Hierbei muss man leider feststellen, dass immer noch und immer wieder auch in einschlägigen Medien Informationen verbreitet werden, die im besten Fall irreführend, schlimmstenfalls schlichtweg falsch sind.
    Deep Learning erschliesst Software eine ihr bisher verschlossene Welt
    Falsch ist zum Beispiel die Tendenz der Aussage dieses Artikels Manche Fachleute fürchten, auf den Hype könnte ein erneuter “KI-Winter” folgen, in dem öffentliches Interesse und finanzielle Förderung dramatisch zurückgehen. Denn: Es gibt tatsächlich einen KI-Hype, doch das ändert nichts daran, dass Deep Learning mit tief geschachtelten neuronalen Netzen tatsächlich Leistungen vollbringen kann, die konventioneller Software bisher verschlossen war. Dazu gehört beispielsweise die Klassifikation und Identifikation von Objekten, die immer wieder anders in Erscheinung treten und dennoch mittels “Deep Learning” identifiziert und kategorisiert werden können. Tief verschachtelte neuronale Netze können nach entsprechendem Training beispielsweise Gesichter samt emotionalem Ausdruck erkennen (und das bei seitlich oder von vorn präsentierten Gesichern, mit oder ohne Brille), sie können neue Teilchen in den Daten des Large Hadron Collider besser herausfiltern als mit jeder anderen Methode, sie bestimmen die politisch/weltanschauliche Haltung und die sexuelle Präferenz von Facebookusern mit hoher Treffsicherheit und vieles mehr. Weil das keine konventionelle Software bisher kann, sind sie – um mit Angela Merkel zu sprechen – alternativlos. Und die bisherigen Anwendungen, die diese Fähigkeiten nutzen, sind erst die Spitze eines riesigen Eisbergs von künftigen Anwendungen. Jede Woche kommen neue Forschungsberichte heraus, die wieder neue Einsatzmöglichkeiten zeigen. Letzte Woche las ich über die Verbesserung der Leistung von automatischen Theorem-Beweisern durch “Deep Learning” und zwar allein dadurch, dass “Deep Learning” bessere Suchstrategien anbietet als die rein kombinatorischen, die bisher Software wie Theorem-Beweiser, Schachspielautomaten oder Chemiesynthesewege-Finder benutzen. Selbst wenn die KI-Forschung bei den heutigen “Deep Learning”-Methoden (die vor allem bei der Suche nach Mustern und Korrelationen auftrumpfen) stecken bleiben, kommen noch unendlich viele Anwendungen der bisherigen “Deep-Learning”-Techniken auf uns zu. Dies auch darum, weil “Deep Learning” für anspruchsvolle Anwendungen extrem rechenintensiv ist und jetzt überall neu KI-Chips entwickelt werden (auch das neue IPhone hat solch einen AI-Beschleuniger eingebaut), die “Deep Learning” beschleunigen und damit überhaupt erst alltagstauglich machen.
    KI ist eine Ambition, Deep Learning eine Technik
    Künstliche Intelligenz meint Software mit menschenähnlicher Intelligenz. Davon sind wir tatsählich weit entfernt, denn den heutigem maschinellem Lernen fehlt das Kontextwissen und der Verstand (der normale und der gesunde Menschenverstand sowieso). Das wissen auch die KI-Forscher, das weiss sogar DARPA, welches mit A DARPA perspective on AI die heutige Beschränkheit der KI gut aufzeigt.
    Hybride AI-Anwendungen haben das grösste Potenzial
    Gerade die beeindruckendsten heutigen KI-Anwendungen bauen auf einem hybriden Ansatz auf, der “Deep Learning” mit einem wichtigen Element der Anwendungsdomäne kombiniert. Sogar Googles AlphaZero, welches besser Go und Schach spielt als alle Menschen und welches diese Spiele ohne Spielbibliotheken und Hintergrundwissen gelernt hat, sondern allein durch Spielen mit sich selbst, sogar dieses AlphaZero basiert auf einem hybriden Ansatz kombiniert es doch Monte-Carlo-Spielbäume mit einer “DeepLearning”-Mustersuche innerhalb der generierten Spielbäume (dass Spielbäume wichtig sind wussten die Google-Entwickler, KI weiss das nicht).
    Ein anderes gutes Beispiel für den hybriden Ansatz sind Waymos selbstfahrende Taxis. Waymos (Selbstwerbung: Waymo began as the Google self-driving car project in 2009. Today, we’re an independent self-driving technology company with a mission to make it safe and easy for everyone to get around—without the need for anyone in the driver’s seat. ) selbstfahrende Fahrzeuge verhalten sich in den meisten Fahrsituationen intelligent, doch sie nutzen “Deep Learning” nur sehr beschränkt, nämlich etwa zur Interpretation von Handzeichen, die Polizisten geben, oder der Unterscheidung zwischen Hund und Haufen. Waymo’s Erfolg basiert vielmehr auf seinen aufeinander abgestimmten Sensoren, von denen das wichtigste das LIDAR ist, mit dem es die Distanz und Geschwindigkeit von Objekten auf der Strasse und am Strassenrand zuverlässig und präzise ermitteln kann. Wichtig ist auch das GPS zusammen mit den ständig nachgeführten Karten, so dass Waymos ständig weiss wo es ist, und was in der Fahrrichtung noch kommt. Die Grundsoftware von Waymo wurde manuell programmiert und basiert auf einem ständig nachgeführten 3D-Szenerie und einer wahrscheinlichkeitsbasierten Einschätzung der Sicherheit der Fahrsituation – und das alles ohne Deep Learning,
    Wie kürzlich in einem MIT-Review-Artikel geschrieben ist KI für sich allein kein magic dust, der alle Probleme löst und etwas von sich aus schon smart macht. Vielmehr müssen KI-Techniken wie Deep Learning sinnvoll in ein Gesamtsystem integriert werden – und das ist recht anspruchsvoll und komplex, was wohl mit ein Grund dafür ist, dass in Deutschland nicht einmal 5% aller kleinen und mittleren Unternehmen KI einsetzen oder an einen baldigen Einsatz denken.

  5. Der Begriff »Künstliche Intelligenz« ist irreführend und bei genauer Betrachtung grundsätzlich falsch. [Dirk Freyling]

    Dies wird hier genau so gesehen, aber im übertragenden Sinne liegt bei der “AI”, in doppelten Anführungszeichen, dann doch eine Art maschinelle effektive Verständigkeit vor, die Intelligenz genannt werden könnte.
    Das sog. Machine-Learning ist dem Schreiber dieser Zeilen insofern auch ein wenig unheimlich.

    MFG
    Dr. Webbaer

  6. KI ist eine Ambition, Deep Learning eine Technik [Herr Holzherr]

    “AI” kann es als echt sozusagen, nicht geben, “Deep Learning” als Technik emuliert sie aber.
    Andersherum gedacht ist die Intelligenz (erkennender Subjekte) selbst in Frage zu stellen. Sie ist vor ca. 100 Jahren erfunden worden und versuchte Eigenschaften wie Weisheit, Klugheit, Verständigkeit und “Bauernschläue” zu ersetzen, sie dient auch wissenschaftlich ganz hervorragend, weil sie direkte Messbarkeit bereit stellt.
    Vielen Dank für Ihre Ausführungen (vgl. mit ‘(…) hybriden Ansatz kombiniert es doch Monte-Carlo-Spielbäume mit einer “DeepLearning”-Mustersuche innerhalb der generierten Spielbäume (…)’), Herr Holzherr, Dr. W versucht hier das Wesen von “Machine-Learning” ein wenig zu verstehen.

    MFG
    Dr. Webbaer

  7. Was künstliche Intelligenz ist oder nicht ist, das wissen (auch) KI-Forscher
    Leonie Seng als Philosophin, aber auch TV-Talker, Autoren, die Bücher über KI schreiben, Journalisten und Tweeter beleuchten zuerst einmal die gesellschaftlichen Aspekte einer zukünftigen von Künstlicher Intelligenz geprägten Welt. Doch die meisten, die sich äussern, verbreiten nur das, was sie zusammengelesen haben von Autoren, die ebenfalls Journalisten, Philosophen und Talker sind. Dabei äussern sich in der Öffentlichkeit auch die KI-Forscher, die die heutige Deep Learning – Technologie entwickelt haben und die somit die Fähigkeiten und das Potenzial dieser Technologie kennen und teilweise auch einschätzen können. Ich schreibe teilweise einschätzen können, weil es auch unter den KI-Forschern einzelne mit überbordender Phantasie und grenzenlosem Optimismus gibt. Doch mindestens wissen KI-Forscher wenigstens um was es überhaupt geht, genauso wie ein Bauer besser als ein Stadtkind weiss woher die Milch kommt.
    Hier will ich einmal ein paar solche KI-Forscher (ausschnittsweise zu Wort kommen lassen oder zusammenfassen was ich über ihre Aussagen gelesen habe.

    Yoshua Bengio (one of Deep Learning Top 3 founders) about AI
    Deep Learning Anwendungen heute: Spracherkennung, maschinelle Übersetzung, Bildsuche, selbstfahrende Autos, Sehysteme für Blinde, etc.
    Deep Learning Beschränkungen heute: Dominanz des überwachten Lernens in der man Lösungen vorgibt und vom System nur erwartet, dass es erkennt, wenn etwas ähnlich wie die vorgegebene Lösung ist.
    Deep Learning, anzustreben: Nicht-überwachtes Lernen, Lernen ohne Zielvorgabe
    Deep Learning und Denken: Denken und Schlussfolgern basieren auf der cleveren Kombination von Fakten und Erkanntem. Deep Learning erkennt und kann deshalb die Basis für Denken liefern, auch wenn wir heute noch weit davon entfernt sind.
    Deep Learning Nahpotenzial: Personalisierte Medizin und Wissen schöpfen aus medizinischen Datenbanken wird überhaupt erst durch Deep Learning möglich.

    Yann LeCun (Bildverarbeitung (CNN’s)
    Gefahr von AI: Auf kurze oder mittlere Sicht gibt es keine Gefahr die von AI ausgeht
    Beschränktheit von AI: AlphaGo/AlphaZero täuschen mit der Überlegenheit gegenüber Menschen im Go/Schachspiel. Doch mit Intelligenz oder auch nur Brauchbarkeit für zukünftige Roboter hat das nichts zu tun. Heutige AI-Software erreicht nicht einmal die allgemeine Intelligenz einer Ratte.
    Beschränktheit von Bestärkendem Lernen: Ein Mensch weiss schon vor dem ersten Fahrunterricht, um was es geht, dass man nicht von der Strasse abkommen muss etc., aber Lernen durch Versuch und Irrtum (bestärkendes Lernen) lernt das erst nach tausenden von Kollisonen. Folgerung: Bestärkendes Lernen führt nicht zu Intelligenz, führt nicht zu den notwendigen Weltmodellen über die Menschen verfügen.

    Gary Marcus (Psychologist interested in NI and AI) about AI
    Deep Learning’s Beschränkungen:
    – Das tiefe Lernen ist bisher oberflächlich und hat begrenzte Transfermöglichkeiten.
    -Deep Learning hat bisher keine natürliche Art, um mit
    hierarchischen Strukturen umzugehen.
    – Deep Learning hat bisher mit offener Inferenz zu kämpfen. (“Es kann nicht Nuancen wie den Unterschied zwischen “John versprach Mary zu gehen”
    und “John hat versprochen, Mary zu verlassen” erkennen.)
    – Deep Learning ist bisher nicht ausreichend transparent.
    – Deep Learning ist bisher nicht gut mit dem bisherigen Wissen integriert.
    – Deep Learning kann bisher nicht von Natur aus Kausalität von Korrelation unterscheiden.
    – Deep Learning funktioniert bisher gut als Annäherung, aber seine
    Antworten sind oft nicht vollständig vertrauenswürdig.
    – Deep Learning ist bisher schwer zu realisieren

    Ben Goertzel about AI Open AI, tries to construct general artificial intelligence
    AI’s Beschränkungen:
    – Fehlende kognitive Synergy(Zusammenarbeiten aller Subsysteme um ein Ziel zu erreichen)
    AGI’s (allgemeine künstliche Intelligenz) Chancen im 21. Jahrhundert:
    – AGI verdient es, sehr ernst genommen zu werden, und zwar mindestens ebenso sehr wie andere große Anstrengungen in anderen Bereichen der Wissenschaft und Technik wie Gentechnik und -therapie; Aufbau künstlicher Organismen a la Craig Venters Arbeit an Mykoplasmen; Quantencomputer; vereinheitlichende Physik; usw.). Ja, die Erstellung eines AGI (allgemein intelligenten Wesens) ist eine große und wichtige Aufgabe, ein schwieriges Ziel, aber nach dem Stand der Wissenschaft ist es mit ziemlicher Sicherheit ein erreichbares Ziel.
    Es gibt stichhaltige, wenn auch nicht absolut zuversichtliche Argumente dafür, dass es sich um eine gute Sache handeln könnte, die innerhalb unserer Lebenszeit über einen von vielen plausiblen Wegen erreicht werden können.

    Fazit: Es lohnt sich zu lesen, was Forscher, die auf dem Gebiet der künstlichen Intelligenz arbeiten, über die gesellschaftlichen Konsequenzen und über die Substanz der “Künstlichen Intelligenz” schon geschrieben haben oder immer noch schreiben.

  8. Deep Learning müsste eine Methode, eine Algorithmik meinen, die gesellschaftlichen Nutzen zeitigen kann und wird.
    Hier – ‘Deep Learning kann bisher nicht von Natur aus Kausalität von Korrelation unterscheiden.’ – musste Dr. W ein wenig schmunzeln, denn es gilt aus philosophischer Sicht sozusagen als Allgemeinwissen, dass Korrelation mit wissenschaftlicher Methodik festgestellt werden kann, dann aber zu “springen” ist, um wahlfrei oder willkürlich Kausalität festzustellen.
    Eine Aufgabe, die wenn nicht politische Macht abgegeben werden soll, dem erkennenden Subjekt obliegt.

    Gerne Webverweise, wenn Sie sog. PDFs meinen, mit einer kleinen Warnung versehen, so dass keine ungewollten Downloads angestoßen werden, Herr Holzherr.

    MFG
    Dr. Webbaer

  9. Mit “DeepLearning” können polymorphe und verrauschte Objekte identfiziert und klassifiziert werden. Etwas was alle höheren Tiere können, was aber Software bis vor kurzem unmöglich war. Eine Antilope beispielsweise wird einen Tiger auch erkennen, wenn nur die Tigerohren aus dem Busch ragen, oder auch dann, wenn der Tiger im Nebel oder Regen heranschleicht.
    “DeepLearning” übertrifft bei solchen Identifikations- und Klassifikationsaufgaben (ist dieses Tier ein Fisch oder ein Vogel?) heute oft den Menschen. Ist “DeepLearning” deshalb intelligent? Vielleicht, vielleicht aber sind DeepLearning-Systeme einfach weniger dumm als Systeme, die das nicht können.
    Mit jeder menschenähnlichen Leistung, die Software neu erklimmt, stellt sich immer wieder die Frage, was denn die menschliche Intelligenz ausmache und worin die wichtigste kognitive Fähigkeit des Menschen besteht. Auch ich habe mir die Frage gestellt und würde sie so beantworten: Die Fähigkeit des Menschen begriffliche Modelle seiner Umwelt und der darin vorkommenden Modelle aufzubauen und die Modelle zu verfeinern und für seine Zwecke zu nutzen, die macht den Menschen einzigartig. Beispiel: Der Mensch hat einen Zahlensinn von Natur aus mitbekommen. Doch das genügte nicht um mit Zahlen wirklich hantieren zu können. Doch heute können wir das: Wir können Zahlen addieren, subtrahieren, multiplizieren und sind sogar in der Lage den Zahlenbegriff zu erweiteren indem wir etwa negative oder komplexe Zahlen erfinden und sogar wissen warum diese Erweiterungen sinnvoll sind. Aber nur schon die Erfindung des Stellenwertsystems war eine Riesenleistung. Die grosse Leistung des Menschen besteht hier nicht darin, dass er nun mit Zahlen hantieren kann, sondern darin, dass er sich das alles selber erarbeitet hat. Und solches begriffliches Erarbeiten ist sowohl eine individuelle als auch eine kulturelle Leistung. Ohne die Fähigkeit zur Modell- und Hypothesenbildung und der Fähigkeit mit Modellen und Hypothesen zu arbeiten, kommt weder der Einzelne noch die Menschheit als Ganzes über das Animalische hinaus.

  10. @Trolley-Problem
    Ich denke Ihre Analyse, Herr Holzherr, ist nur teilweise korrekt. Ich denke auch, dass die Erkennung und Abwägung von Personen außerhalb des Fahrzeuges ein Pseudoproblem ist, allerdings eher aus technischen Gründen, da es schwer genug ist zu erkennen, dass da überhaupt etwas ist dem man ausweichen sollte.
    Allerdings ist es kein Scheinproblem, wenn man Passagier- gegen Fremdsicherung abwägt. Dies ist ja bereits bei jetzigen Fahrzeugen regulierungsbedürftig. Wie zum Beispiel werden Fahrzeugfronten ausgearbeitet, usw. Ich denke man könnte eine Software durchaus so programmieren, dass sie Insassen eher sichert als Fremde, zum Beispiel ob man feste Ziele oder Menschen bevorzugt, wenn man ausweichen müsste.
    Dieses Problem ist allerdings keine Frage der generellen EInführung, sondern eher eins nach der Regulierung von KI. Der Artikel verweist hier auf z.B. auf das Grundgesetz. Das beantwortet allerdings natürlich ncht konkrete Fragen, auch der Verantwortung für die Programmierung im Schadensfall. Wie gut muss die Software getestet sein? Reicht es aus sicherer zu sein als durchschnittlicher menschlicher Fahrer? Wie belegt man die Sicherheit im Schadensfall?

  11. @ganzu (Zitat): Allerdings ist es kein Scheinproblem, wenn man Passagier- gegen Fremdsicherung abwägt.
    Da haben sie natürlich recht. Doch das hat mit dem Trolley-Problem nur noch wenig zu tun. Klar wird jeder Fahrer ob nun menschlich oder nicht, Sachbeschädigung vor Personenbeschädigung bevorzugen und zuerst einmal versuchen die eigenen Fahrgäste vor Schäden zu schützen bevor er dies für andere macht. Wer heute ein Sport-Utility-Vehicle kauft argumentiert ja oft mit der erhöhten Sicherheit. Doch diese erhöhte Sicherheit gibt es nur für die SUV-Insassen, nicht für die Fremdfahrzeuge oder Personen, die einem SUV in die Quere kommen. Klar wird man solche impliziten Sicherheitsstrategien, die für heutige Fahrzeuge gelten auch auf selbstfahrende Fahrzeuge übertragen.

    Das Trolley-Problem ist insoweit etwas Neues, als dass es im Zusammenhang mit dem autonomen Fahrzeug nun plötzlich einen aussenstehenden, eventuell moralischen Entscheider einführt. Damit erweist sich das Trolley-Problem als nichts anderes als den Versuch der Philosophen und Ethiker in den Entscheidungsprozess eingebunden zu werden. Sie möchten nun sagen: Du stirbst – und du nicht. Aber braucht es für solch eine Entscheidung tatsächlich Ehtiker?

  12. Martin Holzherr:
    “Deep Learning anzustreben :Nicht überwachtes Lernen,Lernen ohne Zielvorgabe…”
    Damit öffnen sie die Büchse der Pandora denn diese Systeme,so meine Vorstellungen, würden hierdurch eine Eigenständigkeit mit von Menschen nicht mehr kontrollierbaren Ausmaßen bekommen.Das System könnte zum Beispiel menschliche Fehler verallgemeinern und den Menschen als Schwachpunkt in seinem systemischen Denken einordnen,was wiederum mit Konsequenzen,die dieses System selbst erarbeitet, verbunden wäre. In der Militärtechnik wäre das wohl ein Super Gau…

  13. @Golzower, ja Maschinen, die nicht-überwacht, also selsbständig, lernen, können so gefährlich werden wie wir Menschen es bereits sind. Dies zu (Zitat): Nicht überwachtes Lernen,Lernen ohne Zielvorgabe…”
    Damit öffnen sie die Büchse der Pandora denn diese Systeme,so meine Vorstellungen, würden hierdurch eine Eigenständigkeit mit von Menschen nicht mehr kontrollierbaren Ausmaßen bekommen.

    Roboter, die etwa die Rolle eines Hausdieners einnehmen sollen, die beispielsweise von ihrem Meister die Aufgabe erhalten, sein Vermögen gewinnbringend anzulegen, die kommen gar nicht darum herum, selbständig denken zu lernen. Doch es gibt wohl schon eine Möglichkeit selbst selbständig denkende Maschinen unter Kontrolle zu halten. Das ist sogar einfacher als bei Menschen. Denn bei Menschen weiss man nicht was sie denken. Roboter aber könnte man mit einer Art Aufzeichnungsgerät ähnlich dem Fahrtenschreiber im Auto versehen, so dass man immer nachvollziehen und analysieren könnte was sie treiben.

  14. Verstehen was heutige AI macht durch Lesen von Forschungsberichten
    Es gibt einen AI-Hype wegen spektakulär anmutenden Leistungen durch AI-Programme wie DeepMind’s AlphaZero welches nur mit dem Wissen um die Go- oder die Schachregeln, alle menschlichen Go- und Schachspieler übertrumpft. Doch selbst AI-Koryphäen wie Yann LeCun meinen, dass diese spektakulären Erfolge über die Schwächen und die konzeptionale Einfachheit der dahinterliegenden Software hingwegtäuschen.
    Wer sich für AI interessiert und sei es als Geisteswissenschaftler (den nicht die Technologie, sondern die ethischen/gesellschaftlichen Implikationen interessieren), der sollte auch einige Originalforschungsberichte von KI-Forschern lesen um sich ein Bild zu machen. Der hier im folgenden besprochene Artikel Simulated Autonomous Driving in a Realistic Driving Environment using Deep Reinforcement Learning and a Deterministic Finite State Machine jedenfalls zeigt für mich, dass einige AI-Techniken konzeptionell äusserst einfach sind und dennoch verblüffende Leistungen vollbringen können. Letztlich bedeutet aber die konzeptionelle Einfachheit auch eine Beschränkung der Fähikgeiten solcher Software: Sie kann weniger als es scheint. Insbesondere fehlt jede tiefere Reflexion, jegliches Abwägen und es gibt nichts was auch nur entfernt mit Denken zu tun hätte.

    Hier nun meine Zusammenfassung: Der gerade verlinkte Forschungsbericht benutzte einen Autofahr-Simulator um Autos mittels der Methode bestärkendes Lernen (Versuch- und Irrtumsstrategie) autonom fahren zu lehren. Als Forschungsleistung gegenüber ähnlichen Arbeiten wird von den Autoren hervorgehoben, dass sie die möglichen Aktionen des Autos (Beschleunigung, Lenkung, Bremsmanöver etc) den Fahrsituationen angepasst haben. Dies bedeutet, dass ein solches autonomes Auto beispielsweise in einer Haarnadelkurve nicht mehr versucht abrupt zu bremsen oder versuchsweise etwa auf die andere Strassenseite zu wechseln. Damit haben die Autoren das Lernen beschleunigt und sie benötigen weniger Rechenleistung.

    Der Kern des Algorithmus ist die Belohungsfunktion (Zitat, verkürzt): Wenn der Agent das Fahrzeug kollidieren ließ, gab die Belohnungsfunktion einen konstanten Wert von -20 zurück. Andernfalls liess die Belohnung für den Zeitschritt folgende Faktoren einfliessen: Zu hohe Querbeschleunigungen wurden bestraft, zu starke Abweichungen von der Fahrspur rechts und links wurden bestraft und zu starke Abweichungen der Fahrgeschwindikgeit von der angestrebten Durchschnittsgeschwindigkeit wurden bestraft.

    Das Ergebnis dieses Versuchsansatzes wird so zusammengefasst (Zitat, übersetzt von DeepL): Nach ca. 5 Millionen Zeitschritten, was ca. 40 Stunden Rechenzeit eines Core i5 mit GPU-Beschleunigung (GeForce GTX 1070 Ti) entspricht, gelang es den Agenten das Fahrzeug entlang des Straßennetzes nahezu kollisionsfrei zu steuern.
    Diese Ergebnisse beinhalten das Erlernen des (annähernden) Fahrens mit Sollgeschwindigkeit, wann immer es möglich ist, sowie die Reduzierung der Geschwindigkeit des Fahrzeugs vor engen Kurven und Kreuzungen. Darüber hinaus haben wir auch gesehen, wie der Agent [der autonome Fahrer] die Geschwindigkeit auf der Geraden bei engen Straßen reduziert hat, was ein bemerkenswertes Ergebnis ist, denn es erfordert eine richtige Wahrnehmung einer schwierigen Situationen.

    Fazit: Ein von den Autoren als fortgeschritten gelobtes Verfahren um mittels Belohnung und Bestrafung autonom fahren zu lernen, und dabei vernünftig durch Kurven und enge Strassen zu fahren, liefert gute Ergebnisse trotz einem konzeptionell äusserst simplen Ansatz. Mit Intelligenz im menschlichen Sinne hat ein derartiges autonomes Fahren fast gar nichts zu tun.

  15. Yoshua Bengio, einer der 3 Begründer des Deep Learning, stört sich an der gegenseitigen nationalen Aufrüstung in Sachen AI (China,die USA,Europa wollen die Ersten sein) und will, dass Deep Learning allen zugute kommt, auch und gerade den sich entwickelnden Ländern (siehe MIT-Review: One of the fathers of AI is worried about its future). Ferner ist er strikt gegen den militärischen Einsatz. In Bezug auf den Status und die Weiterentwicklung von Deep Learning sieht er die AI-Forscher in der Industrie als Anwender und die AI-Forscher an den Universitäten als Weiterentwickler (Zitat, übersetzt von DeepL) : Aber wir müssen in der Lage sein, es zu erweitern, um Dinge wie Denken, Erfassen von Kausalitäten zu ermöglichen und AI sollte die Welt erkunden können, um zu lernen und Informationen zu erwerben. Kausale Erklärungsmodelle seien für AI-Systeme erstrebenswert um ihnen eine stärkere Verallgemeinerungen ihrer erworbenen Fähigkeiten zu ermöglichen. AI-Systeme sollten zudem diese kausalen Erklärungsmodelle selber entdecken können.

  16. Deep Learning ist heute die wichtigste Methode des maschinellen Lernens und prägt das jetztige Bild der künstlichen Intelligenz. Im Kern transferiert DeepLearning einen verrauschten Eingabekanal von Daten (z.B. Bildpunkte, Schallwellen oder Einkaufslisten) in einen verarbeiteten, typischerweise stark datenreduzierten Ausgabekanal, der beispielsweise für ein ganzes Eingabebild nur gerade den Satz Auto auf Parkeld ausgibt. Dabei wir dieser Satz Auto auf Parkeld dem System als Lösung vorgegeben (DeepLearning kennt die Bedeutung dieses Satzes nicht), indem tausende von Beispielbildern mit diesem Satz markiert sind. Nach der Trainingsphase wird das System auch andere, vorher nicht trainierte Bilder mit Autos auf Parkfeldern als solche erkennen.
    Einen brauchbaren Artikel über DeepLearning ist Deep Learning, Drei Dinge, die Sie wissen sollten.

    Eine Online-Testumgebung für DeepLearning findet sich unter ConvNetJS, Deep Learning in your browser, wo man den MNIST-Datensatz (handgeschriebene Ziffern) trainieren kann, sowie die CIFAR-10-Bilddatenbank (Tiere,Autos, etc) und ein paar weitere Beispieltrainingssets. Gut geeignet für eigene Erfahrungen scheint mir der MNIST-Datensatz. Man sollte während des Traingingslaufs zum Beispiel die Ausgaben im Browserbereich “Example predictions on Test set” beobachten (ganz nach unten scrollen). Ganz oben gibt einem das Feld “Training Accuracy” und “Validation Accuracy” Auskunft über den Erfolg. Zahlen über 0.9 für diese Felder sind gut (>90% Treffsicherheit) und werden erst nach 4000 bis 5000 Testbildern erreicht.

  17. Deep Learning benutzt künstliche neuronale Netzwerke um ein komplexes Eingangssignale über viele Ebenen (Schichten von Neuronen) hinweg zu interpretieren und in ein Ausgabesignal umzuwandeln. Convolutional Neural Networks sind nichts anderes als ein Spezialfall von solchen künstlichen neuronalen Netzwerken und zwar sind Convolutional Neural Networks (CNN’s) darauf spezialisiert, Bilder und andere Eingabedaten, die wie Bilder behandelt werden können, zu verarbeiten.

    Es gibt aber auch scheinbar ganz andere Ansätze in der künstlichen Intelligenz, Ansätze, die auf den ersten Blick nicht geeignet sind für die Anwendung von künstlichen neuronalen Netzen. Bestärkendes Lernen, Lernen durch Versuch und Irrtum also ist ein solcher scheinbar völlig anderer Lernansatz, denn hier wird das System durch Schaden klug – und natürlich auch durch den seltenen Erfolg, der bei einem zufälligen Versuch eintritt. Doch heute benutzt auch Bestärkendes Lernen künstliche neuronale Netze, also Deep Learning. Anstatt nämlich blind etwas auszuprobieren, entscheidet ein künstliches neuronales Netz welche der Handlungsoptionen die beste ist. Auch bei AlphaZero, dem Go- und Schachautomaten von DeepMind, der alle Menschen schlägt und der Spielen allein durch Ausprobieren und Spielen gegen sich selbst lernt, kommt ein neuronales Netz zum Einsatz. Dieses neuronale Netz bestimmt, welcher der im Spielbaum möglichen Züge als nächster gewählt werden soll.
    In der Tat ist Deep Learning eine Art Abbildung von komplizierten verrauschten Eingabedaten auf ein ganz bestimmtes Resultat hin, wobei die Eingabedaten aber auf äusserst komplexe Weise (insbesondere nichtlinear, über mehrere Zwischenschritte) verarbeitet werden. Und es hat sich immer wieder gezeigt, dass künstliche neuronale Netze sehr gute Abbildungen liefern – mindestens, wenn man sie genügend lang trainiert hat.

  18. Warum jeder wissen sollte wissen was KI heute kann und was es (wahrscheinlich) nicht kann
    Die Sprachassistenten Alexa, Siri oder Cortana werden von vielen Benutzern als intelligenter eingeschätzt als sie sind. Und das ist nicht ungefährlich, weil es bedeuten kann, dass man diesen KI-Instanzen zu viel Verantwort übergibt. Dies ist meine Reaktion auf obige Aussage von Leonie Seng (Zitat):
    Oft wird nach Beispielen gesucht, die solche Programme von Menschen unterscheiden. Nach dem Motto: Ja, was ist es denn nun, was noch das Menscheneigentümliche ist? Ohne hier eine Antwort auf diese Frage geben zu wollen (das überlasse ich Ihnen 😉 ), kann man auf jeden Fall feststellen, dass es ein menschliches Bedürfnis zu sein scheint, eine Eigenschaft (oder mehrere) zu finden, die als Gründe dafür herangezogen werden können, dafür zu argumentieren, das Menschen einzigartig (und nicht ersetzbar) sind.
    Das sehe ich ernsthafter: Wer KI benutzt, sollte seine Grenzen kennen und wissen worauf er vertrauen kann und worauf nicht – sonst treffen Menschen die KI um Rat fragen, falsche Entscheidungen.
    Sprachassistenten wie Alexa oder Siri scheinen vielen darum intelligent, weil sie auf “richtige” Fragen hin oft äusserst gute Antworten geben. Siri weiss welche Filme gerade laufen, wo das nächste Restaurant ist oder wann das nächste Fussballspiel einer Manschaft, für die ich mich interessiere, stattfindet. Das gibt vielen den Eindruck Siri verstehe die Welt um sie herum. Erst “falsche” Fragen zeigen, dass Siri oder Alexa die Welt eben überhaupt nicht verstehen. Ein solche “falsche Frage” wäre beispielsweise: “Ich habe 5 Äpfel, wie viel habe ich noch wenn ich 2 davon gegessen habe”. Siri oder Alexa können fast immer derartige Fragen nicht beantworten, weil es keine Datenbankanfragen sind. “Richtige Fragen” können die Sprachassistenten in Datenbankanfragen übersetzen, “falsche Fragen”, also Fragen, die sie nicht beantworten können, verlangen von den Sprachassistenten nachzudenken – und das können sie nicht.

    Folgende Regeln gelten für einfache KI-Systeme (also fast alle heutigen Systeme):
    – Das KI-System hat ein Spezialwissen und es versucht aus Anfragen herauszuhören, was es mithilfe dieses Spezialwissens beantworten kann. Siri wird beispielsweise auf das Wort “Fussball” hin seine Fussballdatenbank abfragen. Allerdings heisst das nicht, dass Siris Spezialwissen “Fussball” ist. Vielmehr ist Siris Spezialwissen die Kunst der Datenbankabfrage.
    – Das KI-System hat kaum Vorwissen oder kontextuelles Wissen, deshalb braucht es auch grosse Trainingssets. Wenn man berücksichtigt, dass KI nichts über die Welt weiss, ist es sogar erstaunlich, dass 5000 handgeschriebene Ziffern genügen, damit das so trainierte System fast alle handgeschriebenen Ziffern fast aller Menschen erkennen kann. Ein Schüler dagegen lernt das Schreiben von Ziffern völlig anders: Man sagt ihm wie er die Hand bewegen muss um beispielsweise eine 6 zu schreiben. Das macht es für den Schüler auch einfach die 6er andere Leute zu erkennen, weil er weiss, wie sie diese 6 hinschreiben.
    – Das KI-System gibt Antworten ohne die tiefere Bedeutung der Antworten zu verstehen. Ein KI-System, welches beispielsweise auf ein Bild eines Autos auf einem Parkfeld die Antwort gibt “Auto auf Parkfeld” wird die gleiche Antwort eventuell auch für ein Auto geben um welches ein Gartenhag herumgeht, denn es weiss nicht was ein Parkfeld ist, sondern orientiert sich rein optisch indem es eine Ähnlichkeit zu den Trainingsbildern herzustellen versucht.

  19. Es wird in den oberen Kommentaren immer wieder auf den Unterschied zwischen dem Lernen und insbesondere dem Verstehen von Menschen im Vergleich mit Maschinen abgehoben. Dabei hinterfragt niemand, wie der Mensch das denn macht.
    Ich habe mit zunächst erheblicher Verwunderung beobachtet, wie kleine Kinder von vielleicht 1 1/2 Jahren versuchen, runde, quadratische und sternförmige Klötze etc. in einen Kasten mit passenden Öffnungen zu stecken und wie unfähig sie anfangs sind, eben dieses richtig zu machen. Sie brauchen ebenfalls sehr viele Versuche, bis es ihnen fehlerfrei gelingt. Dann aber, so darf ich aus meinem rudimentären Verständnis entnehmen, haben sich alle zielführenden Neuronen gebildet bzw. entsprechende Verknüpfungen verstärkt sowie andere geschwächt. Wenn nun alles quasi von alleine richtig läuft, hält auch dieser kleine Mensch es schließlich für selbstverständlich, dass das Runde nicht ins Eckige gehört. Schon ein Blick reicht (aus der Gewohnheit), zu erkennen, dass bestimmte Formen passen oder eben nicht. Er hat verstanden! Das denken jedenfalls alle. Doch wer erklärt mir den Unterschied zu maschinellem Lernen?
    Wenn wir in fortgeschrittenerem Alter schließlich auch logische Operationen durchführen können (, also, wenn wir langsam immer mehr Wissen gesammelt und neue Erfahrungen gemacht haben), ist es uns offenbar gelungen, nicht nur mehrere Themenfelder miteinander zu verknüpfen, sondern auch allgemeinere Muster zu erkennen, die offensichtlich meistens oder immer gelten. Das nennen wir dann Logik. Die Mathematik mit ihren “einfachen” Regeln zum Addieren, Multiplizieren etc. zeigt meines Erachtens recht gut, wie man sich solche Regeln (Gesetze) langsam erarbeiten kann. Dabei war schon die Befähigung des Zählens nicht so einfach, hat man doch in frühen Jahren z.B. unterschiedliche Zahlwörter für unterschiedliche Dinge genutzt in Abhängigkeit davon, ob man nun Rinder oder Menschen gezählt hat. Der allgemeinere Charakter der Zahlen wurde erst nach langer Zeit bewusst.
    Logik ist nichts, was dem Menschen in die Wiege gelegt wurde (Wer sollte sie ihm auch eingeprägt haben?), sondern sich aus der Erfahrung und der Übernahme einleuchtender Erklärungen bildet und sich aufgrund des allgemeinen Charakters schließlich verselbständigt und in gewisser Weise ein (abstraktes) Eigenleben führt.
    Als kleines Beispiel dafür, als wie selbstverständlich gewisse erlernte Dinge von uns wahrgenommen werden, kann ich hier einbringen, wie unverständlich es mir als 9-Jährigem war, dass andere Völker ganz andere Begriffe verwendeten als ich, z.B. “table” statt “Tisch”. Auch die Selbstverständlichkeit, mit der von den meisten Menschen die eigene Kultur und die eigene Religion als die richtige wahrgenommen wird, zeigt, dass logisches Denken und Reflektieren dem Menschen nur da möglich ist, wo er es gelernt hat. Ich sehe, abgesehen von der großen Breite unseres menschlichen Wissens und vielleicht auch teilweise noch effektiveren Mechanismen, keinen grundsätzlichen Unterschied zur noch längst nicht zu Ende entwickelten KI.

  20. Einen Unterschied zwischen maschinellem und menschlichem “Denken” gibt es vielleicht doch (noch). Wir sind in der Lage, durch reine Kommunikation Wissen und Logik weiterzugeben! Auch nutzen wir sprachliches Denken des Öfteren, um unser Denken über gewisse Probleme zu systematisieren. Die Sprache scheint da eine ähnliche hilfreiche Wirkung zu haben wie schriftliche Aufzeichnungen, die uns helfen, gewisse Punkte in der Betrachtung nicht zu vergessen und logisch miteinander zu verbinden. Anders, als Viele es empfinden, bildet die Sprache dabei aber kein eigenes logisches System, sondern erlaubt nur, gewisse „logische“ Erkenntnisse für die Kommunikation, auch für die Kommunikation mit sich selbst, zu erfassen. Wenn mir auf der Straße etwas Erschreckendes passiert, denke ich nicht: „Oh, da kommt ein LKW auf mich zu und ich muss jetzt schnell zur Seite springen.“, sondern ich erfasse die Situation unmittelbar und auch ganz ohne Worte ebenso wie die notwendige Reaktion. Aus obigem ersten Satzteil folgt der zweite in keiner Weise. Die Logik (= Erkenntnis) war schon vor dem Satz oder eben auch ohne irgendeinen Satz da.
    Ich glaube aber, dass eine solche Entwicklung auch bei der höheren KI möglich wird, wenn die Verarbeitungstiefe noch weiter erhöht wird. Durch eine solche Entwicklung wäre dann aber auch eine echte Kommunikation mit der Maschine möglich und sie bliebe nicht mehr nur eine sprachlose Black Box. Ob eine reine Vertiefung ausreicht, möchte ich allerdings auch bezweifeln.

  21. @Ulrich Heemann (Zitat) Einen Unterschied zwischen maschinellem und menschlichem “Denken” gibt es vielleicht [nicht, oder] doch (noch).
    Nun,
    1) Weiss man immer noch wenig über menschliches Denken und menschliche kognitive Leistungen überhaupt so dass die obige Aussage nicht in Fakten und Erkenntnissen “geerdet” ist
    2) Sicher ist aber, dass das begriffliche und konzeptionelle Denken des Menschen, welches ihm unter anderem ermöglicht hat, maschinelles Lernen überhaupt zu entwickeln, bei heutigen Machine Learning Systemen noch fehlt. Ben Goertzel, ein Pionier der allgemeinen künstlichen Intelligenz hält die heutigen KI-Systeme zudem für zu spezialisiert und meint, es fehle den heutigen Machine Learning Systemen die nötige kognitive Synergie der KI-Subsysteme, also die Zusammenarbeit auf ein zu erreichendes Ziel hin, welche uns Menschen komplexe Abstraktionsleistungen ermögliche.

  22. “Künstliche Intelligenz” ist (in my unhumble opinion) für Leonie Seng ein Diskursgegenstand, den sie sich über Sekundärliteratur und Sekundärdiskussionen angeeignet hat. Oder ganz direkt: Leonie Seng kennt weder KI-Forscher noch Arbeiten dieser Forscher. Sie weiss aber sehr viel darüber was andere Geisteswissenschaftler (auch Zeitungsschreiber) bereits über Künstliche Intelligenz publiziert oder einfach geschrieben haben.

    Doch Leonie Seng ist damit nicht allein. Sogar Leute mit naturwissenschaftlichem Hintergrund (z.B. Lars Jaeger) tun das. Sie beschäftigen sich weniger mit realen, existierenden KI-Forschern und mit dem was diese tun und publiziert haben, sondern mehr damit, was in der “Gesellschaft” schon alles über dieses Thema abgesondert wurde.

    In meinen Augen ein Mangel. Bitte Geisteswissenschaftler und auch Naturwissenschaftler. Beschäftigt euch wieder mehr mit den Quellen. Mit den Urschriften, mit der Herkunft von Gedanken und Begriffen.

  23. Danke, Herr Holzherr, für Ihre ausführlichen Anmerkungen, die ich mit Interesse gelesen habe, wenngleich mir vieles von dem, was Sie schreiben, nicht neu ist. Ich muss Sie jedoch bitten, aufzuhören, irgendwelche pauschalen, falschen Meinungen/ Vermutungen über die Arbeitsweise von Geisteswissenschaftlern zu verbreiten, die sie a) nicht belegen können und b) nichts zur inhaltlichen Diskussion beitragen. Sie sind doch lange genug hier dabei, um die Spielregeln zu kennen. Also: Reagieren Sie bitte professionell oder gar nicht. Die Konsequenzen dürften Ihnen ja bekannt sein.

  24. Der Begriff »Künstliche Intelligenz« ist irreführend und bei genauer Betrachtung grundsätzlich falsch. Da auch komplexere und verschachtelte Algorithmen, die auf (informations-)mathematischen Verknüpfungen aufbauen, keine allgemeinmethodischen Lösungswege generieren.

Schreibe einen Kommentar