DeepMind und das Geheimnis des Denkens
Seit im Jahr 2016 das künstliche neuronale Netz AlphaGo der Firma DeepMind einen der weltbesten Spieler im chinesischen Spiel Go Lee Sedol besiegt hat, gibt DeepMind die Marschrichtung in der Künstliche Intelligenz-Forschung vor: In einer Studie nach der anderen untersucht DeepMind die Eigenschaften des Gehirns bei künstlichen neuronalen Netzen. So entwickelten DeepMind-Forscher vor kurzem einen IQ-Test für künstliche neuronale Netze, um herauszufinden, ob und in welchem Maße künstliche Netze bei abstrakten visuellen Problemen logisch schlussfolgern können.
Aus dem Gelernten verallgemeinern können künstliche neuronale Netze auf jeden Fall. Deswegen haben sie die heutige Revolution in der Künstlichen Intelligenz (KI) eingeleitet. 4.500.000 Einträge zu „künstliche Intelligenz“ findet Google. „Ein Gespenst geht um in der Welt – das Gespenst der künstlichen Intelligenz“, würde Karl Marx schreiben, wenn er jetzt lebte, und kein Kommunist wäre, sondern ein KI-Begeisterter. Denn künstliche Intelligenz ist für Menschen wie dem Tesla-Gründer Elon Musk tatsächlich auch ein Alptraum. Für viele KI-Begeisterte aber der neue Traum für eine bessere Welt: Die beste Waffe gegen die Klimakatastrophe, tödliche Krankheiten, Kriege und Ungleichbehandlung von Menschen. Vielleicht auch deswegen publiziert DeepMind jede Studie öffentlich und erklärt diese in ihrem Blog einem breiten Publikum.
Richtig trainiert bewältigen künstliche neuronale Netze einzelne Aufgaben großartig. Wie ein Mensch, kann auch ein künstliches neuronales Netz eine unbekannte Katze als Katze in einem Hunderudel erkennen – wenn eine Katze in einem Hunderudel noch einigermaßen wie eine Katze aussieht. Doch nur einem Menschen fällt beim Anblick der Katze ein, dass sie gern Milch trinkt, Mäuse jagt und manchmal ganz weise Sachen sagt wie: “Über sich selbst zu lachen, heißt, sich selbst zu lieben.” – zumindest als Micky Mouse in einem Walt-Disney-Comic. „Ich möchte eine Katze haben“, kann ein künstliches neuronales Netz sich nicht wie ein Mensch wünschen: Ein künstliches Netz kann fremde Katzen als Katzen erkennen, allgemeiner denken kann es nicht.
Doch obwohl DeepMinds AlphaGo nicht denken kann, erteilte das Programm uns Menschen eine Lehre gerade im Denken. Beim Spielen des hoch intuitiven Go-Spiels gegen Lee Sedol hatte AlphaGo die bekannten Go-Strategien über den Haufen geworfen. Statt sklavisch – nur besser – den Stil der menschlichen Go-Großmeister nachzuahmen, hat AlphaGo die bekannten Spielstrategien missachtet und sehr unkonventionell gespielt, ja, „unsinnige Züge“ gemacht. Getreu dem Motto von Albert Einstein:
„Wenn du ein wirklicher Wissenschaftler werden willst, dann denke wenigstens eine halbe Stunde am Tag das Gegenteil von dem, was deine Kollegen denken.“
Ein tief lernendes neuronales Netz hat also freier und anarchischer gespielt als Generationen von menschlichen Go-Spielern. Bis AlphaGo das Go-Spiel aufmischte, hatten Menschen nach eingefahrenen „Regeln“ gespielt, die zum Sieg führen sollten. Wie Roboter, die festgeschriebene Algorithmen ausführen. Wer hat also mehr gespielt wie ein Mensch? Generationen von Go-Spielern? Oder AlphaGo?
Schlagzeilen hatte auch DeepMinds Entdeckung mit sich gebracht, dass Neurone eines künstlichen neuronalen Netzes in ähnlichen Mustern „feuerten“, wie die Gitterzellen (Neurone) des natürlichen Gehirns, wenn das künstliche Netz den Weg durch ein Labyrinth suchte. Die Gitterzellen im entorhinalen Cortex und Ortszellen im Hippocampus des Gehirns sorgen für unsere Orientierung im Raum.
Sowie künstliche neuronale Netze das Problem des Handlungsreisenden gut lösen und für ihn den kürzesten Weg zwischen den zu besuchten Städten finden können, nutzt das Gehirn wohl bei seinen Orts- und Gitterneuronen-Netzen die generelle Eigenschaft neuronaler Netze, optimal Wege zu finden. Den kürzesten Weg zwischen 20 Städten findet der Mensch besser als einfache Computeralgorithmen, vorausgesetzt der Mensch geht das Problem visuell an und die Städte zum Beispiel als Punkte auf einem Stück Papier aufzeichnet. Doch schon bei 10 Städten gibt es 181.440 mögliche Routen – (n-1)!/2. Hier rechnen künstliche neuronale Netze, die verstärkend lernen können (Reinforcement Learning), viel besser als unser Gehirn.
Der Mensch ist nun mal kein Rechenmeister, sondern ein Meister darin, in neuen Situationen richtige Schlüsse zu ziehen. Wenn der Urmensch einen frisch zerfleischten Hirsch entdeckt hatte, rettete ihm der Gedanke an einen Säbelzahntiger in der Nähe das Leben, und nicht die Fähigkeit, mehrstellige Zahlen im Kopf zu multiplizieren. Bei seiner Flucht vor dem Säbelzahntiger musste der Urmensch sich meist nicht wie ein Handlungsreisender zwischen tausenden möglichen Wegen entscheiden, sondern nur zwischen zwei: In die Höhle, oder auf den Baum!
Auch die Hypothese der prädiktiven Kodierung in unserem Gehirn wurde von DeepMind unter ihre KI-Lupe genommen. Danach macht unser Gehirn ständig Voraussagen über unsere Umgebung und die unmittelbare Zukunft. Wenn die Voraussagen falsch sind, korrigiert das Gehirn sie und lernt daraus. Sowie mein Gehirn schätzen muss, ob mich ein herangeflogener Stein treffen könnte, versucht es in einem Gespräch ständig, die Sätze meiner Gesprächspartnerin zu Ende zu denken. Sonst wäre sie bald gelangweilt, wenn sie auf jede Antwort von mir ein paar Minuten lang warten müsste. Schon so wartet sie oft vergeblich auf das, was sie hören will.
Um prädiktive Kodierung zu erforschen, haben DeepMind-Wissenschaftler ein künstliches neuronales Netz (GQN – Generative Query Network) programmiert, das eine virtuelle dreidimensionale “Welt” aus wenigen zweidimensionalen Bildern vervollständigte. Das Netz konnte also aufgrund von wenigen Daten voraussagen, wie diese virtuelle “Welt” insgesamt aussah – noch besser als unser Gehirn solche räumlichen Voraussagen treffen kann.
Wie stehe es mit der Intelligenz der tief lernenden neuronalen Netze?, fragte DeepMind sich zuletzt. Tief lernende neuronale Netze (deep learning neural networks) kann man allgemein als künstliche neuronale Netze bezeichnen. Die tiefen Netze haben deutlich mehr Schichten von Neuronen als die nicht-tiefen Netze, deswegen verwende ich den kürzeren Begriff mit „künstliche“. Obwohl man bei der Übersetzung von “deep learning neural networks” ins Deutsche auch oft kürzt, das „learning“ weglässt und „tiefe neuronale Netze“ schreibt, um die Deutschen mit unsympathischen Begriffen wie „Lernen“ nicht zu traumatisieren.
Zurück aber zur Intelligenz. Fangen wir mit der menschlichen Intelligenz an: In seinem unterhaltsamen Buch Unser verrücktes Gehirn sagt der Neurologe und Stand-Up-Comedian Daniel Burnett: „Viele andere Lebewesen sind ebenfalls in der Lage, die grundlegenden Funktionen auszuführen, die unser Gehirn ermöglicht. Aber bis heute hat kein anderes uns bekanntes Geschöpf … auch nur eine einzige Nudelart kreiert, ganz zu schweigen von mehr als dreihundert verschiedenen Nudelarten. … Wir sind aber offenbar nicht intelligent genug, um ohne weiteres zu begreifen, woher unsere Intelligenz kommt und wie sie eigentlich funktioniert.“
Um das auszuloten, rollt Daniel Burnett in seinem popular-wissenschaftlichen Werk kurz und knackig die Geschichte des IQ-Testens auf. Uns reicht zu zeigen, wie heute bei Menschen der IQ gemessen wird:
Allgemein und objektiv Intelligenz messen kann kein Gehirnscanner. Dafür dient immer noch der von Psychologen entwickelte IQ-Test mit all seinen Unzulänglichkeiten:
Während meines Studiums konnte ich innerhalb von zwei Wochen meinen IQ durchs Training an diversen IQ-Tests um etwa 15 Punkte verbessern. Zur Sicherheit sage ich jetzt nicht, in welchem Bereich ich damals lag. Seitdem mache ich keine IQ-Tests mehr, um mich von dem fortschreitenden, altersbedingten Abbau meiner Intelligenz nicht deprimieren zu lassen: Schon mit fünf Jahren hat mein Sohn mich in jedem erdenklichen Memory-Spiel geschlagen. Später sogar im Schach, was noch bitterer war.
Dass man sich den IQ antrainieren kann, geht wohl auch mit der Feststellung von Jan Dönges in seinem Spektrum-Artikel zu Intelligenztests konform, Immer weiter, immer schlauer!, in dem er über unsere „allgemein steigende Intelligenz“ in den letzten 100 Jahren berichtet: Jede Generation schneidet bei IQ-Tests besser als die vorherige. Nach Jan Dönges beruhe der Effekt wohl vor allem darauf, „dass die Testteilnehmer immer besser die speziellen Anforderungen des Tests meistern“ würden, also die Tests „lernen“.
Nach dem IQ-Theoretiker Robert J. Sternberg reichen die in den heutigen IQ-Tests untersuchten Eigenschaften nicht mehr, um unsere Intelligenz zu definieren, wie Tanja Gabriele Baudson in ihrem Spektrum-Artikel Der IQ reicht nicht mehr aus schreibt. Diese sind: abstraktes logisches Schlussfolgern, mentale Geschwindigkeit, Wortschatz, aber auch metakognitive Fähigkeit wie Zeitmanagement und Strategien wie Entscheiden unter Unsicherheit. Sternberg will die gängigen IQ-Tests um weitere vor allem psychologische Merkmale erweitern, wie kritisches Denken, Weisheit und Ethik.
Mit kritischem Denken, Weisheit und Ethik können künstliche neuronale Netze heutzutage noch nicht dienen, deswegen besann DeepMind sich bei der Untersuchung ihrer „Intelligenz“ nur auf das Merkmal Abstraktes logisches Schlussfolgern:
DeepMind-Forscher sehen nun mal auch, dass künstliche neuronale Netze zwar problemlos Go-Weltmeister schlagen können, doch wenn sie darauf trainiert sind, Äpfel zu zählen, überfordere das Zählen von Birnen sie maßlos. Äpfel mit Birnen zusammen zu zählen, schafft nur der Mensch. DeepMind verwendet in seinem Blogbeitrag als Metapher Dreiecke und Quadrate, ich konnte jetzt aber den Äpfeln und Birnen nicht widerstehen.
Jedes trainierte künstliche neuronale Netz ist ein Fachidiot – ein solches Netz kann nur eine Aufgabe lösen. Ob ein neuronales Netz aber diese Aufgabe durch eine logische Schlussfolgerung löst, oder durch oberflächliche Statistik, wird manchmal heiß diskutiert. Wie könnte man also künstliche Netze bauen, die – wie meine Mutter damals – sofort wissen würden, dass dahinter mehr steckte als ein nettes Pläuschchen mit Kaffee und Kuchen, wenn meine Klassenlehrerin sie gebeten hatte, wieder mal in der Schule vorbeizukommen?
Um die Fähigkeit der künstlichen neuronalen Netzen zu messen, abstrakt schlussfolgern zu können, musste DeepMind sich ein Äquivalent zu menschlichen IQ-Tests ausdenken, da die gängigen Tests – wie oben gezeigt – besser gelöst werden können, je mehr Wissen man angesammelt hat. Wenn man die Fähigkeit von Maschinen testen will, abstrakt zu denken, sollte man auf Tests zurückgreifen, bei denen gespeicherte Informationen über die Welt nicht viel nützen. Statt zu untersuchen, wie künstliche Netze angesammeltes Wissen wie Menschen abrufen, um Aufgaben zu lösen, wollte DeepMind ermitteln, wie die Netze aus ihrem Wissen über einen begrenzten Bereich von visuellen Mustern auf andere Muster schlussfolgern können. Die Netze sollten also eine Aufgabe lösen, für die kein allgemeines Wissen nötig war, nur die Fähigkeit, abstrakt zu verallgemeinern.
Als Grundlage für den maschinellen IQ-Test wählte DeepMind Ravens Matrizen-Intelligenzest, bei dem der Prüfling das fehlende Teil in einem Muster auf einer 3×3-Matrize ergänzen muss, nachdem ihm eine Folge von damit zusammenhängenden (siehe Bild) vollständigen Matrizen gezeigt wurde. Diese Matrizen hatte John Raven 1939 für menschliche Intelligenz-Tests entwickelt. Bei diesen Tests scheint der Bildungsgrad der getesteten Menschen keine große Rolle zu spielen. Der Matrizen-Test kommt ohne Sprache aus und wird deswegen als ein internationaler IQ-Test verwendet – ideal also auch für Maschinen, die nur die Binärsprache verstehen.
Ein zum logischen Schlussfolgern kreierter Datensatz inspiriert von menschlichen IQ-Test. Übernommen aus Measuring abstract reasoning in neural networks. Mit freundlicher Genehmigung von DeepMind.
Ravens Matrizen mussten für den maschinellen „IQ-Test“ stark vereinfacht und von einem Computerprogramm generiert werden. Um künstliche Netze zu trainieren und testen, braucht man viele Daten. Deswegen wurde hier eine stark eingeschränkte Modell-Welt untersucht. In der Studie ging es aber nicht darum, zu zeigen, dass künstliche Netze so abstrakt denken können wie der Mensch. Hier wollte DeepMind vor allem ermitteln, ob und in welchem Maße künstliche neuronale Netze, die Fähigkeit, logisch zu schlussfolgern, überhaupt haben. Auch um den Weg zur allgemeinen künstlichen Intelligenz aufzuzeigen: Wie muss man künstliche neuronale Netze bauen, damit sie zunehmend abstrakt denken können?
Um das beste Netz zu finden, testeten DeepMind-Forscher diverse Modelle der künstlichen neuronalen Netze mit den generierten Matrizen.
Unter Einschränkungen könne man annehmen, dass tief lernende neuronale Netze abstraktes Schlussfolgern lernen und anwenden können, schrieben DeepMind-Forscher in der Diskussion zu ihrer Studie: Das Modell-Netz mit der besten Performance konnte aus Folgen von visuellen Mustern (Matrizen) die logisch folgenden Muster bestimmen, die das Netz noch nie „gesehen“ hatte, an denen es also nicht trainiert worden war. Dass das Modell-Netz sich nur einfach „erinnerte“ konnte also ausgeschlossen werden. Trotzdem zeigten – wie erwartet – alle Netzmodelle sehr schlechte „Performance“, wenn sie an Mustern getestet wurden, die nur etwas von der Muster-Art abwichen, an der sie trainiert wurden. Wie schon oben gesagt, sind künstliche neuronale Netze Fachidioten, die nur eine einzige Aufgabe bewältigen können – das aber viel besser als der Mensch, wenn in der Aufgabe viele Daten analysiert werden müssen.
Diese Fähigkeit der Netze, logisch folgende visuelle Muster zu finden, hing stark von der Architektur der Netze ab. Konvolutionelle neuronale Netze (Convolutional Neural Networks – CNNs) haben in diesem maschinellen „IQ-Test“ schlecht abgeschnitten, obwohl CNNs sehr gut visuelle Muster erkennen. Deswegen werden sie ergiebig in der Gesichtserkennung eingesetzt und neuerdings auch in der maschinellen Verarbeitung der menschlichen Sprache (Natural Language Processing – NLP). CNNs können gut große Datensätze auf wichtige Signale „falten“, bzw. reduzieren, deswegen heißen sie konvolutionell – faltend.
Am besten „abstrakt denken“ konnte ein Wild Relational Network (WReN), das nicht „Born to be Wild“ wurde, sondern nach John Ravens Frau Mary Wild benannt, die zu der Entwicklung der Raven-Matrizen einen Beitrag geleistet hatte. Beim WReN-Modell handelt es sich eigentlich um zwei gekoppelte neuronale Netze, ein CNN und ein Relational Network (RN), das die Verwandtschaft von Objekten berücksichtigen kann.
Das oben erwähnte Netz-Modell von DeepMind, das dreidimensionale virtuelle Landschaften aus zweidimensionalen Bildern versvollständigen kann, wurde sogar aus drei verschiedenen Arten von neuronalen Netzwerken gebaut: CNN + RN + LSTM. LSTM (Long Short-Term Memory – langes Kurzzeitgedächtnis) wurde 1997 von Jürgen Schmidhuber und Sepp Hochreiter entwickelt. Die LSTM-Netze können sich lange an die früheren Eingaben/Erfahrungen „erinnern“. Sie haben eine große Rolle in der momentanen Revolution der künstlichen Intelligenz gespielt. Davon aber ein anderes Mal.
Wohl muss man mehrere künstliche neuronale Netze koppeln, um ihre „Fachidiotie“ und Einschränkung auf eine Aufgabe zu überwinden. Denn so arbeitet sicher auch das menschliche Gehirn: Mit vielleicht Milliarden überlagerter und gekoppelter neuronaler Netze. Neuronen-Verbände feuern im gesamten Gehirn. Die Hirnforschung kann zwar solche Neuronen-Verbände bzw. ihre „Feuerungsmuster“ mit bildgebenden Verfahren abbilden, doch wie das gesamte Orchester zusammenspielt, vermag niemand zu sagen. Ist das Bewusstsein das Ergebnis dieses gesamten Zusammenspiels? Oder entsteht das Bewusstsein dank nur einigen Hirnmodulen? Sicher das erste.
„Obwohl die Neurowissenschaft viele empirische Zusammenhänge zwischen Gehirnaktivität und geistigem Leben festgestellt hat, scheint die begriffliche Kluft zwischen Gehirn und Geist so breit wie eh und je“, schreibt der Hirnforscher Stanislas Dehaene in seinem wunderbaren Buch Denken. Wie das Gehirn Bewusstsein schafft. Dehaene verwendet für die Neuronen-Verbände im Gehirn nicht den Begriff „neuronale Netze“, trotzdem vergleicht er die „über das ganze Gehirn verteilte Schaltkreise“ „mit einer verwirrenden Anordnung russischer Matroschka-Puppen“. „Diese (Schaltkreise) wiederum setzen sich aus Dutzenden von Zelltypen zusammen. Sogar ein einzelnes Neuron mit seinen Zehntausenden von Synapsen bildet ein ganzes Universum vermittelnder Moleküle – Stoff für die Erforschung von Modellen, der für Jahrhunderte reichen dürfte.“ Dehaenes Buch vermittelt gut die Anstrengungen der Hirnforschung, bewusste Wahrnehmung und das Bewusstsein zu entschlüsseln – lesenswert!
Vor kurzem konnte Dehaenes Metapher „der verwirrenden Anordnung russischer Matroschka-Puppen” erweitert und vertieft werden: Nach einer neuen MIT-Hirnforschung-Studie werden visuelle Reize in diverse verschiedene Kortex-Areale geleitet, um dort Prozesse in Gang zu setzen, die dann zusammen abstrakte Bedeutungen produzieren: Der Mensch sieht zuerst einen Hund, diese Eingabe wird kodiert und wandert durch den Kortex (Großhirnrinde) zu seinen diversen Teilen, um weitere abstraktere Gedanken über das Gesehene zu erzeugen:
Ist der Hund brav? Kann er mich beißen? Schade, dass ich keinen Hund mehr habe … Ein Bild, eine einfache Eingabe also, bringt diverse Neuronen-Netzwerke an verschiedenen Orten im Kortex zum „Feuern“. Allgemeine Aktivitätsmuster kann man zwar bei jedem Input in jeder Kortex-Region beobachten, doch Aktivitäten bei der Kategorisierung eines gesehenen Objekts treten im ganzen Kortex auf. Das heißt: Bei jedem solchen visuellen Reiz sind Neuronen-Netzwerke im ganzen Kortex aktiv. Die alte Annahme in der Hirnforschung stimmt wohl nicht, dass verschiedene Kortex-Teile verschiedene Funktionen erfüllen.
Das macht auch Sinn, sind doch Hirnzellen-Fortsätze (Axone) manchmal über einen Meter lang, und durch das Axon werden eben elektrische aber auch chemische Signale zu anderen Zellen geleitet. Was könnte das gleichzeitige Feuern von Neuronen an diversen Kortex-Stellen anderes bedeuten, als dass es eine massive Kooperation solcher auch entfernten Neuronen-Netzwerke im Kortex gibt?
Markus Siegel von der Universität Tübingen, der an der Studie beteiligt war, sagte: “Unsere Ergebnisse legen nahe, das Gehirn solle eher als ein hoch vernetztes Netzwerk von gesprächigen verwandten Knoten angesehen werden, als ein Satz von hoch spezialisierten Modulen, die untereinander nur sparsam Informationen tauschen.“
Das sollte wohl auch für den Bau von künstlichen neuronalen Netzen überlegt werden: Wie verhält sich ein künstliches Netz, in dem ein Neuron gleichzeitig zu einem ganz nahen und zu einem entfernten Neuronen Signale schickt? Also relativ gesehen mit viel Verzögerung, als wenn ein langes Axon im Gehirn mehr als tausendmal länger ist als die anderen Verbindungen in seinem natürlichen neuronalen Netz? In rekurrenten (rekursiven – zurückgehenden) künstlichen neuronalen Netzen wird das zum Beispiel rudimentär berücksichtigt, indem Signale eines Neurons auch in vorgehende Schichten zurückgeleitet werden. Noch effizienter wäre es wohl, mehrere künstliche Netze zu einem „GesamtkunstNETZwerk“ zu überlagern, so wie natürliche neuronale Netze im Gehirn wohl überlagert sind.
Was ist zu tun, um künstliche neuronale Netze dazu auf diese Art zusammenarbeiten zu lassen? Wenn wir solche Architekturen der vielen überlagerten künstlichen neuronalen Netz bauen und passende Algorithmen für diese Architekturen entwickeln, werden künstliche Netze sicher noch „logischer denken“ können als jetzt. Und wenn diese Netze Reize aus ihrer Umgebung durch viele Sensoren beziehen würden (Embodiment) – so wie der Mensch seine Intelligenz nur dank der Interaktion mit seiner Umgebung entwickelte – wären wir vielleicht auf dem besten Weg zur allgemeinen künstlichen Intelligenz, die genauso gut oder noch besser als der Mensch allgemein denken und abstrahieren kann.
Dann bleibt uns nur noch, eine einzige Frage zu beantworten: Wollen wir soweit kommen?
Dem Geheimnis des Denkens ist man mit dem Beispiel von Go keinen Schritt weitergekommen.
Der Algorithmus eines Programmes führt nur alle Möglichkeiten durch, die die Spielregeln erlauben. Das ist in der Tat eine Denkleistung , aber nur ein Ausschnitt.
Ein Mensch kann durch Abstraktion auf alle Rechenschritte verzichten, wenn er durch eine übergeordnete Einsicht erkennt, dass der Weg falsch ist.
Einem Menschen kann man z.B. Abstraktionsvermögen nicht beibringen, wenn er nicht die Fähigkeit dazu hat. Man nennt das im Sprachgebrauch eine Begabung.
Lennart: “Dem Geheimnis des Denkens ist man mit dem Beispiel von Go keinen Schritt weitergekommen.”
Jaromir: 🙂 Steht in meinem Blog irgendwo, dass man mit dem Beispiel von Go dem Geheimnis des Denkens näher gekommen sei? Im Artikel geht es auch um DeepMind und so wird doch gleich am Anfang mit dem Sieg von AlphaGo über Lee Sedol in Go nur markiert, ab wann die Arbeit von DeepMind in der breiten Öffentlichkeit wahrgenommen wird.
Weiter erlaubte ich mir ironisch zu zeigen, dass AlphaGo den menschlichen Spielern trotzdem eine Lehre im Denken erteilte, obwohl’s nicht denken kann, indem das Programm sehr unkonventionell spielte. Das müsste eigentlich verständlich sein:
“Doch obwohl DeepMinds AlphaGo nicht denken kann, erteilte das Programm uns Menschen eine Lehre gerade im Denken. Beim Spielen des hoch intuitiven Go-Spiels gegen Lee Sedol hatte AlphaGo die bekannten Go-Strategien über den Haufen geworfen. Statt sklavisch – nur besser – den Stil der menschlichen Go-Großmeister nachzuahmen, hat AlphaGo die bekannten Spielstrategien missachtet und sehr unkonventionell gespielt, ja, „unsinnige Züge“ gemacht. Getreu dem Motto von Albert Einstein:
„Wenn du ein wirklicher Wissenschaftler werden willst, dann denke wenigstens eine halbe Stunde am Tag das Gegenteil von dem, was deine Kollegen denken.“”
Lennart: “Der Algorithmus eines Programmes führt nur alle Möglichkeiten durch, die die Spielregeln erlauben. Das ist in der Tat eine Denkleistung , aber nur ein Ausschnitt.”
Jaromir: Dem ist bei tief lernenden neuronalen Netzen eben nicht so. Sie lernen, damit sie nicht alle Möglichkeiten durchspielen müssen, die die Spielregeln erlauben. Das würden sie nämlich bei dem sehr komplexen Spiel Go mit der Rechenleistung der heutigen Computer nicht schaffen.
Lennart: “Ein Mensch kann durch Abstraktion auf alle Rechenschritte verzichten, wenn er durch eine übergeordnete Einsicht erkennt, dass der Weg falsch ist.”
Jaromir: Genauso wie ein tief lernendes neuronales Netz es schafft, die unwichtigen Signale auszusortieren, ohne alles durchzurechnen, und abstrahieren lernt. In welchem Maß ein künstliches Netz abstrahieren lernt, wollte DeepMind eben in seiner letzten Studie zeigen, und darum ging’s auch in meinem Blogtext.
@Konecny: Vergleichbar zur ´predictive coding theory´* gibt es jetzt auch die ´event memory retrieval and comparison theory´*.
Die MIT-Hirnforschungsstudie´* zeigt, dass mehrere Gehirnareale überlappend an einer multidimensionalen Reizverarbeitung beteiligt sind.
Ich konnte mir das Lachen nicht verkneifen.
(Denn diese * wissenschaftlichen Ideen/Ergebnisse sind in meinem Erklärungsmodell für das Phänomen ´Nahtod-Erfahrung´(NTE) berücksichtigt, zu dem Sie in einem früheren Beitrag geschrieben haben, dass es nicht(!) wissenschaftlich sei.)
KRichard: “Ich konnte mir das Lachen nicht verkneifen.
(Denn diese * wissenschaftlichen Ideen/Ergebnisse sind in meinem Erklärungsmodell für das Phänomen ´Nahtod-Erfahrung´(NTE) berücksichtigt, zu dem Sie in einem früheren Beitrag geschrieben haben, dass es nicht(!) wissenschaftlich sei.)”
Jaromir: Ich würde Ihnen wirklich sehr gern recht geben, dass Nahtod-Erfahrungen wissenschaftliche Beobachtungen sind, ich kann aber nicht anders: Für mich sind Nahtod-Erfahrungen eben subjektive Erfahrungen, die man nicht “misst” sondern “erlebt”. Da ich seit über 30 Jahren mentale Techniken trainiere, was ich, was unser Gehirn bei entsprechender Konditionierung mit der Realität anstellen kann.
Können wir’s dabei belassen? Ich sage nicht, dass Sie nicht recht haben, darf aber ihre Hypothese nicht glauben müssen. 🙂
DeepMind bleibt (bis jetzt) eine Firma, die sich vor allem der Forschung widmet und die über die sich teilweise über die kommerzielle Auswertung dieser Forschung und teilweise über Subventionierung durch Google finanziert. Dennis Hassabis hat sich zurückhaltend geäussert in Bezug auf den Einsatz von DeepMind-Projekten für die Robotik – wohl weil das noch zuweit weg ist, weil eben die Gesamthaftigkeit fehlt, die es braucht, damit ein humanoider Roboter sich autonom in der Welt orientieren kann.
Es stimmt, das letzte Ziel ist das Denken und zwar die menschliche Art des Denkens, die eben in einem Organismus beheimatet (embedded, embodied) ist, welcher auf autonomes Handeln ausgerichtet ist. Der AGI-Experte Ben Goertzel beschreibt im Artikel From Here to Human-Level Artificial General Intelligence in Four (Not All That) Simple Steps, wo Ben Görtzel betont, dass nicht biologisch inspierierte neuronal ähnliche Vorgänge entscheidend sind um das Ziel der allgemeinen künstlichen Intelligenz zu erreichen, sondern vielmehr die Zusammenarbeit aller Subsysteme (wie Sensorik, Pattern-Matching, Reasoning) um so etwas wie einen autonomen künstlichen Organismus zu schaffen.
Die vier Schritte, die Ben Görtzel für nötig hält um das Ziel des künstlichen autonomen Organismus zu realiseren sind:
1) Kognitive Synergie praktikabel machen: Mehrere KI-Algorithmen zusammenspannen
2) Brücke symbolische und subsymbolische KI: Logik und Sinnesverarbeitung (deep Learning) zusammenbringen
3) Gesamtorganismus-Architektur: Interaktion mit Aussenwelt, selbst Erfahrungen sammeln
4) Skalierbares Meta-Lernen: Lernen zu Lernen
Zusammenschau: Künstliche Intelligenz löst heute vorher dem Menschen vorbehaltende Einzelaufgaben teilweise besser als der Mensch, aber es gibt bis jetzt noch keinen autonomen künstlichen Organismus, keinen künstlichen Organismus, der mit der Gesamtwelt zurecht käme. Ja, bis heute gibt es keinen Roboter, der auch nur die Aufgaben einer Hausfrau selbständig erledigen könnte und der dabei immer ein höheres Gesamtziel (z.B: Zufriedenheit der Haushaltsmitglieder) im Auge hätte.
Übrigens: Vor kurzem gab es noch mehrere social Robots wie Kuri, Jibo, die vorgaben eine emotionale Beziehung zu ihrem Besitzer aufzubauen. Jibo gibt es nicht mehr und auch Kuri wurde nun aus dem Verkehr gezogen.
Danke für Ihren Beitrag und den Hinweis auf den Artikel von Ben Görtzel – denn kannte ich nicht, lese den gleich unterwegs nach Augsburg. 🙂
Seine vier Schritte zur allgemeinen KI, die Sie aufführen, empfinde ich als vernünftig. “Mehrere KI-Algorithmen zusammenspannen” bedeutet für mich auch: Je mehr Aufgaben eine KI erledigen muss, umso mehr tiefe neuronale Netze muss sie einschließen. Hier frage ich mich hin und wieder: Ab welchem Grad der Netz-Komplexität wir etwas in der Art des humanen Denkens bei einer solchen KI bekommen könnten und ob man das irgendwann mathematisch quantifizieren kann.
@Lennart (Zitat): Einem Menschen kann man z.B. Abstraktionsvermögen nicht beibringen, wenn er nicht die Fähigkeit dazu hat. Man nennt das im Sprachgebrauch eine Begabung.
Das wissen wir schlicht und einfach nicht -wie der Mensch vom Babyalter über die Jugend bis zum Erwachsenenalter sein Abstraktionsvermögen ständig verbessert. “Begabung” sagt sehr wenig darüber aus – nämlich vor allem, dass es indiviudelle Unterschiede gibt.
Zudem ist die Annahme, alles was der Mensch lerne, müsse man ihm beibringen wohl ziemlich falsch. Es ist genau umgekehrt: Das meiste, was der Mensch lehrt, hat ihm kein menschlicher Lehrer beigebracht, sondern es ist seinem eigenen eingeborenen Lernvermögen zu verdanken.
Überhaupt gilt: Wir wissen inzwischen sehr viel über das menschliche Hirn, aber ein Gesamtbild fehlt nach wie vor.Es ist so ähnlich wie wenn ein Ausserirdischer, der nichts über Autos weiss, einmal unter die Motorhaube eines Autos gekuckt hat und trotzdem nicht schlau daraus wird, was denn das alles soll.
Da kann jemand wieder (absichtlich) nicht lesen. Die allgemeine künstliche Intelligenz ist längst da. Der Erfinder befindet sich in Prag. Siehe YouTube.
Sicher mit Absicht! 🙂 Viel Spaß mit der allgemeinen künstlichen Intelligenz!
Die Informationsverarbeitung im Gehirn dürfte, abgesehen von den synaptischen Verknüpfungen und den Strukturen die das Empfindungsphänomen generieren, hauptsächlich „elektrisch“ geschehen.
Einerseits mittels der Gatterfunktionen (nach McCulloch) und was weniger diskutiert wird, es dürften auch besondere, sozusagen aus „technischen Gründen“ zu berücksichtigende Erfordernisse der elektronischen Schaltungstechnik eine Rolle spielen.
Es gibt z.B. Axone die nur wenige Millimeter lang sind (oder noch kürzer) und andere über 1m lange Fortsätze die sozusagen die Peripherie „bedienen“.
In der Elektronik würde man, kurz gesagt aus elektrischen „Anpassungsgründen“, so etwas wie „Treiberschaltungen“ benötigen.
Insbesonderes sieht es aber auch so aus, als spielten “Brückenschaltungen“ eine besondere Rolle. Dafür scheinen Hirnhaut nahe Kortexstrukturen geeignet. Sie könnten eine Art „Brückengegengewicht“ zu den in die Peripherie führenden langen „neuronalen Leitungen“ bilden.
Brückenschaltungen haben, wie auch andere symmetrische Schaltungen, im Prinzip den Vorteil dass sich „Leitungslängen“ sozusagen „kompensieren“ können und Störungseinflüsse geringer sind. Vermutlich sind Phantomschmerzen von der „Brückenunsymmetrie“ verursacht bzw. werden verstärkt.
Messungen an Hirnhaut nahen Strukturen korrelieren mit peripheren Aktivierungen, was für das Brückenkonzept spricht.
In den anderen Hirnorganen dürften hauptsächlich die „eigentliche Informationsverarbeitung“, die eine Signalverarbeitung der Information abbildenden Signale ist, erfolgen.
Mich würden besonders auch Argumente interessieren, die gegen dieses Konzept sprechen.
Elektroniker: “Es gibt z.B. Axone die nur wenige Millimeter lang sind (oder noch kürzer) und andere über 1m lange Fortsätze die sozusagen die Peripherie „bedienen“. In der Elektronik würde man, kurz gesagt aus elektrischen
„Anpassungsgründen“, so etwas wie „Treiberschaltungen“ benötigen. Insbesonderes sieht es aber auch so aus, als spielten “Brückenschaltungen“ eine besondere Rolle. Dafür scheinen Hirnhaut nahe Kortexstrukturen
geeignet. Sie könnten eine Art „Brückengegengewicht“ zu den in die Peripherie führenden langen „neuronalen Leitungen“ bilden.”
Jaromir: Da kann ich nicht widerstehen und muss aus meinem Blogtext oben zitieren:
“Das macht auch Sinn, sind doch Hirnzellen-Fortsätze (Axone) manchmal über einen Meter lang, und durch das Axon werden eben elektrische aber auch chemische Signale zu anderen Zellen geleitet. Was könnte das gleichzeitige Feuern von Neuronen an diversen Kortex-Stellen anderes bedeuten, als dass es eine massive Kooperation solcher auch entfernten Neuronen-Netzwerke im Kortex gibt?”
Ich denke, dass diese starke Verteilung der natürlichen neuronalen Netze über das ganze Gehirn eine sehr komplexe Leitung der Signale durch diese Netze zur Folge hat: Verzögerungen, Verstärkungen, Hemmungen, Kopplungen und Rückkopplungen und und und … Außerdem spielt die Chemie an den synaptischen Spalten und innerhalb der Hirnzellen eine große Rolle in den natürlichen neuronalen Netzen. Ich glaube deswegen nicht, dass man das alles nur auf die Elektrik reduzieren kann. Wenn man das streng sieht, gibt es die elektrische Signalübertragung weitgehend nur innerhalb der Zellen und die chemische zwischen den Zellen. Dann fragt man sich selbstverständlich, was wichtiger ist.
Man muss annehmen, dass das Multi-Layer-Perceptron-Modell eine starke Vereinfachung der neuronalen Netze im Gehirn ist. Dieses Modell funktioniert aber wunderbar in künstlichen neuronalen Netzen.
MH
die Grenzen menschlichen Denkens kann man jeden Tag in der Schule erleben. Wenn ein Schüler nicht das “Potential” hat, so nenne ich es einmal, dann kann er auch mit bestem Willen eine Differentalgleichung nicht verstehen.
Das Lernen durch Erfahrung kann nicht eine systematische Erlernung in der Schule ersetzen. Das systematische Schullernen ist die ökonomischste Methode, sich viel Wissen in kurzer Zeit anzueignen. Die Autodidakten sind und bleiben eine Minderheit.
Vielleicht sind die besonderen begabungen, z.B. absolutes Gehör, der Schlüssel zum verständnis menschlichen Denkens ??
@Lennart (Zitat): Das Lernen durch Erfahrung kann nicht eine systematische Erlernung in der Schule ersetzen. Das systematische Schullernen ist die ökonomischste Methode, sich viel Wissen in kurzer Zeit anzueignen. Die Autodidakten sind und bleiben eine Minderheit.
Ich behaupte: Nein, das ist nicht so. Aus folgenden Gründen:
1) Nur schon die normale Reifung, die Entwicklung vom Kleinkind, das zuerst rein passiv erscheint, später dann einen eigenen Willen und Trotz entwickelt, zum Kind, das Fragen stellt oder sich im Spiel die Welt aneignet und dann zum Jugendlichen, der die ganze Welt in Frage stellt bis er dann seine Identität und später seine Stellung in der Gesellschaft gefunden hat, nur schon das zeigt, dass die wichtigsten Lernprozesse für den Menschen nicht von der Schule kommen, sondern zum normalen Entwicklungsprozess gehören.
2) (Zitat) Das systematische Schullernen schafft in vielen Fällen nur die Voraussetzung für weitere Lenrprozesse, die dann autonom passieren. Ein Mathematiker wie Peter Scholze, der zusammen mit anderen gerade die Fields-Medaille gewonnen hat, hat sich das meiste was zu seinem Erfolg nötig war, selbst angeeignet. Die Lehrer haben ihm quasi nur die Orientierung gegeben und ihn gelernt wie man die Gedankengänge andere Mathematiker nachvollziehen kann und wie er selbst über sein Gebiet kommunizieren muss, so dass es andere verstehen.
@Lennart (Zitat): “Das Lernen durch Erfahrung kann nicht eine systematische Erlernung in der Schule ersetzen. Das systematische Schullernen ist die ökonomischste Methode, sich viel Wissen in kurzer Zeit anzueignen. Die Autodidakten sind und bleiben eine Minderheit.”
Martin Holzherr: “Das systematische Schullernen schafft in vielen Fällen nur die Voraussetzung für weitere Lenrprozesse, die dann autonom passieren. Ein Mathematiker wie Peter Scholze, der zusammen mit anderen gerade die Fields-Medaille gewonnen hat, hat sich das meiste was zu seinem Erfolg nötig war, selbst angeeignet. Die Lehrer haben ihm quasi nur die Orientierung gegeben und ihn gelernt wie man die Gedankengänge andere Mathematiker nachvollziehen kann und wie er selbst über sein Gebiet kommunizieren muss, so dass es andere verstehen.”
Jaromir: “Ich bin aufgrund der paar Tage, die ich mit dem Blogetxt oben verbracht habe, etwas im Zeitdruck :-), kann die anderen Kommentare erst später beantworten, zu diesen zwei muss ich aber gleich etwas schreiben, weil diese mich persönlich betreffen: Ich sehe das genauso wie Martin Holzherr:
Wohl haben Menschen wie Einstein solch überragendes Denken entwickelt, weil sie sehr früh im Leben gute Strategien entwickelt haben, zu lernen, und das nicht dank der Schule. Ich bin in der sozialistischen Tschechoslowakei zur Schule gegangen und kann von keinem einzigen Lehrer berichten, der mich beeindruckt bzw. beeinflusst hätte. Mein Abitur hatte ich damals mit 4 x 4 gemacht, also mit 16 – schon 17 hätte mich durchfallen lassen :-).
Trotzdem habe ich dann mit etwa 36 an der TU München in der theoretischen “Bioinformatik” summa cum laude promovieren können und habe anschließend ein paar Jahre lang an der TU München mit relativ viel Erfolg geforscht. Ich bin sicher ein Beispiel dafür, dass die Schule nicht viel bringt, wenn sie sich nur auf Stoffvermittlung unter Leistungsdruck konzentriert, und man die Motivationsarbeit fürs Lernen selbst leisten muss.
Klar sagt ein Einzelfall wie meiner nichts über “eine Tendenz” aus, doch ich habe zwei Kinder und bin viel durch deutschsprachige Schulen mit Auftritten und Workshops unterwegs, und habe auch bei unserem Schulsystem hier das Gefühl, dass der Wert eher auf eine schnelle, leistungsbezogene Stoffvermittlung gelegt wird als darauf, in den Kindern Begeisterung fürs Wissen zu erzeugen. Das wäre eigentlich die bessere Strategie, denkende und wissende Menschen zu erziehen.
Deswegen glaube ich: Wenn das Kind mit Hilfe einer es liebenden Familie keine richtigen Lernstrategien und keine Wissensbegeisterung entwickelt, wird’s ihm die Schule nur schwer beibringen können. Klar gibt es auch “genetische” Anlagen, trotzdem auch genug Studien, die zeigen, dass Kinder aus armen bzw. sozial “gestörten” Familien diese Wissensbegeisterung in der Schule nur schwer wenn überhaupt entwickeln können. Diese Anlagen werden wohl viel früher bei einem entwickelt als erst mit sechs, wenn man in die Schule kommt.
Ergänzung zu Jaromir Konecny Erfahrungen mit Lernen und der Schule: Es ist auffällig, dass mehrere der Silicon-Valley-Grössen (Larry Page and Sergei Brin, Jeff Bezos, Jimmy Wales (Wikipedia), Will Wright (Sims)) in Montessory-Kindergärten gingen. Larry Page und Sergei Brin begründeten in Interviews gar ihren Erfolg mit der Montessori-Erziehung. Die Montessori-Methode fordert die Kinder nämlich auf, die Welt selbst zu erforschen. Die Montessori-Pädagogen helfen ihnen dabei nur.
Martin Holzherr: “Ergänzung zu Jaromir Konecny Erfahrungen mit Lernen und der Schule: Es ist auffällig, dass mehrere der Silicon-Valley-Grössen (Larry Page and Sergei Brin, Jeff Bezos, Jimmy Wales (Wikipedia), Will Wright (Sims)) in Montessory-Kindergärten gingen. Larry Page und Sergei Brin begründeten in Interviews gar ihren Erfolg mit der Montessori-Erziehung. Die Montessori-Methode fordert die Kinder nämlich auf, die Welt selbst zu erforschen. Die Montessori-Pädagogen helfen ihnen dabei nur.”
Jaromir: “Das kann ich auch persönlich bestätigen: Mein jüngerer Sohn hat eine Montessori-Grundschule besucht. In der 5. Klasse dann, im normalen Gymnasium, war er zuerst zwar sehr schlecht im Englisch, doch wir mussten ihn nie zu etwas wegen der Schule bringen – er hat immer alles selbst gemacht. Er hat mich hin und wieder wegen des Lehrstoffs etwas gefragt, doch ich musste ihn nie fragen, ob er seine Hausaufgaben gemacht hätte. Nur in der 4. Klasse der Montessori-Grundschule hat er die Kinder in “normalen” Schulen beneidet, dass sie Noten bekamen – die wollte er auch haben. 🙂 Jetzt hat er sich in der Physik eingeschrieben, was mich sehr freut. :-)”
“Lennart:
Vielleicht sind besondere Begabungen -wie das obsolute Gehör-der Schlüssel für das menschliche Denken…”
Ich denke, hier werden Äpfel mit Birnen verglichen. Das absolute Gehör scheint mir auf die Sinneserfahrung des HÖRENS aufzubauen. Es bezeichnet eine besondere Art von Sensibilität bestimmte Tonfrequenzen zu bewerten.Die Tiefensensibilität der Sinne ist von Mensch zu Mensch verschieden. Seit längerer Zeit befasse ich mich mit diesem Phänomen , was für mich viele mystische Erscheinungen und Dinge erklärt und was bei vielen Diskussionen zur Thematik “Intelligenz” zu kurz kommt.(Hellsichtigkeit und HellSehen basieren offenbar darauf) Ursache sind tiefliegende unbewusst wirkende Grundgefühle, die unser Handeln,also unser DENKEN, bestimmen. Habe ich ein positives Grundgefühl, so sehe ich das Leben nicht als Last sondern als Lust. Dementsprechend ist mein DENKEN aktiv und positiv strukturiert.Unser DENKEN wird also auch von Gefühlen manipuliert.Gefühle werden wiederum durch Bilder aktiviert. Medien bieten uns täglich Bilder über die Welt an.Medien können somit über die Auswahl der Bilder unser Denken bestimmen (manipulieren) -Was sie auch machen !
Zur Intelligenz und Intelligenzmessung: Ein Computer, der Intelligenztests gleich oder besser lösen kann als ein Mensch ist nicht ebenso intelligent oder gar intelligenter als ein Mensch. Denn: Intelligenztests sind von Menschen für Menschen erfunden worden. Sie testen die menschliche Intelligenz und nichts anderes. Was aber für den Menschen Denkarbeit, Kombinationsgabe, eben Intelligenz erfordert, kann für eine Maschine eventuell durch systematisches Ausprobieren von beispielsweise 1 Million Möglichkeiten pro Testfrage herausgefunden werden. Die Maschine kann also den Test eventuell auch ohne jede Intelligenz lösen.
Intelligenztests für Menschen sind auch so konzipiert, dass Training zwar eine Verbesserung der Leistung ergibt, allerdings keine massive Verbesserung. Und irgendwann nützt alles Training nichts mehr, man wird einfach nicht mehr besser.
Was den Flynn-Effekt angeht, also die von Generation zu Generation besseren Intelligenztestleistungen in einer bestimmten Bevölkerung, so gibt es auch Beobachtungen eines Anti-Flynn Effekts und die folgende Aussage von Jaromir Konecny stimmt damit nur für die Vergangenheit: Dass man sich den IQ antrainieren kann, geht wohl auch mit der Feststellung von Jan Dönges in seinem Spektrum-Artikel zu Intelligenztests konform, Immer weiter, immer schlauer!, in dem er über unsere „allgemein steigende Intelligenz“ in den letzten 100 Jahren berichtet: Jede Generation schneidet bei IQ-Tests besser als die vorherige.
In den letzten 2 Jahrzehnten jedenfalls beobachtet man durchschnittlich eine Verschlechterung der Leistungen in standardisierten IQ-Tests – vor allem in den skandivaischen Ländern und den Niederlanden. Kürzlich zeigte eine genetische Studie, dass sowohl der negative Flynn-Effekt als auch der positive Flynn-Effekt nachweisbar Umweltursachen haben muss, ohne dass er die Umweltursachen im Einzelnen aber bestimmte. Der von mir hier verlinkte Artikel vermutet dagegen, dass auch “dysgenische” Effekte den Anti-Flynn-Effekt hätten hervorrufen können. Doch die Studie zum Anti-Fynn-Effekt in Norwegen widerlegt die Annahme einer genetischen Ursache. Leider finde ich diese Studie jetzt nicht mehr, so dass ich sie nicht verlinken kann.
Weil es hier um „DeepMind und das Geheimnis des Denkens“ geht, möchte ich mich mit einem sehr langen und sehr „elektrischen“ Beitrag melden. Der „Denkprozess“ erfolgt nun einmal zu einem guten Teil „elektrisch“.
Meiner Meinung nach ist der größte Unterschied zwischen biologisch – neuronalen und technischen Systemen dass die biologischen Systeme Mechanismen zum Erhalt des Systems (Nahrung, Wettbewerb, Sexfunktionen…) „einprogrammiert“ haben und von diesem Standpunkt aus auf die Umwelt reagiert wird.
So weit ich es mitbekommen habe, beruht der Erfolg von Deep Mind (gegenüber seinen Vorgängern) darauf, aus einer Ausgangssituation heraus den weiteren Verlauf eines Prozesses mit einer sehr großen Zahl von Varianten systematisch (um einerseits möglichst viele relevante Variable aber keinesfalls die gleichen Variablen mehrmals zu verwenden) zu simulieren und die erfolgreichsten Variablen mit einem „hohen Score wert“ zu speichern. Letztlich sich für den Satz an Variablen zu entscheiden, der erfolgreich war.
Wegen der immensen Rechenpower können mehr Variable „durchgespielt“ werden als jemals von Menschen „gespielt“ wurden, von Spiel zu Spiel können neue erfolgreiche Heuristiken zur Auswahl der Variablen gefunden werden.
Damit kann „deep mind“ den menschlichen Gegner überlegen sein, weil der erfahrene Mensch nach eher bekannten und bewährten Heuristiken vorgeht, aber eher begrenzt bei seiner Auswahl ist.
Die Fähigkeit systematisch „Muster“ zu erkennen, sie z.B. über einen Namen oder auf eine andere Art „referenzieren“ und sie in neue Anwendungen „einbauen“ zu können ist wesentlich bei intelligenten Systemen.
Ich vermute demnach, wesentlich für Intelligenz ist die Fähigkeit in verschiedenen örtlichen und zeitlichen Musterabbildungen strukturelle Gleichheiten zu erkennen und auswerten zu können.
Ein biologisches neuronales Netz kann ja praktisch nichts anderes, als in einer Matrix (z.B. Netzhaut) auftretende, ganz bestimmte häufige Signalkombinationen, die örtlich – nebeneinander bzw. zeitlich – kurz hintereinander liegen, auszuwerten.
Bei großer Häufigkeit einer bestimmten Signalkombination werden Synapsen gebildet (E. Kandel), dies entspricht „lernen“. Sind z.B. 2 (oder mehrere) benachbarte Bildpunkte gleich und senden auch gleichzeitig Signale, werden diese „logisch“ verknüpft (W. McCulloch), bedeutet ein bestimmtes relevantes (Mikro-)Muster liegt an. Zunächst dürfte demnach eine Aufspaltung in relevante (und häufig auftretende) (Mikro-)Muster Komponenten erfolgen, danach erfolgt eine hierarchische Zusammenführung in größere Musterkomponenten bzw. Muster. Es entstehen (wegen der synaptischen Verknüpfungen) strukturierte, „Wissenskomponenten“ abbildende Neuronenverbände.
Es werden offensichtlich oft, aus ökonomischen Gründen, nur „Stichproben“ von Mustern verglichen und daraus auf Gleichheit mit Sachverhalten geschlossen. Probleme gibt es, wenn absichtlich Bilder manipuliert werden, z.B. „das unmögliche Dreieck“.
Die von der „Signalhäufigkeit“ abhängige Synapsenbildung hat E. Kandel erforscht, die Gatterverknüpfungen, letztlich Neurone die bei möglichst vielen gleichzeitig eingehenden Eingangssignalen triggern, W. McCulloch. Im Gatter wird z.B. nicht nur „abgefragt“ ob benachbarte (oder aufeinanderfolgende) Bildpunkte z.B. „grün“ sind, sondern auch, ob z.B. ein Bildpunkt „grün“ und der benachbarte „rot“ ist (also auf ein bestimmtes anderes „Muster“ hindeutet.
Meine Vermutung ist, dass an Organgrenzen an Schnittstellen mit etwas anderen Neuronentypen und besonders auch an Hirnhaut nahen (End)Strukturen, so etwas wie (Zwischen)Ergebnisse der Verarbeitung anstehen und letztlich zu so etwas wie einer „Bewusstseinsabbildung“ führen.
Das „Empfindungsphänomen“ dürfte bei elektrisch chemischen Wechselwirkungen mit so etwas wie einer „Empfindungssensorik“ auftreten.
Die Objekte auf dieser „Bewusstseinsabbildung“ können weiter assoziativ verknüpft werden, so dass ganze „Geschichten“ zu einem bestimmten (gesehenen) Objekt (z.B. Hund) entstehen.
Weiter unten möchte ich darauf eingehen, wie besonders auch Hirnhaut nahe Strukturen des Kortex Bewusstsein „abbildend“ und einen Output generierend wirken könnten.
Den Neuronen mit „aufspaltender“ bzw. „zusammenführender“ Verknüpfungsfunktion entsprechen die Prozesse im Prozessor eines Computers. Die Rechenergebnisse stehen sozusagen an so etwas wie „Datensammlern“ an. Im Computer wird diese Datenstruktur (z.B. ein besonderes „Register“)„Akkumulator“ bezeichnet. Sie ist sozusagen der „Mittelpunkt“ der Informationsverarbeitung, ähnlich wie das Bewusstsein im Gehirn.
Meiner Meinung nach findet im Gehirn eine Verarbeitung von Information statt, was mitunter bestritten wir. Die Sensorik (z.B. Zellen der Netzhaut) „informiert“ sozusagen die nachgelagerten Strukturen über die Farbe von Bildpunkten.
Ganz im Sinne der nachstehenden Wiki Definition:
Zitat: “Information (von lateinisch in-formare ‚formen‘, ‚bilden‘, ‚gestalten‘, ‚ausbilden‘, ‚unterrichten‘, ‚darstellen‘, ‚sich etwas vorstellen‘)[…] ist eine Teilmenge an Wissen, die ein Absender einem Empfänger über ein bestimmtes Medium (in der Informationstheorie auch als „Informationskanal“ bezeichnet) in einer bestimmten Form (Signale, Code) vermitteln kann und die beim Empfänger in einem für diesen bedeutsamen Kontext zu einem ‚Wissenszuwachs‘[…] führt.“
Der „Wissenszuwachs“ wird im neuronalen System in hierarchisch (baumartig) angeordneten Neuronenverbänden die „Musterkomponenten“ abbilden realisiert, die insgesamt das Wissen ergeben.
Auch der Vergleich neuronaler Systeme mit Computersystemen wird oft nicht akzeptiert.
In Wirklichkeit werden bestimmte technische Systeme deswegen „Computer“ bezeichnet, weil sie im Prinzip das gleiche tun, wie „menschliche Computer“ ehemals. „Computer“ war laut Wikipedia früher die Berufsbezeichnung für Berechnungen durchführende Menschen.
Zitat Wiki: „Das englische Substantiv „computer“ ist abgeleitet von dem englischen Verb „to compute“. Jenes ist abgeleitet von dem lateinischen Verb „computare“, was zusammenrechnen bedeutet.
Der englische Begriff „computer“ war ursprünglich eine Berufsbezeichnung für Leute, die besonders aufwendige Berechnungen (z. B. für die Astronomie, für die Geodäsie oder für die Ballistik) ausführten.“
Es scheint daher korrekt, technische Systeme die gleichartiges tun, ebenfalls Computer zu bezeichnen und auch Funktionsweisen zu vergleichen.
Dass Bewusstsein selbst, kann nur an relativ kleinen Bereichen im Gehirn entstehen, sonst würde das gesamte gespeicherte Wissen gleichzeitig zur bewussten „Anzeige“ kommen, was nahe liegender Weise absolut unerträglich wäre.
Die begriffliche Kluft zwischen Gehirn und Geist kann durch die „Kategorien genaue“ Sichtweise der Informatik, Prozessor – Prozess – Information aufgelöst werden, weil die Kategorien getrennt sind und die Wechselbeziehungen korrekt beschrieben werden können.
Von Kortex-Arealen könnte tatsächlich der Input für weitere Verarbeitungen abgeleitet werden.
Der Kortex ist sozusagen auch die „elektrische Nachbildung“ des neuronalen Leitungsnetzes, was sich aus dem „Brückenschaltungskonzept“ ergibt. Auf das „Brückenkonzept“ bin ich im vorigen Beitrag eingegangen. Kortex-Teile könnten zwar sozusagen Input – Output Regionen „zugeteilt“ sein, aber dennoch könnten Zwischenergebnisse (von anderen Organen) auf den Kortex koppeln und einer weiteren Verarbeitung zugeführt werden.
Hirnhaut nahe Kortexschichten dürften, wie auch andere Grenz- bzw. Trennschichten zwischen den Organen, zu den Bewusstsein erzeugenden Komponenten gehören.
An besonderen, vermutlich hautartigen (flächigen) Strukturen, entsteht nicht nur das viele „Informationen zusammenfassend Bewusstsein“. Die anliegenden Information können weiter verarbeitet werden, bzw. einen Output generieren. So wie auf der Netzhaut „Bildpunkte“ zu Bildern „emergieren“, so „emergieren“ die vielen Signale auf den Zwischen- bzw. Endschichten zu „Objekten des Bewusstsein“.
Auch der „Assoziationseffekt“ dürfte hauptsächlich an diesen Bewusstseinsstrukturen entstehen.
So wie von der Netzhaut die daran entstehenden Impulse zwecks Verarbeitung zu den verschiedenen Hirnorganen geführt werden, dürften auch die von den Bewusstseinsstrukturen ausgehenden Impulse weiter verarbeitet (z.B. Struktur bildend, aufgespalten, zusammengeführt, …) werden. Allerdings stehen nicht mehr nur „Mikromuster“ zur Verarbeitung an, sondern auch Referenzen auf komplexe „Musterabbildungen“. Eine Musterabbildung, realisiert als Neuronenverband, wäre fähig einen Output zu generieren, sofern entsprechende Inputmuster vorliegen und der „Befehl für Sprachausgabe“ als elektrisches Signal über Synapsen und Neuronen (Referenzabbildung) geeignet einer bestimmten Musterabbildung zugeführt wird und so das (Stimm-)Muster aktiviert wird. Entsprechende „Signalmuster“ werden zu den Stimmbändern geführt, so dass z.B. der Text „an der Haltestelle steht der Bus“ ausgesprochen wird.
Es dürften jedenfalls Signale von den Hirnorganen zu diesen Hirnhaut nahen Endschichten des Kortex gelangen, ich vermute aber, es werden auch Impulse von diesen Schichten sozusagen „reflektiert“ um rückkoppelnd als Input zu dienen. Ich glaube Sie bezeichnen derartiges als „rekurrent“.
Allerdings können Rückkoppelungen auch durchaus problematisch sein, weil sich Schwingungen z.B. zur Epilepsie aufschaukeln könnten. Der Input für die weiterführenden Organe kann natürlich auch an den Grenzschichten der vorhergehenden Strukturen entstehen.
Die starke Vernetzung zwischen örtlich entfernten Strukturen dürfte die assoziative Art des Denkens fördern.
Gewisse besondere Fähigkeiten, z.B. besonders stark ausgeprägte Strukturen die die Feinsteuerung der Finger bei Geigern bewirken, dürften jedoch örtlich konzentriert sein.
Das Brückenschaltungskonzept, worauf ich in meinem vorhergehenden Text eingegangen bin, enthält gleichzeitig ein Konzept, das in der Nachrichtentechnik „Nachbildung“ (von Leitungen) genannt wurde. Auf der „Nachbildungsseite“, hier der Kortex, wird sozusagen das lange Leitungsnetz zur Sensorik – Motorik „stark verkürzt“ nachgebildet. Kann man sich auch vorstellen wie bei einer Dezimalwaage.
Wenn man das assoziative Prinzip wie beim Menschen auch künstlich realisieren will, so wird einem nichts anderes übrig bleiben, als Assoziationsketten wie sie sich beim Menschen gebildet haben, auch künstlich zu implementieren. Diese sind typisch für die verschiedenen Typen von Menschen und für deren persönliche Biographie. Dies wird übrigens auch bei Psychotests abgefragt. Jemand der z.B. von einem Hund gebissen wurde, verhält sich anders als jemand der noch nie gebissen wurde.
Elektroniker: “Weil es hier um „DeepMind und das Geheimnis des Denkens“ geht, möchte ich mich mit einem sehr langen und sehr „elektrischen“ Beitrag melden. Der „Denkprozess“ erfolgt nun einmal zu einem guten Teil „elektrisch“.”
Jaromir: Das Folgende hängt wohl nicht ganz mit unserem Thema zusammen, trotzdem könnte sich da ein “Elektroniker” vielleicht Gedanken machen, deswegen poste ich das:
Schon lange ist bekannt, dass auch das menschliche Gehirn magnetische Partikel enthält, also Komplexe mit Fe3O4. Die gibt es auch bei Tieren, nur hat man zum Beispiel bei Vögeln gedacht, dass Vögel diese Partikel zur Orientierung brauchen würden, um sich bei ihren langen Flügen am Magnetfeld der Erde zu orientieren. Trotzdem ist diese Hypothese, wenn ich mich nicht irre, nicht bewiesen.
Im menschlichen Gehirn hat man diese Partikel auf die Umweltverschmutzung zurückgeführt. Jetzt haben Forscher der LMU München bei einer Untersuchung tief in den bayerischen Wäldern finden können – wo die Luft nicht mit solchen Partikeln kontaminiert ist -, dass diese Partikel in unserem Gehirn natürlich auftreten und zwar häufiger im Hirnstamm als im Kortex, also häufiger in den stammesgeschichtlich gesehen älteren Gehirnteilen, die wir noch mit den Reptilien gemeinsam haben.
Man findet die magnetischen Partikel also in den “unteren” Hirnteilen häufiger, die näher am Rückenmark liegen, als in den äußeren, und das kontinuierlich, das heißt: je weiter nach oben im Hirn, umso weniger magnetische Partikel.
Daraus schließt der Autor der Studie Prof. Stuart Gilder, dass diese Partikel bei der Leitung der elektrischen Signale aus dem Rückenmark zum Hirn helfen.
Ich selbst würde die Funktion der Partikel für die Orientierung im Raum nicht ausschließen: Es ist nun mal so, wie oben geschrieben: Je tiefer im Hirn, umso mehr gemeinsame Hirnteile mit anderen Organismen.
Vielleicht brauchen wir diese magnetische Artikel auch jetzt zur Orientierung im Raum. Manche Menschen mehr, manche weniger, manche nicht mehr.
Mein Sohn zum Beispiel orientiert sich im Gelände viel besser als ich. 🙂
Haben Sie eine Idee dazu?
@Lennart
“… systematische Erlernung …” (“Was Hänschen nicht lernt, lernt Hans nimmermehr.”) – Da machst du den SYSTEMRATIONALEN Denkfehler, denn meine Erfahrung ist, das Menschen später sehr wohl aufnahme- und umsetzungsfähig sein können! 😎
Kleine Korrektur: Das LSTM wurde nicht von Jörg Schönhuber sondern von “Jürgen Schmidhuber” & Sepp Hochreiter entwickelt.
Vielen Dank für den Hinweis! Das war ein peinlicher Fehler! Dabei schätze ich die Arbeit von Jürgen Schmidhuber sehr und habe mir gerade am Tag, als ich den Text postet, ein englischsprachiges Video von ihm bei YouTube angesehen. Was deutsche Namen angeht, geht mit mir wohl hin und wieder immer noch der Tscheche in mir durch. 🙂 Habe den Namen korrigiert.
Zu Elektroniker:
Bei allen Überlegungen und zum Teil interessanten Darstellungen wurde die Rolle und Funktion der Emotionen vergessen. Die Emotionen waren in der Evolution zuerst da und haben die Funktion und Arbeitsweise unseres Gehirns maßgeblich geprägt und prägen es auch noch weiter. Sie machen den einzigartigen Charakter eines jeden Individiums aus.Das Interessante an den Emotionen ist, dass sie unbewusst im Unterbewusstsein wirken und man sie nur an den Ergebnissen erkennt. Der “schlaue” Verstand, der das nicht begreift, negiert dadurch ihre Macht, womit er zumeist immer verliert da sie stärker sind. Wenn sie Menschen erreichen wollen,dann über Emotionen und nicht über Fakten.Politiker,Medien, die Werbeindustrie bzw. Scharlatane beherrschen das.Emotionen geben ihnen das mentale WERTGEFÜHL(Selbstwert/Würde) was künstlicher Intelligenz nie ereichen wird.
Künstliche Intelligenz hat kennt Würde, da es dieses Gefühl nicht künstlich herstellen kann.
Es gibt eine AI-Hype obwohl wir noch mitten in Grundlagenforschung sind. Es kann noch 10 oder auch 50 Jahre dauern bis ein autonom agierendes intelligentes Wesen entsteht. Doch in der Öffentlichkeit dominiert die Erwartung einer baldigen “Erlösung” durch AI.
Im Text liest man dazu (Zitat):
Wenn das so wäre, stellt sich auch die Frage, wie sich die Netze für eine bestimte Aufgabe konfigurieren, ob sie dynamisch oder teilweise statisch sind. Zudem muss es auch eine grundsätzlich Hirnarchitektur geben zu der auch kommunikativer Austausch nach immer wieder ähnlichen “Protokollen” gehört.
Da wir über all diese Dinge zuwenig Wissen, ist man zwangsweise zum Experimentieren verurteilt. Dass nun irgend eine AI-Bude in einem grossen Wurf – quasi über Nacht – ein superintelligentes künstliches Wesen schafft, welches in der Lage ist, sich selber in der Welt zu orientieren, das ist zwar nicht völlig ausgeschlossen, aber extrem unwahrscheinlich, Mich jedenfalls würde es nicht verwundern, wenn in 20 Jahren zwar sehr viele AI-Anwendungen existieren, aber kein einziges wirklich autonomes AI-Wesen, welchem man beispielsweise die Leitung einer Antarktisstation überlassen könnte.
hto
das mit dem Hänschen ist überzogen. Tatsache bleibt, dass ein junger Mensch schneller lernt als ein alter Mensch. so ist das gemeint. Ich stimme dir ausdrücklich zu, dass ältere Menschen dazulernen. Ich lerne mit 71 gerade Spanisch und lerne auch in diesen Blogs dazu.
MH
bleiben Sie realistisch. Die Mehrzahl der Schüler macht anschließend eine Berufsausbildung.
Dazu braucht man ein Grundwissen, dass in einer festgelegten Zeit erlernt werden muss. Das ist die Grundaufgabe der Schule. Ein Maler (kein Kunstmaler) braucht weniger Grundwissen als ein Mechatroniker, und der braucht weniger Grundwissen als ein Ingenieur. Und es gibt ja noch die berufliche Weiterbildung.
Unser bestehendes Schulsystem ist die ökonomischte Möglichkeit sich Wissen anzueignen. Alles andere ist Bildungsromantik.
@Lennart (Zitat): Unser bestehendes Schulsystem ist die ökonomischste Möglichkeit sich Wissen anzueignen. Alles andere ist Bildungsromantik.
In Zukunft wird wohl eher mehr berufliches Engagement erwartet als heute und wer in Zukunft noch arbeitet tut es weniger wegen des Geldverdienens, sondern weil die Arbeit für ihn an und für sich wichtig ist. Der Schulstoff der Zukunft muss von den Kindern besser verstanden und weniger auswendig gelernt werden.
@Elektroniker (Zitat): Die Informationsverarbeitung im Gehirn dürfte, abgesehen von den synaptischen Verknüpfungen und den Strukturen die das Empfindungsphänomen generieren, hauptsächlich „elektrisch“ geschehen. Das ist wohl Konsens, doch es gibt Forscher, die das anders sehen und die mechanische Druckwellen für die Reizleitung verantwortlich machen. Das nächste Heft von Spektrum der Wissenschaft wird sich damit beschäftigen. Hier ein Link zum Artikel Experimentelle Beiträge zum Problem der Reizleitung im Nerven, welches die Druckwellentheorie vertritt.
zu Golzower:
Auf die Emotionen habe ich nicht vergessen, nur gehören sie eher zum „chemischen Teil“ der Informationsverarbeitung im Gehirn. Diese Prozesse kann ich wesentlich weniger nachvollziehen als die elektrischen Information verarbeitenden Prozesse, die sozusagen zu meinem ehemaligen Job und zu meiner Ausbildung gehören.
Chemische Prozesse, die vermutlich hauptsächlich (aber nicht nur), in bestimmten Organen (z.B. Amygdala) und in Bewusstseins nahen Strukturen (z.B. Grenzschichten) das „Empfindungsphänomen“ generieren, wie z.B. Lust und Schmerz, dürften tatsächlich auch starke Bedeutung für die „Motivationen“ vermutlich aller Lebewesen haben.
Wie es dazu kommt, dafür habe ich eine vage Vermutung, ein „Gefühl“ als Techniker sozusagen. Zart besaitete Menschen sollten den letzten Absatz eher überlesen um sich nicht aufzuregen.
Ich vermute, in neuronalen Systemen koppeln elektrische Impulse in chemische Strukturen und bringen hauptsächlich Wasserstoffbrücken resonant zum Schwingen. Je resonanter, desto stärker die Gefühle. Erfolgt die Ansteuerung „in Phase“ zur „Eigenresonanz der Wasserstoffbrücken“ entsteht „Lust“ und „Gegenphasigkeit“ bewirkt ein Schmerzgefühl. Möglicherweise werden dabei sogar Strukturen zerstört. Es wird normalerweise versucht Lust anzustreben und Schmerz zu vermeiden. Eventuell könnten sogar in der Wirkung besonders erfolgreiche baumartige Strukturen aus Neuronenverbänden (die „Wissen“ im Sinne von E. Kandel abbilden) sozusagen vom „Bauchgefühl“ heraus verstärkt in die Denkprozesse eingebunden werden, was sogar bessere Intelligenzfunktionen bewirken könnte.
@ Martin Holzherr 4. August 2018 11:57
Zitat: “Die Informationsverarbeitung im Gehirn dürfte, abgesehen von den synaptischen Verknüpfungen und den Strukturen die das Empfindungsphänomen generieren, hauptsächlich „elektrisch“ geschehen. Das ist wohl Konsens, doch es gibt Forscher, die das anders sehen und die mechanische Druckwellen für die Reizleitung verantwortlich machen. …“
Ich vertrete die Sichtweise von McCulloch der mit seinem „Gatterkonzept“, die Prädikatenlogik die Grundlage für die Informationsverarbeitung in der Elektronik/Informatik ist, auf neuronale Systeme überträgt und damit die Informationsverarbeitung im neuronalen System nachvollziehbar macht.
Für die Prädikatenlogik ist es letztlich gleichgültig ob es mechanische Druckwellen sind, oder elektrische Potentiale die bewirken dass ein Neuron triggert.
Es ist praktisch gleichgültig ob mechanische Druckwellen sozusagen die „Begleitmusik“ von elektrischen Strömen (die relativ einfach gemessen werden können) sind, oder umgekehrt.
In der Schaltalgebra wurden die beiden Zustände z.B. 0 Volt – 5 Volt ursprünglich mit „Kontakt offen“ – „Kontakt geschlossen“ abgebildet.
MH
Die Kulturtechniken Lesen , Schreiben und Rechnen kann man weniger verstehen, man muss sie auswendig beherrschen. Das 1 x 1 z. B. Ohne Taschenrechner sind heute die meisten hilflos.
Normgerechtes Schreiben (Rechtschreibung) ist mühsam andressiert. Da hilft alle Intelligenz nix.
Nur beim Lesen ist Verständnis und Intelligenz gefordert.
Das ist doch das Elend der Grundschulen, dass sie nicht verstehen, dass man in der Grundschule auf diese elementaren Techniken nicht verzichten kann.
Mit Freiarbeit und Montessori lernt man kein 1 x 1 !
Eklektoniker
“Ich vermute, in neuronalen Systemen koppeln elektrische Systeme in chemische Strukturen…”
Sehe ich etwas anders. Elektrische Systeme kommen nicht aus dem NICHTS sondern sind das Ergebnis der Intensität von Reizen. Starke Reize erzeugen starke Impulse die wiederum in den Nervenzellen ein Aktionspotential aufbauen. Ist der Reiz stark genug ,die Nervenzelle also sehr stark erregt(das”elektrische System” stark aktiviert), wird dieser Impuls über die Synapsen an andere Nervenzellen bzw. Neurotransmitter weitergegeben.(Das Aktionspotential entleert sich) Die chemischen Strukturen in den Synapsen codieren nun diesen Reiz nach Wichtigkeit über die Neurotransmitter(Starker Reiz/viel Dopamin/starke Erregung etc.) Auf dieser Basis von “Ähnlichkeiten” könnten nun Nervenzellen bzw. Nervenzellverbände miteinander kommunizieren.Aus diesem Grund kann ich auch M. Holzherrs Ansicht nicht teilen.Und was bzwecken “mechanische Druckwellen” ? Der Reiz, die Erregung erzeugt für mich das “elektrische System”.Die chemischen Strukturen dienen der Bewertung des Reizes.
Die Intensität des Reizes äußert sich nicht in der Stärke des Impulses sondern in der Impulsrate.
Golzower
vorallem, wie werden Begriffe bei diesem System von Reiz und Reaktion gebildet. Wie werden Begriffe abgespeichert. Bilde ich einen Begriff, wenn ich mir mit dem Hammer auf den Finger haue? Ich meine es gibt einen grundsätzlichen Unterschied zwischen dem Erleben und der Versprachlichung dieses Erlebens.
@Lennart (Zitat): Kulturtechniken Lesen , Schreiben und Rechnen kann man weniger verstehen, man muss sie auswendig beherrschen Da haben sie wohl recht. Wobei: Das sind Grundtechniken. Klar müssen die in der Schule beigebracht und gelehrt und von den Schülern gelernt werden .Es ist sicher so, dass derjenige, welcher nicht einmal einen Brief oder eine Zeitung lesen kann oder mit den 4 Grundrechenarten überfordert ist, zu (fast) nichts zu gebrauchen ist. Doch: Das ist doch der erst der Anfang und genügt heute kaum noch für eine halbwegs anspruchsvolle Arbeit. Mathematik ist weit mehr als die Anwendung der 4 Grundrechenarten und Schreiben und Lesen umfasst eben auch das Schreiben von Aufsätzen, Zusammenfassungen, Stellungnahmen, Semesterarbeiten.
Ich habe jetzt etwas im Netz entdeckt, das ich so nett finde, dass ich es auch hier posten muss:
Der KI-Weg zum eigenen Exoplaneten:
Mit Hilfe eines KI-Programms von der NASA und Google kann man seinen eigenen Exoplanten entdecken. Wäre’s nicht schön, der Freundin oder dem Freund einen Planeten zu schenken? Vielleicht kann man den Planeten sogar nach ihr/ihm benennen.
Und bilden wird man sich dabei auch. 🙂
@Konecny: off topic
Intelligibilitätslücke (IL): Eine bloße messtechnische Beobachtung (Z.B. EEG, fMRT, PET, Elektroden) der internen Abläufe im Gehirn verhilft nicht zu einem Verständnis der beobachteten Zustände.
(Würden Messergebnisse mit Erlebnissen aus Introspektion ergänzt, so ließe sich die IL zumindest teilweise schließen/verkleinern. )
Golzower
Ich sehe keinen Widerspruch in unseren Sichtweisen. Es ist eine Art von „Huhn – Ei“ Problem.
Sie gehen vom Input aus. Es verhält sich an den Synapsen offensichtlich so, wie E. Kandel aufgezeigt hat.
Die elektrischen Ausgangssignale gelangen von den Axonen zu weiteren Strukturen (z.B. Synapsen) und aktivieren dort chemische Prozesse. Vermutlich auch solche Prozesse, wie ich sie angesprochen habe (Empfindungsphänomen).
Es ist auch klar dass bei der „Wetware“, im Gegensatz zur „Hardware“, chemische Prozesse eine besondere Rolle spielen und auf die Informationsverarbeitung Einfluss nehmen.
Beim Output sind aber die elektrischen „Impulsmuster“ die z.B. die Stimmbänder steuern von entscheidender Bedeutung. So wie z.B. Impulsmuster die den Output auf einem Flachbildfernseher steuern. Die genaue Gestaltung dieser Impulsmuster ist hauptsächlich von den verknüpften „Gatterfunktionen“ abhängig. Sie sind ähnlich relevant, wie die Prozessorfunktionen im Prozessor eines Fernseher. Abgesehen vom Einfluss der Empfindungen auf die Informationsverarbeitung, stellt die Chemie hauptsächlich so etwas wie die „Infrastruktur des Systems“ zur Verfügung.
@Lennart
schnell = ökonomisch?
junger Mensch = selektives Maschinendenken für den Kreislauf des Konsum- und Profitautismus!?
“Alles andere ist Bildungsromantik” – Aha, deshalb ist Menschenwürde auch nur …!?
Lennart:
” Wie werden Begriffe bei diesem System von Reiz und Reaktion gebildet…”
Meine Version:
Das Wort “Begriff” beinhaltet etwas ergreifen/begreifen/erkennen / verstehen. Es ist also das vorläufige Ende eines Erkenntnis- bzw. Lernprozesses. Reize wurden bewertet auf der Basis des vorhandenen Wissens.So bekommt der Begriff Hund, nach dem ich heute einen Hund gestreichelt habe, wieder einer Neubewertung zu dem Hund von gestern,der mich beinahe gebissen hätte.”Begriffe” sind also im steten Wechsel meiner Erkenntnisse zu sehen da ich die Welt täglich neu verstehe/begreife.Und ich kann das alles nur über Reize da das Gehirn durch die Evolution so gestrickt ist.Starke Reize sind zum Beispiel der Sexualtrieb bzw. der Fresstrieb.Die “Reaktionen” auf diese Reize kennen sie selbst – Triebbefriedigung.
Zitat: In einer Studie nach der anderen untersucht DeepMind die Eigenschaften des Gehirns bei künstlichen neuronalen Netzen.
Ja, die Annahme, künstliche neuronale Netze seien eine Nachbildung von natürlichen neuronalen Netzen und letztlich die natürliche Grundlage für kognitive Prozesse, das macht Deep Learning und künstliche neuronale Netze bei Forschern und in der Öffentlichkeit – unter anderem – so attraktiv. Doch hier muss man vorsichtig sein: Wir wissen schlicht zuwenig über natürliche neuronale Netze um belastbar behaupten zu können, künstliche neuronale Netze seien ihr technisches Äquivalent.
Dennoch möchte ich hier genau auf eine solche Studie verweisen, die in die gleiche Kerbe schlägt, die Studie Human peripheral blur is optimal for object recognition. Zusammenfassung: Das Säugetierauge liefert gegen den Rand hin immer verschwommenere visuelle Information, besonders ausgeprägt beim Menschen, der nur im Zentrum des Gesichtsfelds Farben wahrnimmt. Die Forscher haben nun mit dem “humanen” Gesichtsfeld nachempfundenen Bildern neuronale Netze trainiert und sind zu folgendem Ergebnis gekommen: Unser Hauptergebnis ist, dass Netzwerke, die auf Bildern mit Foveated Sampling trainiert wurden, eine bessere Objektklassifizierung aufweisen als Netzwerke, die auf Bildern mit voller Auflösung trainiert wurden. Wichtig ist, dass die Unschärfe nach der menschlichen Unschärfe-Funktion die beste Leistung im Vergleich zu Bildern mit geringerer oder steilerer Unschärfe liefert. Zusammengenommen deuten unsere Ergebnisse darauf hin, dass sich die periphere Unschärfe in unseren Augen für eine optimale Objekterkennung entwickelt haben könnte, und nicht nur, um Verdrahtungszwänge zu erfüllen.
6,0822550204416e16 mögliche Routen wäre wohl korrekter, oder? Ansonsten ein sehr lesenswerter Artikel.
Gruß
Alex
Vielen Dank für die schönen Worte – die freuen! Danke auch für den Hinweis auf den Fehler – ich habe mich bei der Anzahl der Städte vertippt, hatte 10 Städte (statt 20) schreiben wollen, und habe es jetzt korrigiert.
Herzliche Grüße
Jaromir
Denken im menschlichen Sinne können heutige AI-Systeme nicht, auch wenn sie auf mehrschichtigen neuronalen Netzwerken beruhen und die neuesten Deep Learning Techniken einsetzen und das grösste Defizit haben diese Systeme gerade dort wo Denken eigentlich erst beginnt: In der Unterscheidung zwischen wichtig und unwichtig, im Bewusstsein um was es überhaupt geht und wie der Gegenstand des Denkens mit allem anderen zusammenhängt.
Für mich ist es gerade das mathematische Denken, welches dies am besten zeigt – wobei es nicht einzelne Beweise sind, sondern die mathematischen Fragestellungen sind es, die zeigen, was menschliches Denken ausmacht. Zum Fields-Medaillen-Preisträger Peter Scholze liest man etwa: Im Gegensatz zu vielen Mathematikern beginnt er [Peter Scholze] oft nicht mit einem bestimmten Problem, das er lösen will, sondern mit einem schwer fassbaren Konzept, das er um seiner selbst willen verstehen will. Aber dann, so Ana Caraiani, eine Zahlentheoretikerin an der Princeton University, die mit Scholze zusammengearbeitet hat, stellen sich die von ihm geschaffenen Strukturen als “Anwendungen in eine Million anderer Richtungen heraus, die damals nicht vorhergesagt wurden, nur weil sie die richtigen Objekte zum Nachdenken waren”.
Man muss sich bewusst sein, dass alle mathematischen Objekte Erfindungen des Menschen sind und dass diese Erfindungen ziemlich beliebig sind, denn in der Mathematik zählt nur die logische Konsistenz der Erfindung, nicht aber die tiefere Bedeutung der Erfindung. Und diese tiefere Bedeutung, die sieht heute überhaupt nur der Mensch. Nur der Mensch weiss und erkennt, warum ein bestimmtes Gebiet der Mathematik beispielsweise für praktische Anwendungen, die Physik oder die Mathematik als Gesamtes, wichtig ist.
Martin Holzherr: “Denken im menschlichen Sinne können heutige AI-Systeme nicht, auch wenn sie auf mehrschichtigen neuronalen Netzwerken beruhen und die neuesten Deep Learning Techniken einsetzen und das grösste Defizit haben diese Systeme gerade dort wo Denken eigentlich erst beginnt: In der Unterscheidung zwischen wichtig und unwichtig, im Bewusstsein um was es überhaupt geht und wie der Gegenstand des Denkens mit allem anderen zusammenhängt.”
Jaromir: Direkt das menschliche Denken mit dem maschinellen zu vergleichen, kann man erst dann, wenn es allgemeine künstliche Intelligenz gibt – wenn es sie überhaupt geben kann.
Man kann jedoch schon jetzt schauen, auf welchen Hirnfunktionen das Denken beruht und was es eigentlich ist: was sind die einzelnen Aspekte davon?
Einen dieser Aspekte – das abstrakte Schlussfolgern – hat sich DeepMind vorgenommen und gezeigt, dass künstliche neuronale Netze zu einem gewissen Maß und in einem stark eingeschränkten System abstrakt schlussfolgern können.
Die Naturwissenschaft ist nun mal die Wissenschaft der Reduktion: Man pickt sich kleine Teile eines untersuchten Systems heraus, erforscht sie, versteht sie immer mehr, bis man die Theorien und Hypothesen über diese kleinen Teile zu einer “großen” Theorie zusammenlegen kann, die das ganze System beschreibt.
Selbstverständlich können künstliche neuronale Netze, die darauf programmiert und trainiert werden, einzelne Aufgaben zu erfüllen, nicht das bewerkstelligen, was unser ungeheuer komplexes Gehirn bewerkstelligen kann – das Denken!
@Jaromir Konecny (Zitat): Man kann jedoch schon jetzt schauen, auf welchen Hirnfunktionen das Denken beruht und was es eigentlich ist: was sind die einzelnen Aspekte davon? .. Einen dieser Aspekte – das abstrakte Schlussfolgern – hat sich DeepMind vorgenommen
Ja, einige DeepMind-Projekte haben diesen Hintergrund: Sie zeigen, dass entsprechend konfigurierte künstliche neuronale Netze gewisse höhere kognitive Funktionen bewältigen können wie etwa abstraktes Schlussfolgern, die Konstruktion eines inneren Bildes der Umgebung oder die im Verborgenen ablaufende automatische Bestimmung der Koordinatenwerte des eigenen Aufenthaltsortes nur aufgrund des Weges, den man beim Explorieren der Gegend zurückgelegt hat.
Damit demonstriert DeepMind das grundsätzliche Potenzial von neuronalen Netzen.
Ein anderer sich weniger biologisch gebender Ansatz scheint mir auch möglich: Anstatt zu fragen, was entsprechend konfigurierte neuronale Netze alles können, könnte man fragen, was es für Subsysteme und was für eine Funktionalität es braucht um eine bestimmte Aufgabe autonom bewältigen zu können. Beispielsweise kann man fragen: Was für Sensoren muss ein autonomes Auto haben, was für mentale “Karten” muss es für sein Umgebungsbild aufbauen und welche Objekte muss es richtig kategorisieren. Bis vor kurzem wurden derartige Fragen kaum gestellt, weil es bis vor kurzem nicht einmal den Versuch gab, voll autonome System zu bauen. Sogar das Marsauto Curiosity wird heute trotz einer Übermittlungsverzögerung von 20 Minuten zum grossen Teil von der Erde aus gesteuert, weil es zum Zeitpunkt der Entwicklung von Curiosity kaum Erfahrung mit autonomen Systemen gab.
Die vom Menschen geschaffene Technologie hatte bis vor kurzem fast reinen Werkzeugcharakter, wobei das Werkzeug letztlich immer vom Menschen aktiviert und “animiert” wurde.
Ganz etwas anderes gilt für Lebewesen. Sogar die allereinfachsten Lebwesen müssen weitgehend autonom operieren und ihr Autonomiegrad beeinflusst ihre Überlebenswahrscheinlichkeit. Wenn Ingenieure umdenken und nicht mehr Werkzeuge bauen, sondern autonome Geschöpfe, die in einem gewissen Sinne “leben”, dann öffnet sich ein ganz neues Entwurfsgebiet unabhängig davon ob man nun für die Realisation neuronale Netze benutzt oder andere Algorithmen, Sensoren und kognitive Subsysteme.
Es gibt also den Ansatz der vom menschlichen Denken ausgeht, was von Ihnen so formuliert wurd: Man kann jedoch schon jetzt schauen, auf welchen Hirnfunktionen das Denken beruht und was es eigentlich ist: was sind die einzelnen Aspekte davon?
oder man kann auch fragen: Was für Subsysteme und Funktionen brauche ich um ein auf einem bestimmten Gebiet autonom agierendes “Wesen” zu schaffen.
Der erste, von ihnen formulierte Ansatz verfolgt eine Nachbildung des menschlichen Denkens, der zweite Ansatz ist ein ingenieursmässiger Ansatz, der nun aber kein Werkzeug mehr bauen will, sondern ein Wesen, welches bestimmte recht allgemeine Ziele verfolgt.
Martin Holzherr: “Ja, einige DeepMind-Projekte haben diesen Hintergrund: Sie zeigen, dass entsprechend konfigurierte künstliche neuronale Netze gewisse höhere kognitive Funktionen bewältigen können wie etwa abstraktes Schlussfolgern, die Konstruktion eines inneren Bildes der Umgebung oder die im Verborgenen ablaufende automatische Bestimmung der Koordinatenwerte des eigenen Aufenthaltsortes nur aufgrund des Weges, den man beim Explorieren der Gegend zurückgelegt hat. Damit demonstriert DeepMind das grundsätzliche Potenzial von neuronalen Netzen.
Ein anderer sich weniger biologisch gebender Ansatz scheint mir auch möglich: Anstatt zu fragen, was entsprechend konfigurierte neuronale Netze alles können, könnte man fragen, was es für Subsysteme und was für eine Funktionalität es braucht um eine bestimmte Aufgabe autonom bewältigen zu können. Beispielsweise kann man fragen: Was für Sensoren muss ein autonomes Auto haben, was für mentale “Karten” muss es für sein Umgebungsbild aufbauen und welche Objekte muss es richtig kategorisieren. Bis vor kurzem wurden derartige Fragen kaum gestellt …”
Jaromir: Das sehe ich wie Sie, wie ich aber jetzt jeden Tag die neuen Nachrichten, Berichte und Artikel zu KI und maschinellem Lernen verfolge, explodiert momentan die Lust, autonome Systeme zu bauen, ob Fahrzeuge oder Roboter aller möglicher Art. Auch versucht nahezu jede Firma auszuknobeln, wie sie tief lernende neuronale Netze anwenden könnte. Das bringt eine rasante Entwicklung der Technologien mit sich, die mit Robotik und KI zusammenhängen, das heißt auch der Sensorik, der Elektronik aber auch der Mechanik der Roboter.
Zum Beispiel hat mich dieser autonome Roboter vor Kurzem einfach nur staunen lassen. Das wäre vor kurzer Zeit noch nicht möglich. Ein grandioses Video.
Ich denke, beide Ansätze sind gerechtfertigt und wichtig: Der eine ist nun mal der theoretische, der andere der praktische. Und immer wieder begegnen sie sich. 🙂
Zwei Fragen hierzu :
Womöglich ist der Mensch doch ein “Rechenmeister”, seine Berechnungen finden aber meist im Unbewussten seines Seins statt, sollen die eigentliche Arbeit, die sozusagen oberschichtig auf dem Rechnen liegt, nicht belasten, sein Bewusstsein nicht belasten?
Dieser dankenswerterweise bereit gestellte WebLog-Eintrag beispielsweise macht auf einige den Eindruck auf “solider Rechenleistung” basiert zu haben, erkennbar u.a. an der feinen Begriffswahl und an den teils komplexen Satzbildungen.
Der Mensch ist sozusagen ein neuronales Netzwerk, dessen Funktionsweise, inklusive Trial & Error, nun auf Maschinenebene teilweise nachgebildet wird?
Martin Holzherr 6. August 2018 10:14
Ihr Beitrag ist sehr interessant.
Kann man doch erkennen dass es bei der Objekterkennung beim Menschen hauptsächlich um visuelle Objekte und deren Beziehungen geht. Sie werden auf Nützlichkeit für den Menschen (bzw. für sich selbst) getestet. Es gibt eine Motivation (Nahrung, Sex…) dafür. Offenbar soll bei jedem einzelnen Objektscanvorgang (mit dem Auge) jeweils nur ein einzelnes Objekt (mit der engeren Nachbarschaft) in den „Focus“ der „Objekterkennung“ geraten und nicht zu viele Objekte gleichzeitig.
Es dürfte bei der Objekterkennung immer ganz grundsätzlich um die hierarchische Auswertung von Mikromustern und deren Beziehung zur örtlichen und zeitlichen „Nachbarschaft“ gehen. (Vom einzelnen Bildpunkt zum ganzen herumlaufenden Schaf in der Herde sozusagen).
Technische Netze werten eher „verbal beschriebene“ (codierte) Beziehungen aus. Sie haben keine „natürlichen Motivationen“. Man kann auch noch versuchen sie so zu programmieren, dass sie ihre Erkenntnisse in womöglich bekannte mathematische Modelle einordnen.
Die jeweils anliegende Information wird, sowohl in natürlichen als auch in technischen Systemen, in elektrische Impulse umgesetzt. Es ergibt sich eine „informelle“ Musterabbildung. Aus so etwas wie statistisch häufig auftretenden „Mikromustern“, dürften hierarchische, baumartige Strukturen generiert werden, die einen Sachverhalt (Wissen) abbilden und ausgewertet werden können.
Die Auswertung erfolgt letztlich mittels elektrischer Schaltprozesse, entweder in Neuronen oder in Transistorfunktionen.
Nach der Auswertung sind es wieder elektrische Signale die den Output generieren.
Dies dürfte natürlichen und künstlichen Systemen gemeinsam sein.
In natürlichen Systemen wird eine „große Häufigkeit“ sozusagen redundant, chemisch mittels vieler stark verknüpfter Synapsen (E. Kandel) und Neuronen (Gatterfunktion McCulloch), demnach auch mit sehr vielen „Strukturelementen“ abgebildet.
In technischen Systemen erfolgt die Informationsabbildung mit eher weit weniger Gatterfunktionen, die aber statistisch (zahlenmäßig) bewertet werden. Bedeutet man kommt mit einer wesentlich kleineren Zahl an verknüpfenden Strukturelementen (wie Gatter, Synapsen, Neuronen) aus, als die Natur.
Bei natürlichen Systemen entscheidet letztlich die “wirksame” Mehrheit der jeweils aktivierten Strukturelemente, bei technischen Systemen die errechnete statistische Relevanz. (Wirksam deswegen, weil z.B. Traumata bewirken können, dass komplexe Strukturen sozusagen “umgangen” werden können und auch völlig anders als “gelernt”, z.B. “panisch” gehandelt werden kann).
Bei Denk- und auch Rechenprozessen müssen (informelle) „Objekte“ in einen örtlichen und zeitlichen Zusammenhang gebracht werden um Verknüpfungen (Berechnungen) durchführen zu können. (Z.B. Bildpunkte „emergieren“ zu Bildern und Videos…). Dafür kommen hauptsächlich lineare und flächige „Datenstrukturen“ (Felder, Arrays) infrage. In der Technik „Datensammler“ (Akkumulatoren), in neuronalen Systemen hautartige Strukturen z.B. Netzhaut, Hirnhaut, Zwischenschichten zwischen Hirnorganen… Es sind letztlich „Bewusstsein“ abbildende Strukturen.
Die grundsätzliche funktionale Systematik zwischen Natur und Technik scheint ähnlich und vergleichbar.
Für Mensch (und Tier) natürliche Motivationen (wie z.B. Schmerz – Lustempfindungen…) wird man technischen Systemen kaum implementieren wollen. Man könnte vermutlich nicht die gesamte Entwicklung intelligenter Systeme nur relativ harmlos simulieren, sondern vieles an Kampf, Krieg, Schmerz und Elend … müsste nochmals, sozusagen bis zum Endkampf „Mensch – Maschine“ „durchlebt“ werden. Dies wäre, nicht nur aus ethischen Gründen, absoluter Blödsinn.
Man sollte nicht den Menschen „nachäffende“ künstliche Intelligenz schaffen, sondern die Intelligenz und die Fähigkeiten des Menschen partiell erweiternde Formen von Intelligenz entwickeln, um z.B. die Folgen von Krankheiten zu mildern, oder das Leben der Menschen weiter zu verbessern.
Konenecny:
“…dort wo das Denken eigentlich erst beginnt. Im Unterschied zwischen wichtig und unwichtig….”
Wenn ich wichtiges von unwichtigem unterscheide, ist das für mich eine Art Bewertung . Wenn man solches unter DENKEN versteht, dann denken Tiere auch. So bewerten (denken) Raubtiere,wenn sie ihre Beute nach wichtigen und unwichtigen Kriterien auswählen…? Wenn ich ,wie oben in der Überschrift formuliert,über die Geheimnisse des DENKENS nachsinne, sollte ich meiner Ansicht nach versuchen zu definieren, was DENKEN überhaupt ist.Beim Begriff “Geheimnis” werden sicherlich nur die Esoteriker große Augen bekommen,können sie doch hier jede mystische und abartige Erfahrung hineininterpretieren. Für mich ist DENKEN weder ein Geheimnis noch eine spirituelle Erfahrung, sondern die phantastische Möglichkeit des Menschen sich selbst zu spiegeln.Neuronale Netze sind hier lediglich das Ergebnis und längst nicht die Ursache !
Golzower: “Konenecny:
“…dort wo das Denken eigentlich erst beginnt. Im Unterschied zwischen wichtig und unwichtig….”
Jaromir: Ich habe jetzt meinen Namen nicht korrigiert, als ich den Anfang Ihres Kommentars oben hineinkopiert habe, da es ja ein Zitat von Ihnen ist. 🙂 Ich vermute aber, Sie wollten auf einen Kommentar von Martin Holzherr antworten, oder? Denn das Zitat unter meinem Namen stammt von Martin Holzherr. Nicht von mir.
Bonuskommentar hierzu :
Abär nur, wenn sich beizeiten die Möglichkeit der Paarung ergibt.
>:->
Alternativ bestünde die Möglichkeit Gesprächs-Personal zuvörderst als das zu bearbeiten, was es ist, als vorkommend, auch : weiblicher Art.
Die Suche nach Erkenntnis (das Fachwort, Scientia, nicht mit Wissen und Wissenschaft zu verwechseln, wie insbesondere bundesdeutsch geübt, vgl. bspw. hiermit : -> https://en.wikipedia.org/wiki/Scientific_method ) bleint sozusagen eine Lebensaufgabe.
Lustigerweise steht hierzu kein d-sprachiger Inhalt bereit, in der bekannten Online-Enzyklopädie.
Erkenntnis und die Suche danach ist intrinsisch, die kann nicht klar gebündelt werden.
Insofern haben auch der Liberalismus, das Sapere Aude und die liberale Demokrate gewonnen.
Der Veranstaltungscharakter dieser Bemühung darf herausgestellt bleiben.
Dr. Webbaer: “Bonuskommentar hierzu :
Sowie mein Gehirn schätzen muss, ob mich ein herangeflogener Stein treffen könnte, versucht es in einem Gespräch ständig, die Sätze meiner Gesprächspartnerin zu Ende zu denken.
Abär nur, wenn sich beizeiten die Möglichkeit der Paarung ergibt. >:->”
Jaromir: Danke! Ich freue mich oft über Ihre Worte und lache und lächle, wenn ich sie lese, und das ist das Schönste, das ich von einem Leser meines Blogs bekommen kann.
*
blei[b]t sozusagen eine Lebensaufgabe
@Golzower (Zitat): sollte ich meiner Ansicht nach versuchen zu definieren, was DENKEN überhaupt ist.
Hier hilft die Wikipedia weiter: Unter Denken werden alle Vorgänge zusammengefasst, die aus einer inneren Beschäftigung mit Vorstellungen, Erinnerungen und Begriffen eine Erkenntnis zu formen versuchen
Einfache Denkprozesse gibt es sicher auch beim Tier. Weil es beim Denken auch um Resultate geht (Zitat Wikipedia: Erkenntisse zu formen versuchen), spielt die Unterscheidung zwischen Wichtigem und Unwichtigen eine Rolle. Ein eingesperrtes Tier, das entwischen will, sollte beispielsweise vorübergehend seinen Hunger vergessen und darüber nachdenken, wie es seinem Gefängnis entweichen kann. Der Zweck von Denken ist zuerst einmal Problemlösen. Erst der Mensch denkt dann soviel, dass das Denken selbst zum Problem werden kann.
Denken meint, überraschenderweise, für einige, die Verlautbarung.
Ohne Sprache ist keine Sache und kein Sachbezug.
Das Denken ist per se ein Problem für das Denken, die Rekursion ist so angelegt,
Dr. W verabschiedet sich hier freundlcherweise hiermit :
-> https://www.youtube.com/watch?v=y1EpaboCERg (Es ist eine Kuh gemeint, das Go-Go-Girl ist großartig)
MFG
Dr. W (der nun einstweilen gehen muss)
Dr. Webbaer: “Denken meint, überraschenderweise, für einige, die Verlautbarung. Ohne Sprache ist keine Sache und kein Sachbezug.”
Jaromir: Kurt Tucholsky sagte: “Es gibt Augenmenschen, und es gibt Ohrenmenschen.” Ich habe mich immer zu Ohrenmenschen gezählt, zu Erlebnissen fallen mir immer Sätze und Geschichten ein, die ich gleich aufschreiben muss. Wohl eine Prägung aus der Kindheit: Als Kind habe ich viel mehr gelesen als ferngesehen, und auch das Kino war im Sozialismus meiner Kindheit kein “Massenmedium” :-), Computer und Smartphones habe es nicht. Geschichten konnte ich stundenlang zuhören, in tschechischen Kneipen zum Beispiel :-), Geschichten haben mir immer mehr gegeben als Bilder.
Komischerweise haben mich Soziale Netzwerke, vor allem Facebook, auch etwas zu einem Augenmenschen entwickelt: Plötzlich suchte ich nach Bildern, mit denen ich dort meine Kurzgeschichten illustrieren konnte, fotografierte viel, um meine Geschichten zu bebildern, ich lief durch Flohmärkte, kaufte historische Fotos und setzte mich damit auseinander. Trotzdem ist mein Denken streng an Sprache gekoppelt: Ich denke und formuliere gleich dabei und schreibe das Gedachte oft auf. Meine am meisten konzentrierte Denkarbeit findet am Computer statt, wenn ich Geschichten, Bücher oder auch wissenschaftliche Texte schreibe.
Vor kurzem habe ich aber eine Studie gelesen, nach der man erst in Bildern und bildhaften Assoziationen “denkt”, die dann manchmal in Sprache transformiert werden. In diesem Sinne gibt es das Denken auch ohne Sprache. Oder vielleicht nur bei mir und anderen Autoren nicht, die viel mit Sprache arbeiten. 🙂
Übrigens gibt es meine Kurzgeschichten hier. 🙂 Plötzlich sehe ich, dass zu jeder Geschichte auch ein Bild gehört.
@Golzower
“phantastische Möglichkeit”
Nur eine Funktion, aus der sich, mittels unserer Vernunftbegabung, unkorrumpierbares / “gottgefälliges” Bewusstsein / Verantwortungsbewusstsein entwickeln kann / sollte!? 😎
Das Problem / “Geheimnis” mit dem Denken: Es ist, seit der “Vertreibung aus dem Paradies”, alles auf’s / im “Individualbewusstsein” zum nun “freiheitlichen” Wettbewerb …😵
@ Elektroniker :
Wie fast immer von Ihnen vely smart angemerkt :
Allerdings, blöderweise sozusagen, ist der hier gemeinte Primat nur imstande Intelligenz, also Verständigkeit, seinen Anliegen und seiner Umgebung folgend, von Nichts kommt sozusagen NIchts, festzustellen, wenn seinem Motivationsimperativ Genüge getan wird.
Sie dürfen ‘ den Menschen „nachäffende“ künstliche Intelligenz ‘ als das verstehen, was dem hier gemeinten Primaten möglich erscheint.
Was Regelmengen und Architektur dieser “Intelligenz” meint.
Bereits die zugrunde liegende Verständigkeit (vs. “Intelligenz” – die sog. Intelligenz ist ein Modewort, das vor vielleicht 100 Jahren entwickelt worden ist, die Messbarkeit meinend, nicht die Verständigkeit, die Klug- und Weisheit, die Abgefeimtheit (“Bauernschläue”) – und was es sonst noch so gibt, die “Intelligenz” ist an einem kulturellen Maßstab gemessen, der insbesondere auch die Mustererkennung meint) des hier Gemeinten schränkt ein.
Also auch bei der Entwicklung, wenn Sie bspw. auf zeitgenössische Entwicklungen im Bereich der sog. AI schauen, wird womöglich klar, dass der Mensch i.p. Machine-Learning sich selbst zu reproduzieren sucht, sich zu produzieren sucht, zumindest, womöglich gilt es i.p. AI auch darum maschinelle Funktionsweise gegen einander antreten zu lassen, auch Belohnungssysteme sind bereits fürsorglich implementiert.
Maschinen können nur sozusagen Stellvertreter-Logik darstellen.
Die Ethik darf hier erst einmal außen vor bleiben, betrachten Sie diesen Planeten gerne als “CPU”, die mithilfe anderer Systeme, die Sonne bleibt bspw. gemeint, der Panspermie will Dr. W, auch weil unfalsifizierbar nicht absprechen, vgl. auch mit dem Film ‘2001: Odyssee im Weltraum’ von Stanley Kubrick (witzigerweise sind kluge Leutz oft Juden, weiß jemand warum? – BTW : Dr. W ist keiner davon), sozusagen als Recheneinheit zu fungieren hatte,
..Leid und so, sind Eigenschaften der weltlichen Schöpfung, die erkennende Subjekte, auch nicht erkennende, erst stark machen, wie bewehrt.
tl;dr :
Eine wie auch immer geschaffene Maschine muss auch immer irgendwie Mensch sein.
MFG
Dr. Webbaer
@ Jaromir Konecny 9. August 2018 06:46
Es ist sicherlich sehr interessant wie weit magnetische Partikel im Gehirn Einfluss auf neuronale, vielleicht sogar auch auf chemische Prozesse nehmen. Es scheint sehr naheliegend, einen Zusammenhang mit dem Erdmagnetismus und damit mit der Orientierung („Magnetkompass“) zu sehen.
Da die Partikel, wie Sie schreiben, hauptsächlich in stammesgeschichtlich sehr alten Bereichen (mit noch wenig ausgeprägten neuronalen Strukturen) auftreten, wäre es sogar sehr vage „denkmöglich“ dass sie direkten Einfluss auf das chemische Geschehen nehmen.
Ich möchte aber vom denkmöglichen Einfluss und der Wirkungen dieser Partikel auf das neuronale System eingehen.
Zitat: „Daraus schließt der Autor der Studie Prof. Stuart Gilder, dass diese Partikel bei der Leitung der elektrischen Signale aus dem Rückenmark zum Hirn helfen.“
Wenn veränderliche äußere Magnetfelder, wegen dieser magnetischen Partikel, das Impulsgeschehen z.B. hinsichtlich Amplitude, Phase oder Frequenz (man spricht in diesem Falle von „Modulation“) im neuronalen System systematisch und nachvollziehbar verändern, so wäre der Zusammenhang im Prinzip nachgewiesen.
Es ist in der Technik und bei komplexen Systemen durchaus üblich, dass mehrere Systeme unabhängig voneinander z.B. für die Orientierung sorgen. Bedeutet, eine Orientierung mittels der Partikel ist nicht in jedem Falle zwingend, weil es auch andere Möglichkeiten der Orientierung gibt.
Es hängt im Prinzip von der Entwicklung des Systems ab. Einerseits von der genetischen Steuerung der Strukturbildung, andererseits von Lernprozessen. Selbst bei der gleichen Tierart könnten entweder nur bestimmte „Verfahren“ oder ein Zusammenwirken mehrerer Verfahren zur Anwendung kommen.
Wäre der „Modulationseffekt“ besonders ausgeprägt, so wäre dieser im neuronalen Netz wegen der Gegebenheiten (E. Kandel, W. McCulloch Prinzipien) besonders gut auswertbar. Der Erdmagnetismus wäre eine besonders stabile und daher zweckmäßige Orientierungsgröße. Es muss sozusagen nur auf den „Kurswinkel getrimmt“ werden.
In der Elektronik würde man z.B. eine FM-Demodulation mittels Phasendiskriminator Schaltungen in Betracht ziehen. Ein ähnliches Prinzip zur Auswertung von Phasenunterschieden dürfte es auch im neuronalen Netz geben. (Entfernung abschätzen, Ortung von Tonquellen…).
Andere Möglichkeiten zur Kursbestimmung beruhen auf die komplexe „Mustererkennung“ und Auswertung. Natürliche neuronale Systeme werden auch besonders auf die Musterverarbeitung trainiert und können sehr wirksam sein.
Davon, welche Verfahren besonders „angewendet“ werden, hängt das Systemverhalten ab.
Störche könnten sich mit ihrem „Magnetkompass“ als auch mittels Muster z.B. Flüsse, Bahnlinien, Straßen …. orientieren.
Es ist bei hoch komplexen Systemen ein grundsätzliches Problem, dass z.B. der „Magnetkompass“ bei Vögeln nicht eindeutig bewiesen werden kann, weil sich auch individuell andere Effekte auswirken können. Ein Modulationseffekt wie oben angedeutet, sollte allerdings nachgewiesen werden können wenn es ihn gibt.
Es gibt auch andere höchst individuelle psychologische Effekte die von besonderen „Koppelungen“ im neuronalen System abhängen, wie z.B. Synästhesie. Synästhetiker haben gewisse Vorteile bei Denkprozessen, sollten dies aber nicht unbedingt auf die „große Glocke“ hängen, weil sie von Menschen die davon nicht betroffen sind für verrückt gehalten werden.
@Webbaer
“Geheimnis” des Denkens
“… kluge Leutz”
Es ist die fehl… Disziplin / Religion, die Diese an den Tag / diese Welt legen, und somit …
Moses und Jesus, beide sind daran gescheitert!
Hi, Kommentatorenkollege ‘Elektroniker’, drei kleine Anmerkungen folgen :
1.) ad ‘Es scheint sehr naheliegend, einen Zusammenhang mit dem Erdmagnetismus und damit mit der Orientierung („Magnetkompass“) zu sehen.’ – I.p. Gehirn ist dies nicht ‘sehr naheliegend’, die terrestrisch vorgefundene Umgebung muss den hier gemeinten Primaten nicht so beeinflusst haben.
2.) ad ‘Es ist bei hoch komplexen Systemen ein grundsätzliches Problem, dass z.B. der „Magnetkompass“ bei Vögeln nicht eindeutig bewiesen werden kann, weil sich auch individuell andere Effekte auswirken können.’ – Es gibt in der Naturwissenschaft keine Beweise, sondern die Anhäufung von Evidenz, die manchmal, abär nicht immer, zur Bildung von Naturgesetzen anregt, oft bleibt es bei empirisch adäquater Theoretisierung, was auch nicht schlecht oder vielleicht sogar sehr gut ist.
Insofern findet mit den Naturwissenschaften eine Annäherung statt, “nur” eine Annäherung der Erkenntnissubjekte, wobei dieses Nur gerade die Qualität der szientifischen Methode auszeichnet; diese ist gut begründet, diese Welt scheint nicht magisch zu sein und auch nicht (direkt >:-> ) bestimmt durch irgendwelche Götter, bleibt aber eine Methode und im Zusammenhang mit den derart Beschäftigten : eine Veranstaltung.
3.) ad ‘Synästhetiker haben gewisse Vorteile bei Denkprozessen, sollten dies aber nicht unbedingt auf die „große Glocke“ hängen, weil sie von Menschen die davon nicht betroffen sind für verrückt gehalten werden.’ – Hier fehlte der Konjunktiv ‘für verrückt gehalten werden [könnten]’, es liegt zudem nichts vor, das im Rahmen einer Betroffenheit zu bearbeiten wäre.
MFG + danke für Ihre kleinen Nachrichten im Feedback-Bereich,
Dr. Webbaer
@ Kommentatorenkollege ‘hto’ :
Keine Ahnung wie Sie genau dies sehen, Sie sind hier als christlicher Sozialist notiert und in Ihren kleinen Nachrichten tauchen, nicht immer passend, wie Dr. Webbaer findet, regelmäßig sozusagen die Begriffe ‘Suppenkasper’ und ‘systemrational’ auf, Dr. Webbaer goutiert dies nicht.
Weil Sie abär recht zäh zu sein scheinen, in Ihrer Feedback-Gebung über Jahre persistieren, womöglich auch ein klein wenig etwas gegen Juden haben, nimmt Sie Dr. Webbaer diesmal ernst.
Also, das seinerzeit sozusagen revolutionäre Verhältnismäßigkeitsprinzip (vs. Faustrecht und so), wie auch das De-Eskalationsprinzip sind wo erfunden worden?
Ihr Problem liegt womöglich im von Ihnen angenommenen Kollektivismus, dieser wird von anderen als falsch betrachtet und stattdessen dem philosophischen Individualismus gefolgt.
Und, wenn Sie mal auf den Erfolg aufklärerischer Gesellschaftssysteme schauen, der Liberalismus, der auf starken großen Aufklärern basierte, nun, auf deren Meinung hauptsächlich, werden auch Sie – Hand auf’s Herz! – recht geben, anderen.
MFG
Dr. Webbaer
@Webbaer
1. Ich bin KEIN Judenhasser
2. “Erfolg” und “Aufklärung” – Wie aus dem “Tanz um das goldene Kalb” der systemrationale “Tanz um den heißen Brei” wurde, im nun “freiheitlichen” Wettbewerb um … (Kommunikationsmüll) 😏
Was ist denn I.E. die Alternative zum “Systemrationalen”, das im aufklärerischen Sinne von der Vernunft der Einzelnen ausgeht und diese zu aggregieren sucht, hoch komplexe Gesellschaftssysteme (von denen einstmals Viele nicht glaubten, dass sie funktionieren könnten) aufsetzend?
Webverweisen Sie am besten, Sportsfreund ‘hto’, auf von Ihnen bereit gestellten Web-Inhalt, alternativ schaffen Sie es womöglich einmal konzentriert Ihre Anschauungsmengen geeignet hier aufzubereiten.
MFG
Dr. Webbaer (der auch nichts Besonderes gegen moderaten Nationalsozialismus hat, der Internationalsozialismus in moderater Form ist ja in der BRD fast durchgesetzt, eine moderate NPD muss aus seiner Sicht nicht schlechter sein als die moderate SPD, auch wenn Kollektivismus natürlich in sich problematisch ist, gar verbrecherisch, von der Idee her)
@Webbaer
“… Konzentriert …”
Das ist einfach: Die eindeutige Wahrheit, mit allen daraus resultierenden Konsequenzen und Möglichkeiten, wie sie schon Jesus, der VERGLEICHSWEISE erste Sozialist / Kommunist, für unsere Vernunftbegabung propagiert hat – geistig-heilendes Selbst- und Massenbewusstsein mit alles zweifelsfrei gerecht-befriedender Wirkung, anstatt konfus-gebildete Suppenkaspermentalität im Kreislauf der imperialistisch-faschistisch bleibenden Bewusstseinsschwäche von Angst, Gewalt und “Individualbewusstsein”.
Was deinen letzten Absatz angeht: “Gute Nacht Denken” 😒
@Webbaer
Kleine aber notwendige Korrektur:
Jesus, der VERGLEICHSWEISE erste PERFEKTE Sozialist / Kommunist
Bewusstseinsschwäche von Angst, Gewalt und “Individualbewusstsein” auf stets systemrationaler Sündenbocksuche – Perfektion im Sinne des geistigen Stillstandes seit der “Vertreibung aus dem Paradies”
Guten Morgen hto und Dr. Webbaer,
es wäre ganz grandios, wenn wir uns in diesen Kommentaren über “Gehirn & KI” austauschen könnten, jenseits von Ideologien. Damit wir die anderen nicht abschrecken, denen es um diese Sachen geht.
Danke und herzliche Grüße
Jaromir
@Webbaer
Die eindeutige Wahrheit:
Wenn GRUNDSÄTZLICH alles allen gehört, so dass “Wer soll das bezahlen?” und “Arbeit macht frei” keine Macht mehr hat, kann PRINZIPIELL alles menschenwürdig organisiert werden, OHNE …!?
Nichts gehört dem “Einzelnen” allein! Sogar die Gedanken nicht, weil wir alle im SELBEN Maße von Geist und Gemeinschaft geprägt wachsen.
Wer meint, Denken sei (stummes) Reden mit sich selbst, der übersieht, dass
1) Denkprozesse nur teilweise bewusst ablaufen, Sprechen aber immer bewusst ist.
2) Denken jede Beschäftigung mit Denkobjekten (Erinnerungen, Vorstellungen, Wünschen) umfasst. Wer an ein Musikstück “denkt” oder sich den Geruch von Kaffee vergegenwärtigt, der denkt. Dazu muss er nicht sprechen – auch nicht stumm.
Auch wer sich in einem Gewimmel von Menschen und Dingen mit den Augen den besten, schnellsten Weg zum bereitstehenden Fahrzeug (Zug, Auto) ausdenkt, auch der denkt, selbst wenn er das rein visuell macht, denn Denken umfasst alle geistigen Prozezesse, die mit geistigen Dingen operieren und die ein Denkergebnis anstreben (im Beispiel wäre das Ergebnis der beste Weg durchs Gewimmel).
Warum sprach dann schon Plato vom Denken als stummem Reden mit sich selbst? Das hat einen ganz einfachen Grund: Wir können unser Denken nur über eine Versprachlichung anderen mitteilen. Wenn wir hier über das Denken schwadronieren, so müssen wir dazu die Sprache benutzen, weil es mindestens bis heute keine Möglichkeit gibt, Gedanken direkt auszutauschen.
Der Mensch kann – wohl im Gegensatz zum Tier – auch über sehr abstrakte Dinge nachdenken, also etwa über Primzahlzwillinge oder über die Sprache selbst. Und es gibt auch Rückwirkungen: Wer immer über Schach oder über zahlentheoretische Dinge nachdenkt, dessen Denken verändert sich. Die Sprache hat wohl tatsächlich einen starken Einfluss auf das Denken, denn zu einer Sprache gehört ja auch eine ganze Kultur, eine bestimmte Art von Humor, und es gibt in jeder Sprache Redwendungen und Sprüche, die Dinge in einen bestimmten Zusammenhang bringen und das wiederum beeinflusst das Denken dessen, der sich in dieser Sprache bewegt. Beim Denken bewegen sich die meisten in bestimmten Denklandschaften und diese Denklandschaften haben bei Franzosen eine etwas andere Topologie und ein anderes Arrangement von Objekten als bei Deutschen, weil die Franzosen sprach- und kulturbedingt andere Zusammenhänge zwischen den Dingen annehmen als die Deutschen. Das gilt allerdings nur statistisch, nicht im Einzelfall.
Der Artikel Stell Dir vor, Du denkst an nichts – Denken und Sprache beschäftigt sich ebenfalls mit dem Verhältnis von Denken und Sprechen und dieser macht zuerst einmal darauf aufmerksam, dass es Denken auch ohne Sprechen geben muss, denn wie sonst hätte die Taubblinde Helen Keller je etwas lernen können (sie lernte später unter anderem Lesen und Sprechen), wenn sie – weil ohne Sprache – nicht einmal hätte Denken können. Und klar, wer etwas lernen kann, beispielsweise wer zu sprechen und zu schreiben lernt wie Helen Keller (oder wie jedes Kleinkind), der muss auch denken können, denn ohne jedes Denken lernt man nur sehr wenig. Sogar ein Kleinkind, dass nach negativen Erlebnissen heisse oder spitze Gegenständen meidet, denkt bereits – wenn es auch sehr einfache Gedanken sind. In diesem Fall bedeutet Denken einfach, eine Assozitation herstellen und das wiederum bedeutet, die gefährlichen Gegenstände einzuordnen, zu kategorisieren und zwar einzuordnen im kindlichen Weltmodell. Doch halt: Bedeutet das nicht schon, dass auch ein neuronales Netz denkt, denn eine solche Kategorisierung bewältigt bereits ein Deep Learning-Netz. Wohl nicht, denn Kategorisieren allein genügt nicht, es braucht zum Denken mehr als nur eine automatische Reaktion, mehr als nur einen Pawlowschen Reflex, der in einer bestimmten Situation ausgelöst wird. Ohne das Weltmodell, die das Kleinkind aufbaut, ohne die Integration des Erlebten und Erfahrenen, gibt es kein Denken. Dieses Weltmodell bringt Erfahrungen mit sehr vielen anderen Dingen in Beziehung und erst das schafft dann die Landschaft in der gedacht werden kann. Das äusserst sich beispielsweise so, dass das Kleinkind gegenüber der Mutter auf den spitzen oder heissen Gegenstand zeigt mit dem es negative Erfahrungen gemacht hat. Ferner könnte das Kleinkind solche Gegenstände beispielsweise in eine Kiste “wegräumen”. Ich behaupte: Eine solche Handlung wie das Wegräumen eines als gefährlich erlebten Gegenstands darf man durchaus als Resultat eines Lern- und auch Denkprozesses auffassen.
Der Artikel bringt aber ein vielleicht noch besseres Beispiel, welches zeigen soll, dass Denken ohne Sprache sehr wohl möglich ist. Das Beispiel des Experten, ja Genies, der es nicht fertigbringt, seine eigenen Erkenntnisse in verständliche Sprache zu fassen (nur seine unmittelbaren Fachkollegen verstehen ihn). Dazu schreibt die Autorin des Artikels: das ist zum anderen aber auch ein Hinweis darauf, dass Sprache nicht in der Lage ist unsere Gedanken vollständig und erschöpfend wiederzugeben.
Zweifellos ist das so. Es ist beispielsweise ein Irrtum anzunehmen, nur wer die Fachsprache für die Beschreibung von Weinen und ihrer Degustation und Verköstigung kenne und adäquat verwenden könne, nur der könne über Weine nachdenken. Klar kann die Sprache und können Fachwörter auch beim Nachdenken helfen. Doch sie sind keine absolute Voraussetzung dafür.
Martin Holzherr: “Der Artikel Stell Dir vor, Du denkst an nichts – Denken und Sprache beschäftigt sich ebenfalls mit dem Verhältnis von Denken und Sprechen und dieser macht zuerst einmal darauf aufmerksam, dass es Denken auch ohne Sprechen geben muss, denn wie sonst hätte die Taubblinde Helen Keller je etwas lernen können (sie lernte später unter anderem Lesen und Sprechen), wenn sie – weil ohne Sprache – nicht einmal hätte Denken können.”
Jaromir: Meiner Meinung nach verdanken wir unser heutiges Denken stark unserer Sprache, sowie wir dem Denken die Sprache verdanken – wohl hat da eine Coevolution stattgefunden. Das heißt aber nicht, dass Denken nicht auch ohne Sprache erfolgt. Wie Sie schreiben, gibt es auch das unbewusste Denken. Zum Beispiel die Intuition der Go- und Schachspieler. Das hat der Schach-Großmeister Capablanca sehr schön ausgedrückt:
»Ich sehe nur einen Zug im Voraus, aber der ist immer der richtige.« 🙂
Solche Intuition ist meiner Meinung nach ein besseres Beispiel, dass Denken auch ohne Sprache stattfindet, als das über die taubstumme Helen Keller. Niemand weiß, wie Helen Keller gedachte hatte, bevor sie zu lesen, zu schreiben und zu sprechen lernte. Man kann auch in Worten denken, ohne sie auszusprechen.
Sicher hat im Laufe der Evolution unsere Kommunikation unser Denken beeinflusst, so wie unser Denken unsere Kommunikation beeinflusste. Schon Homo Habilis kommunizierte wohl viel reichhaltiger als unsere noch älteren Vorfahren, doch nicht so komplex wie Homo Sapiens, der sicher auch besser als Homo Habilis denken konnte.
In meinem alten Kommentar ging’s mir im Bezug auf Tucholsky um das Denken in Bildern und das Denken in Worten, das es ja gibt, sonst würde ich nichts formulieren können, nicht um das Denken als Ganzes. Das Denken setzt sich aus vielen Teilen zusammen, doch ohne das sprachbezogene Denken wären wir Menschen nicht das, was wir sind – davon bin ich überzeugt.
@Konecny
Gehirn & KI, jenseits von Eden!?
Lieber Jaromir,
wenn Mensch aufgrund seiner wettbewerbsbedingt-selbstbeschränkten Fähigkeiten eine KI erschafft, dann kann diese KI doch wohl nur …
Ich kann mir vorstellen, dass es unter den Wissenschaftlern welche gibt, die von der wahnwitzigen Vorstellung … sind, dass KI dann den Mensch als das sehen wird was er sein könnte und deshalb zu seinem Wohl …,
tja, wer’s glaubt, oder denkt, wird selig!?
Die neue / “logische” Weltordnung – 1&1=0&0=??? 😎
hto: “Ich kann mir vorstellen, dass es unter den Wissenschaftlern welche gibt, die von der wahnwitzigen Vorstellung … sind, dass KI dann den Mensch als das sehen wird was er sein könnte und deshalb zu seinem Wohl …,”
Jaromir:
Lieber hto,
ich weiß es einfach nicht, ob es allgemeine künstliche Intelligenz geben kann. Mich faszinieren aber die Sachen, die tief lernende neuronale Netze schon jetzt bewerkstelligen und dass man vieles davon, auch wenn nicht alles, mathematisch formalisieren kann. In diesem Blog will ich dann gucken, wie die KI-Forschung die Hirnforschung bereichert und vice versa. Am Ende der Wissenschaft steht ja immer etwas mehr Erkenntnis, und das finde ich gut.
Liebe Grüße
Jaromir
@ Dr. Webbaer 11. August 2018 09:01
1.) „Naheliegend“ ist sicherlich kein Begriff der Wissenschaft.
2.) „Anhäufung von Evidenz“: Die ist präzise formuliert und so sehe ich es auch. „Beweis“ ist eher nur umgangssprachlich.
3.) Synästhetiker, oder auch an Phantomschmerz leidende Menschen würde man heutzutage, in einer nach dem Krieg stark veränderten Gesellschaft, so gut wie überhaupt nicht mehr mit „verrückt“ in Verbindung bringen.
Allerdings war dies kurz nach dem Krieg um 1950 noch anders.
Betroffene die z.B. Gliedmaßen verloren hatten, wurden von den Therapeuten informiert, dass sie von der Gesellschaft kein Verständnis für ihre Situation bezüglich Phantomschmerzen erwarten könnten.
Damals galt als selbstverständlich, dass z.B. ein amputierter nicht mehr vorhandener Fuß niemals schmerzen könnte.
Ich würde es nicht noch einmal so formulieren.
M. Holzherr
“dass ein neuronales Netz denkt…”
Wenn man davon ausgeht, dass ein neuronales Netz das Ergebnis eines Lernvorganges ist, dann “denkt” dieses auch, da alle abgespeicherten Assoziationen zu diesem Thema (Reiz) abgerufen werden.Je mehr Assoziationen zu diesem bestimmten Reiz abgespeichert wurden,um so mehr Kontakte zu anderen neuronalen Netzen ergeben sich dadurch in dem sie gemeinsam “feuern”. Da das Gehirn auch nach dem Ähnlichkeitsprinzip arbeitet, könnte es wiederum ähnliche Assoziationen miteinander vergleichen,was man dann auch “denken” nennen könnte.
Golzower
„Denken“ ist letztlich ein willkürlicher Begriff. In der Wikidefinition wird offenbar versucht, sich von den Tieren abzuheben. Damit bleiben viele Aspekte der, allgemeiner formuliert „Informationsverarbeitung in natürlichen neuronalen Netzen“ nicht berücksichtigt.
Es ist eine reine Definitionsfrage ob ein neuronales Netz „denkt“. Information verarbeiten kann es jedenfalls, reale Empfindungen gibt es derzeit offensichtlich nicht.
Reale Empfindungen waren wichtig bei der Strukturierung des Gehirns. Bei technischen neuronalen Netzen sind es die technischen Möglichkeiten und das Wissen derartige Systeme zu gestalten.
Man kann „das Denken“ so definieren dass nicht nur Menschen, sondern auch Tiere, Maschinen „denken“, oder eben nicht. Der Begriff „Denken“ aber auch „Bewusstsein“ scheint ungeeignet für einen realistischen Vergleich unterschiedlicher Systeme.
Informatiker „deklarieren“ Objekte nach sozusagen „lokaler“ Zweckmäßig bevor sie sie verwenden. Bestehende „globale“ (verbale) Objekte (z.B. Denken, Bewusstsein) sind hauptsächlich dann, wenn neue Sachverhalte bekannt werden und beschrieben werden müssen, kaum geeignet.
Elektroniker: “Man kann „das Denken“ so definieren dass nicht nur Menschen, sondern auch Tiere, Maschinen „denken“, oder eben nicht. Der Begriff „Denken“ aber auch „Bewusstsein“ scheint ungeeignet für einen realistischen Vergleich unterschiedlicher Systeme.”
Jaromir: Auf den Medium-Blogseiten hat ein KI-Blogger sich zig “Aspekte des Denkens” in einer Blogreihe vorgenommen, in jedem Blogbeitrag einen, und hat gezeigt, dass Maschinen jeden dieser Aspekte auch ausführen können. 🙂 Man kann solche Sachen selbstverständlich ad absurdum treiben, es gibt aber in der Tat keine Definition von Denken und Bewusstsein, an der sich Hirnforscher einigen könnten.
Im Grunde kann aber jeder viele Aspekte des Denkens sehen, bei denen sich der Mensch vom Tier oder von der selbstlernenden Maschine unterscheidet. Trotzdem fasziniert es mich, wenn Forscher einzelne dieser Aspekte bei künstlichen neuronalen Netzen untersuchen und zeigen, dass sie manche Sachen auch können, zum Beispiel zu einem gewissen Maß abstrakt schlussfolgern. So wie’s DeepMind gezeigt hatte.
Leider landen wir bei diesen Diskussionen dann doch oft dabei, dass jemand schreibt: “Maschinen können nicht denken!” Klar können Maschinen nicht denken. Darum geht’s aber nicht.
@Jaromir Konecny (Zitat): Niemand weiß, wie Helen Keller gedachte hatte, bevor sie zu lesen, zu schreiben und zu sprechen lernte. Man kann auch in Worten denken, ohne sie auszusprechen.
Einwand: wenn Helen Keller zuerst ohne Sprache aufwuchs, dann konnte sie auch keine Wörter denken, denn die kennt man erst nach dem Spracherwerb – ausser man nimmt an, es gebe eine Gedankensprache, von vielen „Mentalese“ genannt.
Im übrigen stimme ich zu, dass Sprache Denken beeinflusst und umgekehrt. Beides Sprachkompetenz und Denkleistung/Denkkompetenz kann man meiner Ansicht nach prinzipiell auch messen.Ich behaupte nun: es gibt Hochleistungsdenker mit geringer Sprachkompetenz und umgekehrt. Für mich ist Elon Musk solch eine Figur. Im Spiegel hab’s mal einen Artikel über ihn von einem sprachkompetenren Reporter/Journalisten. Der gab sich schockiert über Elon Musks Genuschel und die häufig abbrechenden Sätze sowie Zeichen von gelegentlichem Stammeln. Dennoch halte ich Elon Musk für einen Hochleistungsdenker, weil seine gewagten Projekte und auch Gedankengebäude funktionieren, weil er tragfähige Gedankengebäude und Pläne zustandebringt und dabei Bedenken, die die meisten anderen haben, zurücklässt.
Der Autor des Conversation-Artikel What does it mean to think and could a machine ever do it? schreibt, Denken sei nicht auf den Menschen beschränkt, sondern gebe es beispielsweise auch bei Tieren, die durch ihr Verhalten beweisen, dass sie wissen was andere beabsichtigen (und denken), die also über eine Theory of Mind (TOM) verfügen. Ferner frägt er sich ob Denken bei andern Lebewesen inklusive vielleicht denkenden Computern zwangsweise ähnlich sein müsse wie menschliches Denken.
Als letzten Satz dieses kurzen Artikels liest man: Und vielleicht sollten wir etwas mehr Zeit damit verbringen, uns selbst zu verstehen, bevor wir uns replizieren (in AI-Geschöpfen).
Auch ich denke/fühle, dass wir übers menschliche Denken sehr wenig wirklich wissen. Es überwiegen Behauptungen und bestimmte Sichten. Dominant ist die Sicht, welche einen engen Zusammenhang zwischen Denken und Sprache sieht. Doch das Gefühl sagt mir, dass gerade diese Annahme wenig fruchtbar ist, wenn es um die Erweiterung unseres Wissens über Denkvorgänge geht. Denn das würde bedeuten, dass wir die Geheimnisse des Denkens aufgeklärt hätten, wenn wir die Geheimnisse der Sprache aufgeklärt hätten – und umgekehrt. Zudem muss es etwas vor der Sprache gegeben haben, etwas was die Sprache überhaupt ermöglicht, was sie evolvieren liess, eine Sprachbasis quasi. Und diese Sprachbasis, diese Wurzeln der Sprache, die findet man meiner Meinung nach zu einemTeil im Denken und dieses Denken muss wesentlich älter sein als die Sprache selbst.
Jaromir: “Klar können Maschinen nicht denken. Darum geht’s aber nicht.”
hto: Ein Horror, logischer Horror systematisch-gelebter Bewusstseinsschwäche, wenn man bedenkt, dass in Zukunft solche Roboter den “ökonomischen” Profit in der Kranken- und Altenpflege einfahren sollen, anstatt einer konsequent- kompromisslosen Rückbesinnung zu mehr / besserer Menschlichkeit!?
@hto (Zitat): Ein Horror, logischer Horror systematisch-gelebter Bewusstseinsschwäche, wenn man bedenkt, dass in Zukunft solche Roboter den “ökonomischen” Profit in der Kranken- und Altenpflege einfahren sollen
Ist es also OK, wenn menschliche Buchhalter den “ökonomischen” Profit in der Kranken- und Altenpflege einfahren sollen, aber ein Horror, wenn das gleiche von Automaten gemacht wird?
Wobei: Oft wird ja Buchhaltern gerade vorgeworfen nur Automaten zu sein und während der Eurokrise gab es den Witz, Deutschland wolle jedem süd- und osteuropäischen Staat ein Heer von deutschen Buchhaltern schicken damit dort alles nach deutschen Vorstellungen und damit richtig und rechtens zugehe.
Philosophen wollten/wollen die Welt allein mittels eigenen Nachdenkens verstehen. Doch das muss scheitern. Auch wenn man über das Denken nachdenkt, muss es scheitern, denn es bringt wenig aufzulisten, was man über das Denken schon alles gedacht hat. Mit andern Worten: Ohne Empirie, ohne (Tier- und Menschen-) Versuche und daraus dann aufgebaute Begriffe, kommt man nicht über Kaffeekränzchengeklatsch hinaus.
Dass uns Versuche, Tiere und Menschen beim Nachdenken zu erwischen, weiterhelfen können, zeigt für mich beispielsweise der Artikel Many Animals Can Think Abstractly, wo man liest (übersetzt von DeepL): Unser Gespür für Sprache hilft uns, unser Denken zu strukturieren. Doch die Fähigkeit, über Schmuckstücke, Werkzeuge oder Eigenschaften poetisch zu werden, mag nicht notwendig sein, um abstrakt darüber nachzudenken, wie es einst vermutet wurde. Ein wachsender Bestand an Beweisen deutet darauf hin, dass nichtmenschliche Tiere lebende und unbelebte Dinge gruppieren können, die auf weniger offensichtlichen gemeinsamen Eigenschaften beruhen und Fragen darüber aufwerfen, wie Kreaturen diese Aufgabe erfüllen.
In einer im vergangenen Herbst in der Zeitschrift PeerJ veröffentlichten Studie untersuchte beispielsweise die Psychologin der Oakland University, Jennifer Vonk, wie gut vier Orang-Utans und ein westlicher Flachlandgorilla aus dem Zoo von Toronto Fotos von Tieren derselben biologischen Gruppe zusammenfügen konnten.
Vonk präsentierte den Affen einen Touchscreen-Computer und brachte sie dazu, ein Bild eines Tieres – zum Beispiel eine Schlange – auf den Bildschirm zu tippen. Dann zeigte sie jedem Affen zwei nebeneinander liegende Tierbilder: eines aus der gleichen Kategorie wie das Tier im Originalbild und eines aus dem anderen – zum Beispiel Bilder eines anderen Reptils und eines Vogels. Wenn sie richtig aufeinander abgestimmt sind, erhalten sie ein Leckerli wie Nüsse oder Trockenfrüchte. Als sie es falsch verstanden, sahen sie einen schwarzen Bildschirm, bevor sie den nächsten Prozess begannen. Nach hunderten solcher Versuche fand Vonk heraus, dass alle fünf Affen andere Tiere besser kategorisieren konnten als durch Zufall erwartet (obwohl einige Individuen besser darin waren als andere). Die Forscher waren beeindruckt, dass die Affen lernen konnten, Säugetiere mit sehr unterschiedlichen visuellen Merkmalen – wie Schildkröten und Schlangen – zusammen zu klassifizieren, da die Affen Konzepte für Reptilien und andere Tierkategorien entwickelt hatten, die nicht auf gemeinsamen physischen Merkmalen basierten.
Wobei ich nicht überrascht bin, dass Affen andere Tiere richtig einteilen können und dass sie sich sogar Kategorien wie Repitilien, also abstrakte Gruppierungen, erarbeiten können. Für mich ist die hier beschriebene begriffliche Leistung, die Affen zeigen, zwar eine Denkleistung, allerdings eine sehr grundlegende, beinahe noch primitive. Dennoch bin ich überzeugt, dass viele Philosophen und Geisteswissenschaftler, die ganze Bücher über das Denken schreiben, überrascht wären über die erbrachten “Denkleistungen” der hier getesteten Affen. Und das wiederum beweist für mich, dass es ohne Versuche und Tests, ohne Empirie nicht geht und ich behaupte sogar, dass sogar viele der reichlich abstrakten Konzepte und Fragen mit denen sich Philosophen beruflich beschäftigen bei Psychologen und anderen empirisch tätigen (Natur-)Wissenschaftlern in besseren Händen wären.
@Holzherr
Ja, es ist derzeit schon Horror genug in der Alten- und Krankenpflege – ich hätte wohl mehr im Sinne DER Systemfrage “Wollt ihr den TOTALEN Horror?” schreiben müssen!?😒
Zitat Holzherr: „Dominant ist die Sicht, welche einen engen Zusammenhang zwischen Denken und Sprache sieht. Doch das Gefühl sagt mir, dass gerade diese Annahme wenig fruchtbar ist, wenn es um die Erweiterung unseres Wissens über Denkvorgänge geht. Denn das würde bedeuten, dass wir die Geheimnisse des Denkens aufgeklärt hätten, wenn wir die Geheimnisse der Sprache aufgeklärt hätten – und umgekehrt.“
Den „Denkprozess“ dürfte man wesentlich besser verstehen, wenn man das Prinzip der technischen Informationsverarbeitung versteht und keinesfalls von der „Sprache“ ausgeht.
Die Sprache dient der kodierten Informationsübermittlung.
In der elektronischen Datenverarbeitung ging man ehemals von der „Schrift“ aus, nicht von allgemeinen „Mustern“.
Unsere Schrift ist ein kodiertes Abbild der Sprache und kann sehr einfach (mit verhältnismäßig wenig technischem Aufwand) zur Verwendung in technischen Computern umgesetzt werden.
Als erste Eingabegeräte dienten Fernschreiber, wie sie bei der Post und in größeren Firmen früher verwendet wurden.
Seit wenigen Jahrzehnten werden Sprache und Bilder digitalisiert und es wurden Konzepte zur Mustererkennung ermittelt.
Die Informatik erfand Konzepte, die als elektrische Signale in das System gelangende Information zu strukturieren (Datenstrukturen) und algorithmisch (mittels Boolescher Schaltalgebra und Programmiersprachen) abzubilden und zu verarbeiten.
Ich vermute um 1910 wurde von „Vordenkern“ der Elektronik/Kybernetik um Norbert Wiener Ähnlichkeiten elektronischer Gatter (die neben der Booleschen Algebra und des von Neumann Zyklus, Grundlage des Computers sind) und der Funktion von Neuronen vermutet.
Dies galt als Angriff auf den „menschlichen Geist“ und war verpönt.
Erst der Neurologe W. McCulloch konnte 1943 diese Ähnlichkeit aufzeigen und mit A. Turing die Fähigkeit der Neuronen zur Informationsverarbeitung begründen. Ganz wesentliche Grundlagen der Wissensabbildung mittels der Synapsen lieferte E. Kandel.
Wegen dieser Ähnlichkeiten kann sozusagen eine Brücke zwischen technischen und biologischen Information verarbeitenden Systemen „gebaut“ werden.
Es wird nunmehr weitgehend verstanden wie z.B. Muster von allen biologischen Sensoren als elektrische Impulse „abgebildet“ werden und die (baumartige) Strukturbildung der Neuronenverbände bewirken, wie „Wissen“ abgebildet wird und wie umgekehrt die Motorik (Muskel) aktiviert wird.
Die Muster aus verschiedenen Quellen (Augen, Ohren, „Hautsensorik“ … auch internen Quellen, meiner privaten Vermutung nach auch von den „Bewusstsein“ abbildenden Schichten) werden neuerlich verknüpft und generieren neue neuronale Strukturen, die die verschiedenen Aspekte der Informationsverarbeitung realisieren. Auch den sprachlichen Output.
So wie an der Netzhaut die gleichzeitig und nacheinander anliegenden „Bildpunkte“ als Information verknüpft (emergent) abgebildet werden, werden an den vermutlich ebenfalls hautartigen „Bewusstseinsschichten“ viele extern und intern referenzierte (informelle) Objekte „assoziativ“ abgebildet und in den „Neuronen Gatter“ verarbeitet.
In den Wissen abbildenden Strukturen kann auch Handlungswissen gelernt und abgerufen werden.
Wissensabbildung in diesem Sinne ist ein allgemeines Prinzip.
Neurone „funktionieren“ nach dem Prinzip von McCulloch, allerdings sind verschiedene Typen von Neuronen erforderlich um die verschiedenen Ansprüche zu erfüllen. Z.B. besonders hochauflösende feine Strukturen, oder „kräftige Muskel“ aktivierende Strukturen.
„Genetische Zufallsvariable“ generieren verschiedene Neuronentypen an bestimmten Orten. Ermöglichen diese zweckmäßige Funktionen, werden sie oft aktiviert und die Verbände stärken sich (E. Kandel). Wird das System „erfolgreicher“, so können sich diese, die (neuen) Funktionen ermöglichenden Gene stärker verbreiten, das System kann erfolgreich und schnell evolvieren.
Dies gilt nicht nur für die Sprachfunktionen.
Mit Auftreten der neuronalen Strukturen wurde immer komplexer werdende Informationsverarbeitung möglich. Einfache informelle Objektbeziehungen gewonnen aus der Sensorik (Augen, Ohren, …) zur Steuerung von Bewegung, Nahrung, Flucht, Sex … standen am Anfang. Erweiterte Bewusstseinsfunktionen ermöglichten nicht nur reflexhaftes Handeln.
Vermutlich bevorzugen stark „verbal orientierte“ Typen das „innere Sprechen“ und können eine Art von nicht verbalem „Beziehungsdenken“ schlecht nachvollziehen.
Hunde dürften hauptsächlich Geruchsbeziehungen auswerten, manche sogar die menschliche Sprache über einfache Kommandos hinaus, zumindest teilweise verstehen können. (Hunde die auf Kommandos nicht reagiert haben, wurden aus der Zucht genommen.)
In diesem, wie in allen meinen Texten verknüpfe ich hauptsächlich so etwas wie bekannte Fakten aus der Neurologie/Hirnforschung mit technischem Grundwissen aus dem Bereich Nachrichtentechnik/Elektronik/Informatik.
Ich nutze den Technikerjargon in der Art, wie z.B. Betriebshandbücher für technische Anlagen erstellt werden. Dabei erlaube ich mir kleinere persönliche Interpretationen des neuronalen Geschehen (z.B. „Bewusstseinsabbildung“ auf „Feldern“ im Sinne der Informatik).
@Holzherr
Auch MIT “Empirie” wird es “Kaffeekränzchengeklatsch” bleiben, bis Mensch anfängt sich wirksam auf seinen geistigen Ursprung zu BESINNEN und vorzubereiten – Denken und Gefühl sind Funktion von einem … in Vergangenheit, Gegenwart und Zukunft, gesichert durch …, es gibt dabei wahrlich vieles was wir nicht mit Worten beschreiben können.
Was hätte Mensch JETZT, im “gesunden” Konkurrenzdenken des “freiheitlichen” Wettbewerb um …, wenn er die Gedanken seines Gegenüber lesen könnte, würde er friedlicher, gerechter, menschenwürdiger???😉
Der arxiv-Artikel Cortical Microcircuits from a Generative Vision Model , zeigt für mich – obwohl ich seinen Inhalt nur grob verstehe -, dass wir über Hirnprozesse noch fast nichts wissen – und das, obwohl wir immer mehr Hirnströme und Hirnaktivitäten direkt messen können. Die Autoren des Artikels haben nun folgenden Trick angewandt: Sie haben ein spekulatives Modell der Informationsverarbeitung im visuellen Kortex postuliert um dann das Modell an der Realtiät zu testen und schliesslich iterativ zu verbessern. Oder in den Worten der Autoren (übersetzt von google translate): Fortschritte in neuralen Bildgebungs- und Aufzeichnungstechnologien haben zu einer dichten Datenmenge geführt, aber die Neurowissenschaft als ein Feld bleibt Theorie – spärlich. Wie können wir den Kortex auf funktionaler Ebene verstehen? Unser Ansatz bietet einen Weg nach vorne. Erstellen Sie zuerst Modelle, deren repräsentative Entscheidungen von Neurobiologie und realer Leistung geleitet werden. Gehen Sie dann vom Modell zurück, um detaillierte Verbindungen zur Neurobiologie herzustellen. Durch diesen Zyklus hoffen wir, bessere Realwelt – Modelle zu bauen und gleichzeitig die Genauigkeit und Falsifizierbarkeit unserer neurobiologischen Vorhersagen zu verbessern.
Das Denken müsste zuvörderst die Bildung des Dings meinen, das nicht dem erkannten in der Natur Vorfindbarem entspricht, sondern dem Abbild davon, das im Hirn entsteht, die eigene Welt meinend, nicht die Naturwelt, vgl. :
-> https://en.wiktionary.org/wiki/think#Etymology_1
-> https://en.wiktionary.org/wiki/thing#Etymology
Die Sache (auch “Res”) also oder das Objekt, das dem sozusagen Unterworfenen, dem erkennenden Subjekt anfällt.
Derartige Begriffsableitung ist schon wichtich, die Altvorderen haben sich hier nicht ohne Grund bemüht.
Die Sprache, für einige das Wort, war insofern am Anfang, wobei dessen “Göttlichkeit” auch schlicht den Weltbetrieb meinen kann, nicht in seiner Enzstehung besonders angeleiert sein muss.
Denn auch ‘Gott’ ist ein Wort.
Im Bereich der Datenbankprogrammierung spielen Sachen, dann in der Regel Entitäten genannt, und Sachbezüge, dann in der Regel Entitätsbeziehungen genannt, eine besondere Rolle, auch hat jeder (verständige) Datenbankentwickler insofern Philosoph zu sein.
Dies war keine willkürliche Aussage, sondern sie bewährt sich in praxi im Bereich der Software-Entwicklung fortdauernd, es wird insofern auch von relationaler Datenhaltung gesprochen oder geschrieben, der Datenbank-Philosoph weiß sozusagen, denn anders geht es ihm nicht, würde ansonsten, als Praktiker zu entfernen sein, aus seinem Beruf.
Auch im Bereich der objektorientierten Programmierung findet kein anderes Erkennen statt, dann nicht die Persistenz von Dingen direkt meinend.
Verständigkeit ist insofern über das Bilden, also Konstrieren von sogenannten Dingen zu erlangen; Dr. W hat sich weiter oben mehr spaßeshalber ein wenig mit Kommentatorenkollegen auseinander gesetzt, was an dieser Stelle aber nicht weiter stören soll.
MFG + schöne Woche,
Dr. Webbaer
Vergleiche :
Weiter oben, also früher als “13. August 2018 @ 10:16”, hat Dr. Webbaer näher zum “Ding” erklärt, wegen dreifacher Webverweise womöglich in die Moderation geraten; dies nur der Vollständigkeit angemerkt, so dass der Star Trek-Verweis weiter oben nicht so alleine dasteht.
*
En[t]stehung
**
also Konstr[u]ieren von sogenannten Dingen
Ist (Zitat) das Geheimnis des Denkens eng verwandt mit dem Geheimnis der Sprache?
Antwort: Verwandt vielleicht schon. Doch verschieden noch mehr. Denn: Sprache ob nun gesprochen oder geschrieben ist etwas inhärent lineares, Denken dagegen findet in einem Raum statt – im Denkraum. Der Denkraum ist ein Netzwerk von Beziehungen, die Versprachlichung eines Gedankens aus diesem Denkraum greift dann einen Pfad, einen Faden aus diesem Denkraum heraus und präsentiert ihn den Hörern oder Lesern. Dessen sind sich die meisten gar nicht mehr bewusst, weil sie nur das Produkt (den Satz oder die Folge von Sätzen) sehen, nicht aber die Werkstatt. Und diese Werkstatt ist der Denkraum. Gerade Sprachbegabte sind aber wahre Künstler darin, aus dem Denkraum auf attraktive Art und Weise die “richtigen” Linien, die richtigen Fäden herauszuziehen und Gedanken in wohlgeformte Worte zu giessen. Sie machen das so gut, dass sie vergessen, was für ein Prozess dahinter steckt und kommen deshalb überhaupt erst auf die Idee, Denken sei nichts anders als stummes Sprechen.
Die Sprache ist ähnlich unscharf wie das Denken.
Zeitgenössische AI versucht insofern diese Unschärfe nachzubilden, um Problemlösungen und Anwendungen zu ermöglichen.
Es hat sich wohl herausgestellt, dass mit stringentem Denken und “Brute Force” oft kein Blumentopf zu gewinnen ist, in der Natur oder Welt, denn die Rechenleistung jeder CPU reicht nicht aus, um in der Natur oder Welt sicher navigieren zu können. [1]
Verständigkeit, jedenfalls die der Menge, ergibt sich über den (möglichst freien) Wettbewerb.
‘Sprachbegabung’ ergibt sich über das Erkennen des Gemeinten, all die teils auch unselig erscheinenden metaphorischen Bedeutungssprünge von Begriffen mitgehend, womöglich ist nichts schwieriger als das zu schreiben, was gemeint ist.
Und diese Begabung ist durch sehr harte, auch etymologische, Arbeit zu ergänzen.
MFG
Dr. Webbaer
[1]
Womöglich ist die dafür benötigte Rechenleistung so groß wie die Rechenleistung der Welt – sofern deren Regeln umfänglich bekannt sind.
M. Holzherr:
“Unser Gefühl für Sprache hilft uns das Denken zu strukturieren…”
Die Sprache ist für mich ganz einfach ein Lernergebnis, was sich automatisiert hat. So wie sie beim PKW-Fahren automatisch alles richtig machen, weil jeder Schritt im Unterbewusstsein eingebrannt ist, werden Sprachbilder vom UB abgespeichert und der Bewertung der jeweiligen Situation zugeordnet. Unser Auto-Pilot “Unterbewusstsein” greift also automatisch auf Sprachbilder zurück,wenn er Situationen analysiert. Sprache ist also kein Gefühl sondern Ausdruck(Artikulation) eines Gefühls.Unser AutoPilot bietet uns dann auch noch Lösungsvorschläge aus unseren Denkmustern zu dem jeweiligen Thema an- was man dann als DENKEN bezeichnen könnte.
@Golzower (Zitat): Die Sprache ist für mich ganz einfach ein Lernergebnis, was sich automatisiert hat. So wie sie beim PKW-Fahren automatisch alles richtig machen, weil jeder Schritt im Unterbewusstsein eingebrannt ist, werden Sprachbilder vom UB abgespeichert und der Bewertung der jeweiligen Situation zugeordnet.
Ja, was mich zu folgendem Vorschlag führt: „Sprache ist eingefrorenes Denken und präsentiert uns und den Hörern/Lesern meist Lösungsvorschläge nicht selten basierend auf einem Konsensus“
Beispiel: Nach dem Brückeneinsturz in Genua sagt der Politiker Salvini (Innenminister): „So etwas darf keinem Italiener passieren. Wir werden das aufklären und die Gründe dafür finden“. Das ist genau die Art automatische sprachliche Reaktion, wie sie von einem Politiker erwartet wird. Er vermittelt seinen Wählern, den Italienern das Gefühl, dass er sich als Politiker um sie kümmert und nicht (mehr) geschehen lässt, was in Italien ständig passiert.
Wobei Sprache natürlich mehr ist als eingefrorenes Denken. Es ist vielmehr die sprachliche Fassung des Resultats eines Denkprozesses. Das Denken selber ist viel reicher und vielfältiger als die Sprache. Sprachlich geht es ja oft darum die „richtigen“ Worte und Sätze zu finden.
Der Singularity Artikel Amazing New Brain Map of Every Synapse Points to the Roots of Thinking berichtet über die vollständige Kartierung aller Synapsen in einem Maushirn und über die Vielzahl der dabei gefunden Synapsenformen, wobei die grösste Vielfalt sich nicht im Stammhirn (den evolutionär altesten Hirnteilen) , sondern in den Hirnregionen zu finden sind, die für höhere geistige Funktionen wie die Entscheidungsfindung verantwortlich sind.
Und ja, eine Maus denkt durchaus, wenn sie beispielsweise entscheidet, welche von den Leckerein, die vor ihr liegen, sie zuerst verspeist oder wenn sie als Reaktion auf das Erscheinen einer Katze einen bestimmten Fluchtweg einschlägt. Der Artikel heisst nicht umsonst (ins deutsche übersetzt): Erstaunliche neue Gehirnkarte von jeder Synapse weist auf die Wurzeln des Denkens hin. Denken und Denkprozesse kann man durchaus mit dem Konnektom, also der Summe aller Verbindungen im Hirn, in Beziehung bringen oder wie im Artikel zu lesen ist (übersetzt von DeepL): das KonneKtom ist die biologische Basis dessen, wer du bist – deine Erinnerungen, deine Persönlichkeit und wie du schlussfolgerst und denkst. Fangen Sie das Konnektom ein, und eines Tages können Wissenschaftler Sie vielleicht rekonstruieren – etwas, das als ganze Hirnemulation bekannt ist.
Martin Holzherr: “Denken und Denkprozesse kann man durchaus mit dem Konnektom, also der Summe aller Verbindungen im Hirn, in Beziehung bringen …”
Jaromir: Ich habe das in meinem Konnektom-Blogbeitrag ausgiebig diskutiert und bin weiterhin überzeugt, so wie die meisten Hirnforscher, dass das Konnektom nur eine Seite der Münze ist, Gehirnaktivität die andere. Auch identische künstliche neuronale Netze kann ich ja nach unterschiedlichen Algorithmen rechnen lassen, so wie die OpenWorm-Forscher das Konnektom des Fadenwurms diverse Sachen simulieren lassen, wie z. B. die Informatiker in Wien einen virtuellen Wurm einen Stab zu balancieren. Trotzdem hat man damit nicht mal ansatzweise im Computer nachbilden können, wie ein wirklicher Wurm tatsächlich “funktioniert”.
Die Firma DeepMind, welche hier oft erwähnt wird, forscht im Bereich Machine Learning/Artificial Intelligence in viele Richtungen und veröffentlicht tatsächlich immer wieder bahnbrechende Artikel. Nur ein Teil dieser Artikel bezieht sich auf Forschungen, die eine Beziehung zwischen Biologie (Hirnprozessen) und tief verschachtelten neuronalen Netzen herzustellen versucht. Es gibt auch Arbeiten, die MachineLearning auf ganz andere, nicht direkt biologisch motivierte Weise, voranbringen wollen. Und dann gibt es noch so allgemeine Ansätze, dass sie sowohl die Evolution des Denkens erklären können als auch Wege zeigen, wie Maschinen ohne Hilfe des Menschen (“unsupervised”, autodidaktisch) lernen können. Ein solcher Artikel ist Representation Learning with Contrastive Predictive Coding Dieser Ansatz will aus hochdimensionalen Daten Voraussagen über die weitere Entwicklung dieser Daten in der Zeit zu machen. Der Vorteil dieses Ansatzes: In unserer Umwelt verändern sich Dinge ständig gesetzmässig, beispielsweise, wenn etwas herunterfällt. Wenn man die Bahn eines herunterfallenden Objekts voraussagen will, dann lernt man am eigenen Erfolg, der sich durch Messung der Position des Objekts zu einem späteren Zeitpunkt messen lässt. Damit haben wir also unüberwachtes, autodidaktisches Lernen. Neu am vorgestellten Ansatz ist vor allem die Aufbereitung der Daten um bedingte Voraussagen (wenn das, dann das) besser zu modellieren, die Behandlung von Rauschen, die hohe Dimensionalität der Daten und die Vielzahl der Anwendungsbereiche (Zitat): Zuerst komprimieren wir hochdimensionale Daten in einen viel kompakteren latententen Einbettungsraum, in dem bedingte Vorhersagen einfacher zu modellieren sind. Zweitens verwenden wir leistungsfähige autoregressive Modelle in diesem latenten Raum, um Vorhersagen für die Zukunft zu treffen.
Schließlich verlassen wir uns auf Schätzungen aufgrund von Rauschkontrasten für die Verlustfunktion in ähnlicher Weise wie für das Erlernen von Worteinbettungen in natürlichsprachliche Modelle verwendet, wobei das gesamte Modell berücksichtigt wird um es durchgehend zu schulen. Das resultierende Modell, Contrastive Predictive Coding (CPC), wenden wir an auf unterschiedlichste Datenmodalitäten, Bilder, Sprache, natürliche Sprache und Verstärkungslernen an und zeigen, dass der gleiche Mechanismus interessante Informationen auf hoher Ebene über jede dieser Domänen lernt und dabei
andere Ansätze übertrifft.
Neural Arithmetic Logic Units ist ein DeepMind-Projekt, welches aus einer Schwäche von neuronalen Netzen motiviert ist: Diese können mit Zahlen nicht umgehen, sondern sie behandeln etwa die Zahl 42 ähnlich wie das Wort “Maus”. In ihrem Projekt erhalten tiefe Netze eine Art arithmetisch/logische Einheit, welche es den Netzen erlaubt numerische Abschätzungen zu machen und sogar zu rechnen, indem sie einfach testen, ob man mit vorgegebenen Operationen wie Addition/Multiplikation etc. die Daten sinnvoll miteinander in Verbindung bringen kann. (Zitat aus Zusammenfassung): Experimente zeigen, dass NALU-erweiterte neuronale Netze lernen können, die Zeit zu verfolgen, Zahlenbilder zu arithmetisieren, numerische Sprache in realwertige Skalare zu übersetzen, Computercode auszuführen und Objekte in Bildern zu zählen. Im Gegensatz zu herkömmlichen Architekturen erreichen wir eine wesentlich bessere Verallgemeinerung sowohl innerhalb als auch außerhalb des Bereiches der numerischen Werte während des Trainings, die oft Größenordnungen jenseits der trainierten Zahlenbereiche extrapolieren.
@ Kommentatorenkollege ‘Herr Holzherr’ und nur hierzu :
Q: Was ist eigentlich hier gemeintes ‘Lernen’ ?
A: Die Fähigkeit eines erkennenden Subjekts, das sterblich ist, lebt sozusagen, möglicherweise Nachfolgeschaft kennt, so zu unterstützen, dass es sich in der Welt, in seiner Welt oder in dieser Welt, zurecht findet.
Sicherlich ist dieser Ansatz, dieses ganz kleine “Q&A” bemühend konstruktivistischer Bauart und sich am hier gemeinten Trockennasenaffen orientierend, abär vielleicht könnte doch derart zusammen gekommen werden, dass “Lernen” einen Sinn haben muss, dass Lernen kein Selbstzweck ist. [1]
—
Die Frage nach der Welt an sich, die Frage nach dem Sein des Denkens, das die Welt bestimmt, ohne Denken gäbe es – aus konstruktivistischer Sicht – keine Welt, weil die dbzgl. Begrifflichkeit fehlen würde, beantwortet Dr. Webbaer stets gerne so :
Aus konstruktivistischer Sicht exponiert sich Dr. Webbaer hier nur wenig, muss sozusagen nicht in der Zwangsjacke abgeführt werden, denn diese Aussage ist aus Sicht des Erkenntnissubjekts, das ein Weltteilnehmer (vs. Weltbetreiber) zu sein hat, zwingend, ließe sich hier nicht sinnhafterweise beitragen.
Johann Gottlieb Fichte hats ähnlich gesehen, allerdings unbeobachtet von Dr. Webbaer, ders so selbst formulieren konnte, in einem vglw. guten Moment, dennoch nicht unfroh war festzustellen, dass dies andere auch so konnten.
—
Ein geeignet angelegtes Programm, dass über Zufallsgeneratoren verfügt, wobei sie dann auf die sozusagen Schnittstelle Physik zuzugreifen haben, Zufall kann witzigerweise nicht gedacht werden, als ihn erzeugend, kann sozusagen ‘autodidaktisch lernen’.
Wenn es so einen Sinn sieht, sein eigenes Überleben betreffend, abär auch nur dann, wenn es die Begrifflichkeit des Lernens kennt und pflegt.
Soll heißen, tl;dr, die “AI” hat ein Instrument zu bleiben, und wenn es dies nicht bliebe, würde irgendetwas herauskommen, dem dann aber aus Sicht des Menschens nicht Lernen, Verständigkeit etc. zuzusprechen sein könnte.
MFG
Dr. Webbaer (der nun, in der Rückschau, doch sieht, dass der Konsum von SciFi in den Sechzigern und Siebzigern womöglich einiges gebracht hat, sofern nicht die Zwangsjacke kommt, natürlich nur >:-> )
[1]
Also, diese Maschine hat wohl irgendwie “gelernt”, ihr Fortkommen zu sichern, anscheinend dann letztlich nicht bestmöglich, abär ansonsten, neben diesem Jokus *, gibt es ja noch die “Gray Goo”-Theorie.
Hat “Gray Goo” gelernt?
Oder wäre nicht zuvor das Lernen an sich zu bestimmen? So dass gewusst, worüber sich ausgetauscht wird?
*
für den Fall, dass der Webverweis nicht funktioniert :
-> https://en.wikipedia.org/wiki/The_Doomsday_Machine_(Star_Trek:_The_Original_Series)
*
ließe sich hier nicht [anders] sinnhafterweise beitragen
**
und wenn [sie – so heißt es wohl d-sprachig] dies nicht bliebe
Zu M. Holzherr
“Das Denken ist viel reichaltiger als die Sprache…”
Stimme ich zu. Nehmen sie einen jungen Mann bei seinem ersten Date. Die innere Erregung in ihm,vorausgesetzt die Frau spricht ihn an, schafft die verschiedensten Gedankenformen und Gedankenexperimente mit dem Ziel der Eroberung. Dafür wählt er eine Sprache, die dieses Grundanliegen umsetzen soll. Die Sprache ist sozusagen Instrument des Denkens.Das Denken ist hier insofern reichhaltig, da es von Sinneseindrücken ,Denkmustern ,Erwartungshaltungen,Verhaltensnormen,
emphatischen Empfindungen vom Gegenüber und triebhaften Überlegungen moduliert wird.Sprache und Mimik werden zum “Köder” eines Denkens, was neben Plan A noch ein PLan B oder C oder D etc. durchspielen kann.
Schriftsteller wie H. Balzac konnten in ihrem Denken sogar tausende von Personen in ihren Büchern nacherleben und ihnen aus diesem Nach- Erleben eine ureigene Sprache geben.(Siehe “die Göttliche Komödie”)
Zitat Artikel: Aus dem Gelernten verallgemeinern können künstliche neuronale Netze auf jeden Fall. Deswegen haben sie die heutige Revolution in der Künstlichen Intelligenz (KI) eingeleitet.
Ja (aber), künstliche neuronale Netze können verallgemeinern im gleichen Sinn wie ein Mensch einen Freund auf einem Foto bei jeder Beleuchtung und sowohl mit Brille und Hut als auch ohne erkennt.
Doch letztlich gehört die zugehörige kognitive Leistung in den Bereich, der von Kahnemann (“Schnelles Denken, langsames Denken”) schnelles Denken genannt wird. Dabei reagiert unser Hirn praktisch unmittelbar. Selbst erlebt man das als Wiedererkennen und als unmittelbar sich einstellende Assoziation, wenn man etwas sieht oder denkt. Künstliche neuronale Netze, wenn einmal trainiert, reagieren auf eine Eingabe genau so unmittelbar und automatisch indem sie den besten Output für die aktuellen Eingabedaten erzeugen. Dies ist eine Art Interpolationsprozess wie man in der Mathematik kennt, wo ebenfalls für eine Eingabe aber fehlendem bekannten Funktionswert, die bekannnte Funktionswerte aus der “Nachbarschaft” des gesuchten verwendet werden um zum besten, eben interpolierten Resultat zu kommen.
Diese Art unmittelbar zu Denkresultaten zu kommen gehört für Daniel Kahnemann zum schnellen, unmittelbaren, intuitiven, instinktivem Denken. Das analytische Denken, das wir als “Nachdenken” erleben, ist demgegenüber langsam. Nachdenken, also analytisch Denken können künstliche neuronale Netze bis jetzt nicht. Besser gesagt bis vor kurzem konnten sie es nicht. Das DeepMind-Projekt Differentiable neural computer hat das geändert. Differentiable neural computer (DNC) ist ein neuronales Netz welches über ein Gedächtnis verfügt in dem Inhalte neu anlegen, updaten und wieder löschen kann wobei nicht festgelegt ist wie das genau passiert und für welche Inhalte. DNC lernt über erfolgreich gelöste Aufgaben und Belohnungserfolg wie es sein Gedächtnis am besten einsetzt und was es wie genau dort speichert. Auch die von DeepMind zu DNC bereitgestellte Information geht auf das Verhältnis von langsamem und schnellen Denken und heutigen neuronalen Netzen ein. Dort liest man nämlich (übersetzt von DeepL): Neuronale Netze zeichnen sich durch Mustererkennung und schnelle, reaktive Entscheidungsfindung aus, aber wir fangen gerade erst an, neuronale Netze aufzubauen, die langsam denken können – also bewusst oder vernünftig mit Wissen umgehen können. Wie könnte beispielsweise ein neuronales Netz Erinnerungen für Fakten wie die Verbindungen in einem Verkehrsnetz speichern und dann logisch über sein Wissen nachdenken, um Fragen zu beantworten? In einem aktuellen Beitrag haben wir gezeigt, wie sich neuronale Netze und Speichersysteme zu Lernmaschinen kombinieren lassen, die Wissen schnell und flexibel speichern können. Diese Modelle, die wir differenzierbare neuronale Computer (DNCs) nennen, können von Beispielen lernen (wie neuronale Netzen), aber auch komplexe Daten wie Computer speichern.
Mit diesem Ansatz konnte ein DNC-System etwa basierend auf einer Untergrundbahnkarte etwa sagen wie man OxfordCircus nach Moorgate kommt, wo man umsteigen muss etc. oder es konnte Informationen zu Verwandtschaftsverhältnissen intern zu einem Ahnenbaum aufbauen und dann Fragen dazu beantworten.
Fazit: Um das Geheimnis des Denkens zu entschlüsseln müssen wir sowohl das Geheimnis der rein reaktiven Entscheidungsfindung (langsames Denken) als auch das Geheiminis der analytischen Entscheidungsfindung (schnelles Denken) enträtseln. Es gibt DeepMind-Projekte, die nun auch letzteres angehen.
Martin Holzherr: “In einem aktuellen Beitrag haben wir gezeigt, wie sich neuronale Netze und Speichersysteme zu Lernmaschinen kombinieren lassen, die Wissen schnell und flexibel speichern können. Diese Modelle, die wir differenzierbare neuronale Computer (DNCs) nennen, können von Beispielen lernen (wie neuronale Netzen), aber auch komplexe Daten wie Computer speichern.
Mit diesem Ansatz konnte ein DNC-System etwa basierend auf einer Untergrundbahnkarte etwa sagen wie man OxfordCircus nach Moorgate kommt, wo man umsteigen muss etc. oder es konnte Informationen zu Verwandtschaftsverhältnissen intern zu einem Ahnenbaum aufbauen und dann Fragen dazu beantworten.
Fazit: Um das Geheimnis des Denkens zu entschlüsseln müssen wir sowohl das Geheimnis der rein reaktiven Entscheidungsfindung (langsames Denken) als auch das Geheiminis der analytischen Entscheidungsfindung (schnelles Denken) enträtseln. Es gibt DeepMind-Projekte, die nun auch letzteres angehen.”
Jaromir: Wohl fragen sich mittlerweile viele KI-Forscher, wie sie aus dem Gefängnis des Lösens einer einzigen Aufgabe bei künstlichen neuronalen Netzen herauskommen. So wie Sie oben DeepMind zitieren:
“Wie sich neuronale Netze und Speichersysteme zu Lernmaschinen kombinieren lassen, die Wissen schnell und flexibel speichern können.”
Die große Frage ist dabei aber, wie komplex die Kombinationen der künstlichen Netze sein müssen, damit sie sich in ihrer Funktion tatsächlich dem menschlichen Gehirn nähern. Vorläufig lernen die Maschinen ganz anders als Menschen. Der Mensch braucht nicht Abertausende von Daten, um eine fremde Katze als Katze zur erkennen. Eine Mutter erkennt ihr Kind in den unmöglichsten Verkleidungen und Situationen. Ein künstliches neuronales Netz ist schon mit der kleinen Änderung der Parameter unterhalb der Sichtbarkeitsgrenze überfordert.”
Dr. Webbaer, schnell denkend, sozusagen, tauscht gerne aus :
Das schnelle Denken darf, auf Basis der Informationstechnologie mit dem langsamen verwechselt werden.
Auch beim hier gemeinten Nasentrockenaffen ist nicht ganz klar, was gemeint ist.
Dr. W schlägt insofern vor zwischen Reflex und (gar besonderer) Kontemplation (das Fachwort) zu unterscheiden, blöderweise ist bereits zeitgenössische IT hier so schnell, in der Ausführung, dass es selbst Dr. Webbaer zu schnell wird.
Also, Dr. Webbaer schlägt alternativ vor, anzunehmen, dass kompetitive (!) Verständigkeit auch seitens oder mit Hilfe der oben genannten Informationstechnologie mittlerweile implementierbar ist, also derart anzunehmen.
So wie der Webbaer weiß werden diese Systeme abär auf bestimmte Problematiken hin trainiert, können nicht pro-aktiv sozusagen hervorkommen.
Dr. W findet diesen Unterschied zentral.
Das “Geheimnis des Denkens” findet sich insofern, aus Webbaerscher Sicht, in der Fortpflanzung und generell im Sozialen (das auch sog. Diskurse anleiten darf, in wohl gepflegtem Rahmen).
Das “Geheimnis des Denkens” findet sich insofern, auf Individuen bezogen, im Ich-Sein selbst, nichts gegen allgemeine Rechenfähigkeit, diese Welt bedarf schon se-ehr großer Rechenleistung, im Betrieb, abär im Kleinen sozusagen wird das Individuum in der Bestimmung dessen, was ist nicht abzuhängen sein.
MFG + schönen Tag des Herrn noch,
Dr. Webbaer
*
was nicht abzuhängen ist (so klingt es womöglich ein wenig cooler, Dr. W war in den letzten fünfzehn Jahren vielleicht vier Wochen vor Ort, in der BRD)
Antworten
Jaromir Konecny
Vielleicht brauchen wir diese magnetische Artikel auch jetzt zur Orientierung im Raum. Manche Menschen mehr, manche weniger, manche nicht mehr.
Mein Sohn zum Beispiel orientiert sich im Gelände viel besser als ich. 🙂
Haben Sie eine Idee dazu?
Hallo zusammen,
hab dazu was gesehnen (Doku zu 6. Sinn) von einem Test mit 2 Personen die magnetisch abgeschirmt waren und durch ein Kabel verbunden wurden, als der eine an was gedacht hat wurde beim anderen ein Lichblitz erkennbar. (komplett dunkeln Raum)
Auch das Gefühl ich werde beobachtet (begutachtet) soll davon kommen dass wir das Magnetfeld der Erde und Personen dadrin unbewusst wahrnehmen (gerade wenn wir von Paarung/Gefahr reden könnte es von Vorteil sein dies wahrzunehmen).
Gruß Jürgen
Jürgen S.: “Vielleicht brauchen wir diese magnetische Artikel auch jetzt zur Orientierung im Raum. Manche Menschen mehr, manche weniger, manche nicht mehr. Mein Sohn zum Beispiel orientiert sich im Gelände viel besser als ich. 🙂 Haben Sie eine Idee dazu?””
Jaromir: Dazu fällt mir nur ein, dass wenn ich irgendwo in der Stadt meinen Sohn aussetze, ist er zu Fuß zu Hause früher, als ich mit dem Auto. 🙂
Die höchsten Sprachleistungen von Deep Learning-Systemen sind heute in BERT (Bidirectional Encoder Representations from Transformers) vereinigt. BERT erscheint vielen Anwendern als sehr sprachkompetent. Eine typische Fähigkeit von BERT ist die Satzvervollständigung: Leerstellen in Sätzen können von BERT mit Worten ausgefüllt werden, die verblüffend gut an die jeweilige Stelle passen.
Doch nun kommt der Haken: BERT versteht den Inhalt der scheinbar kompetent verwendeten Sprache kaum. BERT kann beispielsweise nicht den Satz ergänzen: Fünf plus Sieben gibt x, er kann also nicht rechnen. Er kann aber auch sonst kaum eine Schlussfolgerung ziehen, die über den rein sprachlichen Bereich hinausgeht. In meinen Augen bedeutet das, dass BERT den Anwender täuscht. BERT entspricht einem Menschem, den man zur Zeit der Aufklärung Salonidioten genannt hat: Er kann mitmachen/mitdiskutieren im Salon, aber nur weil er Worte und Sätze einigermassen richtig verwendet. Bohrt man tiefer findet man nichts.
BERT steht damit in Situationen wie dem selbstfahrenden Fahrzeug, das vom Passagier Befehle erhält, auf verlorenem Posten. BERT taugt auch nichts als Haushaltshilfe: Man kann ihm keine mündlichen Anweisungen geben, denn er versteht sie nicht.
Echt sprachkompetente Systeme dagegen müssen gerade in einem Umfeld ihre Stärken zeigen, wo es darum geht, Sprache in Aktionen umzusetzen. Man spricht in diesem Zusammenhang auch von Grounded Language – also von in der Realität verankerter Sprache. Der DeepMind-Foliensatz Learning Language by Grounding Language
behandelt das Thema. Letztlich geht es darum, dass Sprache etwas mitteilt, was beispielsweise einer Situation in unserer räumlichen Umwelt entspricht oder was eine Beziehung zwischen Personen oder zwischen Personen und ihrem Umfeld zum Ausdruck bringt. Nicht die Sprache selbst ist so gesehen das Hauptproblem, sondern vielmehr die Abbildung einer realen Situation in eine sprachliche Mitteilung oder die Umsetzung einer sprachlichen Äusserung in eine Handlung.
Fazit: Sprache schafft ihre eigene Welt um Umgebung. Ihre Wurzel aber hat sie als Medium der Mitteilung von Geschehnissen in der Realität. Nur wenn AI-Systeme die Verbindung zwischen Sprache und Realität herstellen können, nur dann verstehen sie Sprache wirklich. Dazu genügt es nicht, wenn AI-Systeme chatten können, dazu müssen sie vermittelt über Sprache Folgern und Handeln können.
Von Denken und Sprechen im menschlichen Sinne sind heutige AI-Systeme immer noch weit entfernt.
Grund 1: Heutige AI-Systemen, die natürliche Sprache verarbeiten fehlt die richtige Kombination von Kurz- und Langzeitgedächtnis, die sie beispielsweise befähigen würde, nach dem Durchlesen eines hundertseitigen Romanes Fragen zu den Hauptfiguren, ihren Beziehungen untereinander und ihrer Entwicklung zu beantworten. Zwar gibt es für diese Aufgabe spezialisierte Systeme, doch es gibt keine Systeme, die sowohl zu Dialog, Fragen-/Antwort-Aufgaben und zum Memorieren und Verarbeiten ganzer Bücher fähig sind. Es fehlt also die sprachlich/gedankliche Breite, die einen Menschen befähigt, ein mentales Modell eines ganzen hundertseitigen Romans (oder eines anderen Buches) aufzubauen.
2. Grund: Heutige AI-Systemen, die natürliche Sprache verarbeiten, sind zwar sprachlich erstaunlich kompetent, verstehen aber den Inhalt kaum. Dies zeigt sich dann, wenn beispielsweise Roboter sprachliche Anweisungen erhalten wie etwa “Bring mir das Bier welches hinter dem Kühlschrank steht”. Solche eine Anweisung, geschweige denn ganze Folgen von solchen Anweisungen, können heutige sprachgesteuerte Roboter nur sehr schlecht bewältigen.
Zu 1) Sprachverständnis mit inhaltlichem (verarbeitet, komprimiert) Langzeitgedächtnis wird im Deep-Mind-Artikel A new model and dataset for long-range memory angegangen. Als neuen Textverständnis-Test schlagen sie einen neuen Benchmark vor, den sie PG-19 nennen und der 28’000 praktisch unveränderte Bücher aus dem Projekt Gutenberg enthält (unbeschränktes Vokabular).
Als Methode um diese Bücher zu verarbeiten schlagen sie ihre selbst entwickelte Methode namens Compressive Transformer vor. Ein Compressive Transformer arbeitet wie ein normaler Transformer, er merkt sich also im Kurzzeitgedächtnis Dinge, auf denen er seine Aufmerksamkeit gerichtet hat. Anders als ein normaler Transformer, vergisst er aber diese Information auch nicht nach langem Nicht-Gebrauch, sondern er speichert sie nach langem Nicht-Gebrauch in komprimierter Form um irgendwann dann noch darauf zugreifen zu können.
Zu 2) Der Arxiv-Artikel Learning Object Placements For Relational Instructions by Hallucinating Scene Representations stellt eine Trainingsumgebung und eine Methode für das Verstehen von räumlichen Relationen (z.B.:”Setze den Becher rechts vom Krug ab”) vor, welche nicht mehr wie frühere Ansätze eine 3D-Umgebung benötigt, sondern die allein mit Fotos arbeiten kann, was das Training stark vereinfacht. Das so trainierte Programm fügt das zu bewegende Objekt dann virtuell an die richtige Stelle und erhält über eine Bounding Box die Bestätigung ob die Platzierung richtig war oder nicht.