Künstliche Intelligenz, künstliche Dummheit und der gesunde Menschenverstand
Gleich an den Anfang dieses Beitrags über das Lernen von Menschen und Maschinen gehört eine kurze Begriffsklärung: Unsere heutige Künstliche Intelligenz (KI) sind künstliche bzw. tief lernende neuronale Netze (KNN). KNN gehören zum maschinellen Lernen bzw. Maschinenlernen, und das wiederum ist eine Unterabteilung der „Künstliche Intelligenz“-Forschung. Deswegen müssten im Titel nach dem Wort „künstliche“ die Wörter „Intelligenz“ und „Dummheit“ in Anführungsstrichen stehen, denn echte Intelligenz und echte Dummheit können immer noch nur natürlich sein. Künstliche neuronale Netze sind nicht intelligent. Sie werden auf eine Aufgabe hintrainiert, und diese lösen sie dann meist mit Bravour – dumm sind sie also auch nicht. Deswegen verwende ich weiter im Text eher den Begriff KNN, und KI selten, meist aber auch nur im Sinn von KNN. Weil der Begriff heutzutage nun mal so verwendet wird.
Jetzt aber zum eigentlichen Thema dieses Beitrags: Wie lernen wir und wie lernen künstliche neuronale Netze? Lernen sie anders als wir? Manchmal liefern KNN absurde Ergebnisse. Nicht einmal ein Kleinkind würde ein Nilpferd mit einem Lastwagen verwechseln – ein KNN schon. Warum kann ein Mensch, aber auch ein Tier, unbekannte Situationen viel besser einschätzen als jede noch so gut trainierte Maschine? Sogar der Fadenwurm mit seinen nur 302 Neuronen?
Trotzdem bestimmt ein „angelerntes“ KNN 50 verschiedene Augenkrankheiten nur durch die Analyse von Augen-Scans besser als jeder Augenarzt, obwohl das künstliche Netz keine Ahnung von Augenkrankheiten hat – es kann nur Muster erkennen. Die Sehkraft beurteilen kann das Netz jedoch nicht. Der Augenarzt kann das. Warum blickt der Mensch viel weiter als die Maschine?
„Deine künstliche Intelligenz ist ganz schön dumm“, sagte Lucie, eine Bekannte, als ich ihr wieder einmal klar machen wollte, dass nur noch künstliche Intelligenz uns retten konnte: Vor Krankheiten und Umweltzerstörung und Kriegen und Ungerechtigkeit und Hunger und Terror und Machtmissbrauch und Rassismus und Flucht, kurz gesagt: Vor uns selbst.
„Wieso ist künstliche Intelligenz dumm?“, fragte ich, und Lucie erzählte mir das berühmte Panzer-Märchen, in dem ein künstliches neuronales Netz grotesk versagt habe. Gerade gestern habe sie davon in der Süddeutschen gelesen.
In einer Variante dieser urbanen KI-Legende soll Pentagon bei KI-Forschern ein künstliches neuronales Netz bestellt haben, das in der Natur getarnte Panzer anhand von Satellitenfotos entdecken würde: Die Forscher haben ihr neuronales Netz mit jeweils 50 Fotos von getarnten Panzern trainiert, und mit 50 Fotos mit Landschaft ohne getarnte Panzer, damit das Netz immer getarnte Panzer erkenne, auch auf Fotos, die es noch nie gesehen habe.
Bei einem solchen Panzer-Erkennungs-Training wird dem Netz bei jedem Durchlauf der Signale (der Tonwerte eines Bildes) gesagt, um welches Bild es sich handele: Mit Panzern oder ohne Panzer.
Nach dem Training wurde das Netz mit weiteren 50+50 Fotos getestet, ob’s auch unbekannte Fotos gut einordnen könne. In der Testphase erkannte das Programm auf jedem unbekannten Foto richtig, ob darauf ein getarnter Panzer war, oder nicht. Das so fertig trainierte künstliche Netz wurde ans Pentagon geleitet, doch kam es bald zurück: Die Generäle konnten damit keine Panzer erkennen.
Lange grübelten die Forscher, bis man den Fehler fand: Die 100 Fotos mit Panzern für die Training- und die Test-Phase habe man beim schönen Wetter geschossen, die 100 Fotos ohne Panzer beim schlechten Wetter. Statt die Fotos in eine Klasse mit Panzern und eine ohne Panzer einzuteilen, wie die Forscher gehofft hatten, hat das Programm die Fotos nach dem Wetter getrennt – nach Schönes-Wetter- und Kein-Schönes-Wetter-Fotos. Da alle Panzer beim schönen Wetter fotografiert wurden, zeigte die Testphase keine Fehler.
Quelle: https://github.com/kyle-dorman/bayesian-neural-network-blogpost
Der Autor und unabhängige Forscher Gwern Branwen entlarvte in seinem Artikel The Neural Net Tank Urban Legend das Panzer-Märchen akribisch: Nicht nur an dem kleinen Datensatz von 200 Fotos kann man sehen, dass unsere heutigen „Convolutional Neural Networks“ (CNNs), die in der Bilderkennung eingesetzt werden (also auch in der Panzererkennung 😊), diesen Fehler nicht machen könnten: Für ein solches Training nimmt man Zehntausende bis Hundertausende Fotos. Auch die Unterscheidungsmerkmale „schlechtes Wetter – sonniges Wetter“ sprechen gegen die Echtheit der Geschichte. Künstliche neuronale Netze lernen eher klare Strukturen und Konturen (Kanten, Ecken, Quadrate usw.) zu unterscheiden als die Helligkeit der Bilder, die vom Wetter herstammt. Trotzdem warnen die Medien mit diesem Märchen weiterhin vor der Unberechenbarkeit der künstlichen Intelligenz.
Wahre Geschichten über falsche oder inhumane Entscheidungen von künstlichen neuronalen Netzen gibt es aber genug. Berühmt ist die echte Geschichte über das KNN von Google, das Schwarzafrikaner als Gorillas klassifizierte: Während der Lernphase hat das Programm für die Klasse „Mann“ nur weiße Männer vorgesetzt bekommen. Schwarze kannte es nicht. Hier sieht man, wie wichtig der richtig vorbereitete Datensatz für das Anlernen einer Maschine ist. Ein KNN wird von Menschen programmiert und trainiert. Falsche Entscheidungen treffen wir ständig.
In seinem ansprechenden Buch über GOFAI (Good Old Fashioned Artificial Intelligence), also über die „echte“ allgemeine künstliche Intelligenz, Common Sense, the Turing Test, and the Quest for Real AI zitiert der kanadische Informatiker und KI-Experte Hector J. Levesque den KI-Pionier John McCarthy, der 1958 in seinem bahnbrechenden Artikel Programms with Common Sense schrieb:
„Deswegen sagen wir, dass ein Programm den gesunden Menschenverstand (common sense) hat, wenn es automatisch für sich selbst eine ausreichend breite Klasse von unmittelbaren Konsequenzen schlussfolgert, über alles, was es sagt und was es bereits weiß.“
Besitzen künstliche neuronale Netze zumindest ansatzweise etwas, was man als gesunden Menschenverstand bezeichnen würde? Oder anders gefragt: Kann man künstlichen neuronalen Netzen den gesunden Menschenverstand beibringen? Zuerst sollte ich aber klären, wie wir bzw. Tiere und wie Maschinen lernen. Was ist das Lernen eigentlich?
Beim Lernen wandelt man seine Erfahrung in Wissen und Kompetenz um – durch die Erfahrung von etwas wird man zum Experten darin. Selbstverständlich nur dann, wenn man sein Wissen richtig vernetzen und anwenden kann. Und wenn man überhaupt lernen will:
Aber auch Gelerntes kann Tiere oder Menschen auf Irrwege führen, wie die Autoren in einem der besten Bücher über die mathematischen Grundlagen des maschinellen Lernens Understanding Machine Learning: From Theory to Algorithms (Vorsicht! Viel Mathematik!) anführen: Ratten zum Beispiel kosten zuerst ein Stück des Köders, den sie finden. Wenn das Stück schlecht riecht oder schmeckt oder Übelkeit verursacht, verschmähen die Tiere den Rest. Später meiden sie solche Speisen. Die Ratten haben also gelernt, sich an eine Umwelt voller vergifteter Köder anzupassen.
Wenn man Ratten aber im Labor nach dem Fressen eines schmackhaften Köders Stromschläge verpasst, bringt diese Quälerei sie nicht davon ab, den gleichen Köder auch nächstes Mal zu verspeisen. Aufgrund ihrer Erfahrung können sie Speisen nur mit Geruch und Geschmack verbinden, nicht mit Stromstößen. Und hier täuscht die Erfahrung sie auch nicht, denn für die meisten Ratten ist es unwahrscheinlich, von verrückten Wesen in weißen Kitteln und Schutzhandschuhen mit Stromstößen malträtiert zu werden, nur weil sie etwas Leckeres gefressen haben.
Doch Menschen und Tiere lernen auch absurdere Sachen, als Wetterfrösche zu spielen, statt getarnte Panzer zu entlarven, wie es das angebliche Pentagon-Netz tat. Der natürliche „Aberglaube“ trägt seltsame Blüten: In seinen klassischen Experimenten der Psychologie ließ B. F. Skinner hungernden Tauben jede 15 Sekunden Nahrung in ihre Käfige schütten. Dadurch entwickelten die Tauben ein übertriebenes „abgergläubisches“ Verhalten: Sie verstärkten zunehmend das, wie sie sich im Augenblick der Nahrungszufuhr verhielten: Wenn eine Taube in eine Ecke des Käfigs in den Boden gepickt hatte, als die Nahrung kam, pickte sie dann die ganze Zeit in den Eckenboden, um weitere Nahrung zu bekommen, obwohl die Nahrung jede 15 Sekunden automatisch in den Käfig geschüttet wurde – egal ob die Taube in die Ecke gepickt oder nicht gepickt hatte. Sollten die Tauben bei der ersten Nahrungszufuhr eine zufällige Drehung vollgeführt haben, tanzten sie dann so die ganze Zeit.
Solche absurde Konditionierung konnte man auch bei Menschen beobachten. Wer hat noch nie etwas dreimal abgeklopft? Wer kennt nicht die Anekdote über den Quantenphysiker Niels Bohr, den mal Wolfgang Pauli wegen des Hufeisens über der Tür seines Landhauses gefragt haben soll, ob Bohr an solche Glücksbringer glaube: „Natürlich nicht“, antwortete Bohr. „Aber wissen Sie, Herr Pauli, es soll einem auch helfen, wenn man nicht daran glaubt.“
Trotz unseres Wissens verführt uns die Sucht nach schnellen und einfachen Lösungen oft zum „dummen“ Verhalten. Man ist auf einfache Lösungen aus, obwohl immer noch gilt: „Jedes komplexe Problem hat eine einfache Lösung, und die ist falsch.“ (Umberto Eco frei nach H. L. Mencken) Wenn KNN lernen sollen, muss ihre Aufgabe klar abgesteckt sein und auf richtigen Daten beruhen. Dann können KNN sehr große Datenmengen besser auswerten als jeder Mensch, da ein Computer nun mal schneller und mit viel mehr Daten rechnen kann.
Biologisch gesehen werden beim Lernen von Menschen und Tieren die vorhandenen Verbindungen (Synapsen) zwischen den Hirnzellen (Neuronen) gestärkt. Dabei müssen wohl die benachbarten Synapsen entsprechend geschwächt werden, wie MIT-Forscher unlängst entdeckten und als eine fundamentale Regel der Hirnplastizität bezeichneten. Aber auch ganz neue Verbindungen entstehen im Gehirn beim Lernen. Neue Verbände von Neuronen (natürliche neuronale Netze) schließen sich als Reaktion aufs Lernen zusammen, genauso wie neue Hirnaktivitäten sich in alten Neuronen-Verbänden entwickeln können. Außerdem leiten die Axone (Fortsätze der Neuronen) die elektrischen Signale zu den benachbarten Neuronen besser, wenn sie gut in Myelin (Biomembran mit viel Lipidgehalt) verpackt sind als die nicht gut Verpackten, und das beeinflusst wiederum die Hirnaktivität in dem gegebenen Neuronenverband. All das findet entsprechend der berühmten Regel von Donald Hebb statt: „What fires together, wires together“:
Bereits am Bild von zwei verbundenen Neuronen kann man die Komplexität der natürlichen neuronalen Netze erahnen. Im menschlichen Gehirn gibt es 76 Milliarden solche Neuronen mit etwa 1 Billion Verbindungen dazwischen. Bildquelle/Credit: Simple Biology
So komplex sind und lernen künstliche neuronale Netze nicht, auch wenn sie dem natürlichen neuronalen Netz im Gehirn rudimentär nachgebildet sind. Dabei ist jedes Neuron einer Netz-Schicht meist mit allen Neuronen der benachbarten Schichten verbunden. Als Grundlage dafür dient das Perzeptron-Model von Frank Rosenblatt bzw. eine Weiterentwicklung davon, das Multilayer-Perzeptron, das bewiesenermaßen ein universeller Klassifizierer ist, also lernen kann, Objekte in Klassen einzuteilen, zum Beispiel Äpfel von Birnen zu unterscheiden.
Mehrschichtiges Perzeptron (multilayer perceptron). Quelle: Wikimedia Commons. Autor: Sky99 – Own work, CC BY-SA 3.0
Wenn künstliche neuronale Netze lernen, werden nur die Verbindungen zwischen den Neuronen (Knoten im Netz) gestärkt, beziehungsweise geschwächt, keine anderen Prozesse finden statt wie im Gehirn, zumal die Neuronen eines künstlichen Netzes nur Punkte sind, durch die Signale laufen. Die Neuronen im Gehirn dagegen sind kleine autonome Fabriken, sie produzieren ständig Enzyme, Hormone, Neurotransmitter und Unmengen andere funktionelle Proteine (siehe oben). Diese beeinflussen wiederum die Aktivität ihres Neurons und somit des ganzen Neuronenverbands.
Nach jedem Durchlauf der Signale durch ein künstliches neuronales Netz werden den Verbindungen darin neue Gewichte zugewiesen – abhängig davon, wie diese Verbindungen zum guten Ergebnis während des Trainings des Netzes beitragen. Das Gewicht der Verbindung, die von einem Neuron zu einem anderen ausgeht, bestimmt also die Stärke des Signals dieses Neurons. Die anderen oben erwähnten biologischen Prozesse im Gehirn werden beim maschinellen Lernen vernachlässigt.
Am überwachten Lernen (supervised learning) kann man die Lernprozedur für ein künstliches neuronales Netz grob aber hoffentlich verständlich erklären: Indem ein künstliches neuronales Netz lernt, versucht es im Grunde, eine Funktion zu finden, die am besten die Abhängigkeit der Ausgabewerte (Output) des Netzes von seinen Eingabewerten (Input) beschreibt.
Zum Beispiel wollen wir mit Hilfe von historischen Wetterdaten Temperatur vorhersagen. Beobachtet und aufgeschrieben wurden in den letzten 150 Jahren an diversen Orten Temperatur, Druck, Windgeschwindigkeit und Luftfeuchtigkeit. Während des Trainings werden ins Netz Druck, Windgeschwindigkeit und Luftfeuchtigkeit als Eingabewerte zu einer bestimmten Temperatur gespeist. Dem Netz wird einfach bei jedem Durchlauf dieser Eingabewerte gesagt, welche Temperatur dabei herauskommen solle (der Temperatur-Zielwert). Das ist die Überwachung dabei.
Die Verbindungen zwischen den Neuronen des künstlichen Netzes werden am Anfang rein zufällig gewichtet. Druck, Windgeschwindigkeit und Luftfeuchtigkeit werden also ins Netz eingegeben, durchs Netz propagiert und liefern als Ausgabe einen Temperaturwert. Dieser „berechnete“ Temperaturwert unterscheidet sich aber von unserem gewünschten Zielwert der historischen Temperatur, der den historischen Eingabe-Werten für Druck, Windgeschwindigkeit und Luftfeuchtigkeit entspricht. Aus der Differenz zwischen den Ausgabewerten und den entsprechenden gewünschten Zielwerten stellt man eine Fehlerfunktion auf, die eigentlich Kostenfunktion heißt (cost function).
Das Minimum der Kostenfunktion, also den kleinsten Fehler, versucht man mit mathematischen Methoden (Gradientenabstieg) zu bestimmen: Je kleiner diese Funktion, umso kleiner ist der Fehler zwischen den richtigen Zielwerten und den tatsächlichen Ausgabewerten, und umso besser beschreiben die Gewichte der Verbindungen zwischen den Neuronen, wie die Temperatur von Druck, Windgeschwindigkeit und Luftfeuchtigkeit abhängt.
Die so berechneten Gewichte werden den Verbindungen im Netz nach jedem Durchlauf von neuen Eingabedaten (Druck, Windgeschwindigkeit und Luftfeuchtigkeit) neu zugeordnet – der Fehler wird ins Netz zurückgeführt. Das heißt Fehlerrückführung bzw. Backpropagation of Error. Mit jedem neuen durchs Netz propagierten Datensatz optimiert das Netz seine Verbindungen immer mehr, bis der Fehler minimal ist und somit auch der Unterschied zwischen den gewünschten und den tatsächlichen Ausgabewerten. So lange, bis uns das Netz eine gute Temperatur-Prognose liefert: Das Netz hat gelernt, aus Druck, Windgeschwindigkeit und Luftfeuchtigkeit die Temperatur zu bestimmen.
Die Fehlerminimierung (Gradientabstieg) und Backpropagation of Error sind die mathematische Grundlage der meisten heutigen künstlichen neuronalen Netze. Das ist das Gemeinsame der KNN und der große Unterschied zwischen einem KNN und unserem Gehirn: das Gehirn braucht keine solchen Algorithmen, um Aufgaben zu bewältigen.
Die Minimierung des Netzfehlers mit Backpropagation setzt sich aus Unmengen kleiner Schritte zusammen: Man will das wirkliche globale Minimum der Fehlerfunktion finden, deswegen muss man sich ihrem Minimum in kleinen Schritten nähern, um nicht darüberzusteigen. Wie wenn man auf einer dunklen Straße seinen Schlüssel sucht, der einem aus der Tasche gefallen ist: Man muss den Boden Zentimeter für Zentimeter durchsuchen, nicht einmal hier und gleich einen Meter weiter springen.
Diese iterative Art des Lernens erfordert aber sehr viel Rechenleistung. Um zu lernen, auf einem Bild eine Katze zu erkennen, kann sich ein Computer schon heiß laufen. Im Vergleich dazu verbraucht unser Gehirn beim Lernen viel weniger Energie und lernt somit viel effizienter. Außerdem erfordert ein solches iteratives Lernen in kleinen Schritten sehr viele Daten: Ein Kind muss nur ein paar wenige Katzen im Leben gesehen haben, um später immer eine Katze als Katze zu erkennen. Das lernt ein KNN erst, wenn es hunderttausend Katzenbilder gesehen hat.
Somit haben wir überwachtes Lernen (supervised learning) abgehandelt. Es gibt noch zwei weitere grundlegende Arten des maschinellen Lernens: unüberwachtes Lernen (unsupervised learning) und bestärkendes Lernen (reinforcement learning – RL).
Beim unüberwachten Lernen weiß das Netz nicht, was es tun soll, ihm wird kein Zielwert gezeigt, zum Beispiel die tatsächliche Temperatur, die bei den entsprechenden Eingabewerten herrschte. Das unüberwachte Netz versucht stattdessen, in einem großen Datensatz Muster zu finden bzw. Objekte des Datensatzes in Klassen aufzuteilen.
Beim bestärkenden Lernen (RL) lernt das künstliche Netz durch eine direkte Interaktion mit der Umgebung und bekommt laufend Belohnungen für seine Aktionen, wird aber auch bestraft. Genauso wie wenn ein Kind lernt: Lächelst du die Mama den ganzen Vormittag schön an, bekommst du mittags ein Eis (Belohnung), auch wenn deine Mama normalerweise keine Süßigkeiten toleriert. Wenn du Stress machst, bekommst du Spinat (Bestrafung).
Ein RL-Netz wird für seine Handlungen z. B. mit +1 belohnt und mit -1 bestraft: Wenn man diesem Agenten (dem RL-Netz) beibringen will, ein Computerspiel zu spielen, in dem der Agent sich als Ritter durch eine Burg kämpfen muss, weiß der Agent, dass die meisten erreichten Punkte das Spiel gewinnen: Der Ritter hüpft von einer Wand zur anderen und wird dafür jeweils mit einem Punkt belohnt. Wenn er dabei abstürzt, wird ihm ein Punkt entzogen, und der Agent lernt so, beim nächsten Versuch die Falle zu meiden.
Anhand des Atari-Retrospiels „Montezuma’s Game“ konnten Rachit Dubey et al. schön zeigen, warum der Mensch einem künstlichen neuronalen Netz doch überlegen ist, wenn eine Aufgabe nicht klar eingegrenzt ist oder wenn etwas Neues und Überraschendes passiert. Und das beantwortet auch die am Anfang dieses Textes gestellte Frage: Worauf beruht der gesunde Menschenverstand, der uns hilft, unbekannte Situationen zu meistern?
„Warum sind Menschen sehr gut dabei, neue und komplexe Umgebungen zu erfassen?“, fragten sich Dubey et al.: Auch bei einem ihm unbekannten Computerspiel erfasst der menschliche Spieler innerhalb von ein paar Sekunden, was die Figur im Spiel als Nächstes tun solle. Soll die Figur über eine Hürde springen, eine Stufe hinaufspringen, durch eine Tür gehen? „Wo ist das Ziel?“, fragt sich ein Mensch gleich, wenn er eine Spielstellung sieht. Er bemerkt oben eine Tür und erfasst, dass die Figur sich zu dieser Tür hinbewegen sollte.
Ein RL-Netz fragt sich dagegen nichts, es macht nur einen Spielzug. Am Anfang einen ganz zufälligen aus allen möglichen Zügen. Erst durch die folgenden Belohnungen oder Bestrafungen lernt das Netz, Spielzüge zu bevorzugen oder zu meiden. Ein KNN braucht Tage und einige Millionen Spielstellungen, um ein neues Spiel zu lernen. Am Anfang des Spiels tappt es vollkommen im Dunkeln. Bevor das künstliche Netz gelernt hat, dass die Figur Richtung Ziel hinauf hüpfen solle, muss es stundenlang Belohnungs- und Strafpunkte sammeln.
Das Spiel eines menschlichen Spielers: Rechts ist das Originalspiel Montezuma’s Revenge zu sehen. Die Figur springt gerade und erreicht leicht die Tür oben. Links sieht man das Spiel, indem die Objekte verwischt wurden und der menschliche Spieler somit keine Vorkenntnisse nutzen kann. Die Figur ist jetzt das hellblaue rot eingekreiste Quadrat und bewegt sich überwiegend unten, schafft es nicht nach oben zur Tür. Quelle: Investigating Human Priors for Playing Video Games (Rachit Dubey et al.) – unter diesem Link sieht man, wie sich die Figur bewegt.
Hier ist der Unterschied zwischen einem menschlichen Spieler und einem KNN sofort ersichtlich: Der Mensch weiß, wozu Türen, Fenster und Stufen dienen und dass man über Hindernisse springen muss. Als die Forscher diese Objekte im Spiel tarnten, wurden die menschlichen Spieler zunehmend schlechter: Die Schlüssel und Türen wandelte man zu Quadraten gleicher Farbe zum Beispiel. Das künstliche neuronale Netz hatte dagegen kein Problem mit der „Tarnung“ der Objekte und spielte immer gleich gut, egal ob es Schlüssel und Türen sah oder einheitliche Quadrate.
Der Mensch bringt also in jede neue Situation eine Menge Vorkenntnisse mit (a priori Wissen), die ihm helfen, sogar scheinbar unzusammenhängende Sachen zu vernetzen und Probleme zu lösen. Diese Vorkenntnisse sammelt der Mensch im Laufe seines Lebens dank der Interaktion mit seiner Umwelt: Passiv als ein Teil dieser Umwelt, aber auch aktiv, wenn er bewusst Neues lernt.
Ein künstliches neuronales Netz dagegen hat keine Vorkenntnisse. Ein Netz kann viel besser als ein Mensch lernen, giftige von nicht giftigen Schlangen zu unterscheiden. Doch mir fällt beim Anblick einer Kreuzotter im Wald aufgrund meines Wissens sofort ein, dass ich ihr nicht zu Nahe kommen soll. Und auch wenn ich eine Kreuzotter von einer Blindschleiche nicht unterscheiden kann, weiß ich zumindest: Schlangen können giftig sein. So laufe ich besser auch vor einer Blindschleiche davon – sicher ist sicher. Der gesunde Menschenverstand eben.
PS: Unter diesem Link können Sie ein so geändertes Montezuma’s Revenge selbst durchspielen, in dem Sie ihre Vorkenntnisse nicht nutzen können. Sie merken sofort, wie schwierig das wird. Auf der verlinkten Seite gibt es unter den Spielen ein Video von „Arxiv Insights“, indem der oben genannte Artikel von Rachit Dubey et al. recht ansprechend erklärt wird.
Gute, allgemeinverständliche Übersicht über den Aufbau,das Training von Künstlichen Neuronalen Netzen und die verschiedenen Lernverfahren. Wie weit die Analogie zu natürlichen neuronalen Netzen, also zum Gehirn, trägt, scheint mir heute noch offen. Gary Marcus charakterisiert in seinem arxiv-Artikel Deep Learning: A Critical Appraisal folgendermassen: Neuronale Netze, insbesondere solche mit mehreren versteckten Schichten (daher der Begriff tief), sind bemerkenswert gut im Erlernen von Input-Output-Mappings.
In meinen Worten: Neuronale Netze finden scheinbar meistens die beste Funktion, welche verrauschte Eingabedaten einer bestimmten Klasse zuordnet. Erstaunlicherweise gilt das für sehr viele Anwendungsgebiete. Katzen kann ein neuronales Netz ebenso gut in einer Vielzahl von ganz unterschiedlichen Bildern erkennen wie bestimmte Partikel in den Milliarden von Kollisionen des Large Hadron Colliders (CERN) oder Phoneme in den Geräuschen, die ein Bayer oder Schotte produziert, wenn er etwas sagen will. Mit andern Worten: Künstliche Neuronale Netze sind Meister darin, aus Schall und Rauch Sinn zu generieren – wenn sie entsprechend trainiert wurden. Doch es ist kein tieferer, verständiger Sinn, sondern ein antrainierter Sinn, der nur in einem ganz bestimmten Zusammenhang funktioniert. Katzen werden also auf Bildern erkannt, wenn das so trainiert wurde. Das System weiss nach diesem Training aber so gut wie nichts über Katzen, sondern es weiss nur etwas über Katzenbilder. Und zwar nur über Katzenbilder, die unter den Bedingungen der Trainingsbilder entstanden. Schon mit photographischen Negativen hätte ein auf Katzen trainiertes Netz Schwierigkeiten.
Gemäss DARPA (Defense Advanced Research Projects Agency) ist Künstliche Intelligenz heute im Stadium des statistischen Lernens. Das nächste Stadium wäre die Anpassung an unterschiedliche Kontexte. Dazu gehören auch das Übertragen von Gelerntem auf einen leicht anderen Anwendungsbereich. Wer beispielsweise weiss, welche Flugeigenschaften ein Flugzeug abhängig vom Design hat, sollte auch die Flugeigenschaften eines Vogels einschätzen können. Ein Mensch kann das, ein künstliches neuronales Netz nur gerade, wenn es von vornherein so trainiert wurde.
Der grösste Unterschied zwischen natürlicher und künstlicher Intelligenz besteht heute aber darin, dass es heute keine künstlich intelligente Wesen gibt, sondern nur künstlich intelligente Anwendungen. Mit anderen Worten: Es gibt heute kein kein künstlich intelligentes Wesen, welches sich selbstständig in der Welt zurechtfinden kann, welches Erfahrungen macht, dazulernt und sich entwickelt. Nicht einmal auf der Stufe eines Hundes. Und es gibt auch kein gesichertes Wissen wie man so etwas erreichen könnte. Die Lösung könnte um die Ecke, aber auch noch Jahrzehnte entfernt liegen.
Martin Holzherr: “Gute, allgemeinverständliche Übersicht über den Aufbau,das Training von Künstlichen Neuronalen Netzen und die verschiedenen Lernverfahren. Wie weit die Analogie zu natürlichen neuronalen Netzen, also zum Gehirn, trägt, scheint mir heute noch offen. …”
Jaromir: Vielen Dank! In allen Anmerkungen haben Sie vollkommen recht. … Dass das Perzeptron dem natürliche neuronalen Netz zuerst rudimänter nachgebildet und gezeigt wurde, dass das Multilayer-Perzeptron lernen und universell klassifizieren kann, erstaunt mich immer noch. Hier haben wir auf jeden Fall eine Parallele zwischen künstlichen und neuronalen Netzen. Deswegen frage ich mich schon: Sollte man künstliche neuronale Netze (eher koplexe Überlagerungen von vielen solchen Netzen) bauen können, die sich gut mit Sensoren ausgestattet (Embodiment) innerhalb einer an Information reicher Umwelt entwickeln und Vorkenntnisse ansammeln würden, hätten sie dann so etwas wie den gesunden Menschenverstand? Oder müssen dafür ganz neue Algorithmen für künstlichen neuronalen Netze “erfunden” werden?
Martin Holzherr: “Gary Marcus charakterisiert in seinem arxiv-Artikel Deep Learning: A Critical Appraisal folgendermassen: Neuronale Netze, insbesondere solche mit mehreren versteckten Schichten (daher der Begriff tief), sind bemerkenswert gut im Erlernen von Input-Output-Mappings. In meinen Worten: Neuronale Netze finden scheinbar meistens die beste Funktion, welche verrauschte Eingabedaten einer bestimmten Klasse zuordnet.”
Jaromir: Beim Finden des besten Mappings, also der besten Funktion der Output- von den Inputwerten, muss der Mensch aber kräftig mithelfen. Vieles dabei ist Kunst: Wie viele Schichten? Wie viele Neuronen innerhalb der Schichten? Gute Daten, genug große Datensätze. Die Suche nach einem globalen Minimum der Kostenfunktion ist auch keine exakte Wissenschaft und die statistische Methodik aus Nähreungsverfahren und Annahmen genauso.
Die “Arxiv”-Datenbank ist eine richtige Fundgrube, was künstliche neuronale Netze angeht.
Die Lösung liegt um die Ecke, dennoch ist es zumindest für die Wissenschaften, die sich mit dem Gehirn und seiner Arbeitsweise, mit dem Denken und Verhalten und diejenigen, die sich mit Künstlichen Neuronalen Netzen beschäftigen, nicht möglich, zu ihr zu gelangen. Zunächst einmal arbeitet ein menschliches Gehirn vollkommen anders als ein KNN. Was die Sache einerseits schwieriger, andererseits einfacher macht ist, dass es zwei verschiedene Arten von “Informationsverarbeitung” gibt – entweder prädikativ-logisch oder funktional-logisch* -, wobei sich die jeweilige Arbeitsweise auf das Grundverständnis auswirkt, welches dem Wahrnehmen, Erkennen, Verstehen und Erleben der Welt auswirkt.
Der Unterschied zwischen menschlichem Gehirn und KNN liegt nicht in der Verschaltungsarchitektur oder der Signalverarbeitung oder was auch immer derzeit zugrunde gelegt wird. Die Natur arbeitet viel einfacher und zugleich viel raffinierter. Ihr genügt ein einzelnes Gesetz,von dem es zwei Varianten gibt (die prädikative und die funktionale), und ein Regelwerk, ebenfalls in zwei Ausfertigungen, mit immer gleichem Grundmuster. Ein Gehirn, das nach entweder der einen oder der anderen Gesetzesvariante aufgebaut ist und nach den dazugehörigen Regeln arbeitet, ist in der Lage, praktisch alles das zu leisten, was ein menschliches Gehirn eben leisten kann.
Wenn es gelingt, ein KNN zu entwickeln, dessen “Bauplan” auf einer dieser beiden Gesetzesvarianten beruht, dann würde ich mir ernstlich Sorgen machen, dass es tatsächlich gelingen könnte, ein intelligentes künstliches Wesen zu entwickeln.
*Ich habe mit Frau Schwanks Erlaubnis die Begriffe prädikativ und funktional übernommen, nachdem wir festgestellt hatten, dass wir von derselben Sache reden. Nur bleibt sie mit ihrem Modell innerhalb ihres mathematischen Fachbereichs, während mein Modell als kognitive Architektur ins Fachgebiet der Psychologen fällt.
Literatur:
Schwank, I. (1996): Zur Konzeption prädikativer versus funktionaler kognitiver Strukturen und ihrer Anwendung. ZDM-Analysenheft “Deutsche psychologische Forschung in der Mathematikdidaktik”. Zentralblatt für Didaktik der Mathematik. 6, 168-183.
Die dazu gehörigen PDF-Dateien findet man hier und
hier
@Jaromir Konecny (Zitat): 1) dass das Multilayer-Perzeptron lernen und universell klassifizieren kann, erstaunt mich immer noch.
2) Oder müssen dafür ganz neue Algorithmen für künstlichen neuronalen Netze “erfunden” werden?
Ja, ein Multilayer-Perzeptron ist gewissermassen ein total vereinfachter, reduzierter Nachbau von etwas natürlich neuronalem. Und es erbringt Leistungen, die wiederum an natürliche kognitive Leistungen erinnern. Doch möglicherweise täuscht diese Ähnlichkeit. Zumal wir nur wenig über höhere neuronale Leistungen wissen.
Ein anderer Ansatz will gar nicht neuronale Hardware nachbauen, sondern menschliches Verhalten, Denken und Fühlen wie es von kognitiven Psychologen erforscht wurde, nachbilden. Josh Tenenbaum vom Computational Cognitive Science lab at MIT will genau das: Er will ein künstliches Kind erschaffen, das lernt wie ein Kind (Zitat, übersetzt von DeepL): “Stell dir vor, wir könnten eine Maschine bauen, die wie ein Baby beginnt und wie ein Kind lernt”, sagte er. “Wenn wir das tun könnten, wäre es die Grundlage für künstliche Intelligenz, die tatsächlich intelligent ist, maschinelles Lernen, das tatsächlich lernen könnte.” Damit beginnt er allerdings quasi bei Null, denn wie man beobachtetes Kindsverhalten als Computerprogramm nachbaut, das wissen wir noch weniger als wie man interessante Leistungen aus künstlichen neuronalen Netzen herauskitzelt. Allerdings glaubt Tenenbaum, dass wir heute über kindliche Denkvorgänge und kindliche kognitive Prozesse schon einiges wissen – mindestens sehr viel mehr als zum Zeitpunkt als Künstliche Intelligenz als Disziplin gegründet wurde.
Martin Holzherr: “Ein anderer Ansatz will gar nicht neuronale Hardware nachbauen, sondern menschliches Verhalten, Denken und Fühlen wie es von kognitiven Psychologen erforscht wurde, nachbilden. Josh Tenenbaum vom Computational Cognitive Science lab at MIT will genau das: Er will ein künstliches Kind erschaffen, das lernt wie ein Kind (Zitat, übersetzt von DeepL): “Stell dir vor, wir könnten eine Maschine bauen, die wie ein Baby beginnt und wie ein Kind lernt”, sagte er. “Wenn wir das tun könnten, wäre es die Grundlage für künstliche Intelligenz, die tatsächlich intelligent ist, maschinelles Lernen, das tatsächlich lernen könnte.” Damit beginnt er allerdings quasi bei Null, denn wie man beobachtetes Kindsverhalten als Computerprogramm nachbaut, das wissen wir noch weniger als wie man interessante Leistungen aus künstlichen neuronalen Netzen herauskitzelt. Allerdings glaubt Tenenbaum, dass wir heute über kindliche Denkvorgänge und kindliche kognitive Prozesse schon einiges wissen – mindestens sehr viel mehr als zum Zeitpunkt als Künstliche Intelligenz als Disziplin gegründet wurde.”
Jaromir: Das wäre wohl dann auch der Ansatz von GOFAI, den ich im Blog kurz angesprochen habe. Ich bin aber von dem tiefen Lernen der heutigen künstlichen neuronalen Netze sehr fasziniert. Ich würde da gern weiter ausloten, ob die Natur die Eigenschaft der Netze, universelle Klassifizierer zu sein, nicht auch irgendwie verwendet. Das natürliche neuronale Netz im Gehirn ist ja ein Netz, und das wird schon seinen Sinn haben.
Selbstverständlich kann es sein, dass Rosenblatt sein Perzeptron nach dem Vorbild des Gehirns entwickelte und später gezeigt werden konnte, dass das Multilayer-Perzeptron ein universeller Klassifizierer ist, also verallgemeinern kann wie das Gehirn, diese zwei Sachen aber trotzdem ganz zufällig sind und nichts miteinander zu tun haben. Ich denke aber, das wäre dann zu viel Zufall.
“Das Gewicht der Verbindung, die von einem Neuron zu einem anderen ausgeht, bestimmt also die Stärke des Signals dieses Neurons….”
Ein eingehender Reiz wird “gewichtet” in dem eine Abklärung dieses Reizes auf der Basis des vorhandenen Wissens passiert. Starke Reize sind in der Regel stark emotional besetzt und Neuronenketten assoziieren entsprechende schnell ER-LEBNISSE. In der Evolution der Säugetiere ist diese LOGIK durch das implizite Gedächtnis vorgegeben.So handelt meiner Ansicht nach auch jeder Mensch aus Grund-Gefühlen heraus, die ihn vor und nach der Geburt geprägt haben.Das LERNEN folgt dem Schritt der Erkenntnis, dass wir Reize stets mit neuem Wissen bewerten.So wird der bestehende starke Reiz, der entsprechend mit Neurotransmittern wie Adrenalin oder Dopamin codiert wurde,durch die neue Erkenntnis abgeschwächt und wahrschweinlich mit erregungshemmenden Neurotransmittern besetzt. Das uns vormals gestresste und erregende Problem ist und somit gleichgültig geworden.
“Dummheit” in dem Sinne gibt es meiner Ansicht nach in der Natur/Evolution nicht.Es gibt nur Individuen, die in der Reizverarbeitung
zu langsam(bequem) oder nicht schnell genug sind(Definition Intelligenz). In der freien Natur bei Tieren wäre das Ergebnis fatal, dass diese Tiere zuerst gefressen werden.
Golzower: ‘“Das Gewicht der Verbindung, die von einem Neuron zu einem anderen ausgeht, bestimmt also die Stärke des Signals dieses Neurons….”
Ein eingehender Reiz wird “gewichtet” in dem eine Abklärung dieses Reizes auf der Basis des vorhandenen Wissens passiert. Starke Reize sind in der Regel stark emotional besetzt und Neuronenketten assoziieren entsprechende schnell ER-LEBNISSE. In der Evolution der Säugetiere ist diese LOGIK durch das implizite Gedächtnis vorgegeben.So handelt meiner Ansicht nach auch jeder Mensch aus Grund-Gefühlen heraus, die ihn vor und nach der Geburt geprägt haben.Das LERNEN folgt dem Schritt der Erkenntnis, dass wir Reize stets mit neuem Wissen bewerten.So wird der bestehende starke Reiz, der entsprechend mit Neurotransmittern wie Adrenalin oder Dopamin codiert wurde,durch die neue Erkenntnis abgeschwächt und wahrschweinlich mit erregungshemmenden Neurotransmittern besetzt. Das uns vormals gestresste und erregende Problem ist und somit gleichgültig geworden.’
Jaromir: Mein von Ihnen als erstes zitierter Satz bezieht sich aber auf das Lernen der künstlichen neuronalen Netze, ist also eine starke Vereinfachung des Lernvorgangs im Gehirn und keine Beschreibung davon, auch wenn man wohl bei den natürlichen neuronalen Netzen im Gehirn sagen kann, dass Synapsen “gewichtet” werden. Es scheint ja von MIT-Hirnforschern bewiesen zu sein, dass wenn die (Input)-Synapse eines Neurons gestärkt wird, die benachbarte Synapse geschwächt wird, damit es zu keinem Input-“Überlauf” kommt. Nur sind die Vorgänge im Gehirn sehr komplex, werden auch noch nicht ganz verstanden und können somit nicht so einfach beschrieben werden wie die Vorgänge in künstlichen neuronalen Netzen.
Ich finde aber Ihren Satz, “Ein eingehender Reiz wird “gewichtet” in dem eine Abklärung dieses Reizes auf der Basis des vorhandenen Wissens passiert.”, sehr interessant und muss den noch überlegen. Wie genau nehmen die bereits vorhandenen Verbindungen im Gehirn Einfluss auf das Herausbilden bzw. Stärken einer einzelnen Synapse Einfluss? Ich meine: Wie ist die Biochemie dahinter? Wir wissen, dass es hemmende Synapsen gibt und Rückkopplungen usw. Wie das aber genau funktioniert, ist noch nicht klar: Wie beeinflussen sich die einzelnen Neuronenverbände – biochemisch gesehen – gegenseitig?
Danke für den informativen Beitrag.
Interessant wird es, wenn KI lernen, über uns Menschen Witze zu machen. Dann könnte uns das Lachen vergehen.
Joseph Kuhn: “Danke für den informativen Beitrag. Interessant wird es, wenn KI lernen, über uns Menschen Witze zu machen. Dann könnte uns das Lachen vergehen.”
Jaromir: 🙂 Ich danke Ihnen!
Julia Taylor a Lawrence Mazlack von University of Cincinnati in Ohio haben ein künstliches neuronales Netz entwickelt, das Witze im Text finden und neue bilden soll. Leider liefert das Programm nur sehr einfache Witze. In der maschinellen Sprachverarbeitung (Natural Language Processing) gibt es aber große Fortschritte, da wird wohl – auch beim “Maschinenhumor” – auf uns noch Einiges zukommen.
Das grundlegende Problem bei der „technischen Nachbildung“ von „Intelligenz“ (eigentlich besser der Nachbildung der Informationsverarbeitung im neuronalen System) ist nun einmal dass man das „Empfindungsphänomen“ nicht versteht.
Man weiß nicht wie es auf die „Gewichtung“ der Signalweiterleitung Einfluss nimmt. Die elektrische Signalleitung sollte im Prinzip eigentlich, wie in der Technik auch, von den elektrischen „Impedanzen“ abhängen, die in der Biologie chemisch „realisiert“ werden.
Impedanzen bedeuten, dass nicht nur auf die Stärke der Stromflüsse Einfluss genommen wird, sondern dass auch besondere Phasenverhältnisse und allenfalls Resonanzen auftreten können. (Meine vage „Privatvermutung“: Je stärker die Resonanzen desto stärker die Empfindungen, von der Phasenlage hängt weiters ab, ob die Empfindung (lustvoll) angestrebt, oder (schmerzhaft) vermieden werden sollte.)
Die „Gewichtung“ ist bei biologischen Systemen stark, wenn die Signale „stark“ sind und viele (synaptische) Verknüpfungen in den neuronalen Verbänden abhängig vom Input auftreten.
Bei künstlichen elektrischen neuronalen Netzen werden letztlich Wahrscheinlichkeiten in den Inputmustern berechnet und ausgewertet. Komplexe Empfindungen werden nicht berücksichtigt, die allerdings bei lebenden biologischen Systemen bedeutsam sind.
Zitat Martin Holzherr: „Ein anderer Ansatz will gar nicht neuronale Hardware nachbauen, sondern menschliches Verhalten, Denken und Fühlen wie es von kognitiven Psychologen erforscht wurde, nachbilden. Josh Tenenbaum vom Computational Cognitive Science lab at MIT will genau das …“
Auch bei diesem Ansatz ist es nötig, zumindest auf ein realistisches „Empfindungsmodell“ aufzubauen und dieses algorithmisch abzubilden.
Ich bitte um Entschuldigung für die Besserwisserei, aber „Jedes komplexe Problem hat eine einfache Lösung, und die ist falsch“ ist nicht von Eco, sondern von Mencken.
Falschzitate
Mir fällt immer wieder auf, wie schwer es z.B. Schachprogrammen fällt, “schlecht” zu spielen – also auf dem Niveau eines durchschnittlichen menschlichen Spielers. Die Programme spielen einige Züge auf ihrem hohen Niveau und bauen dann – zum Teil groteske – Fehler ein. Liegt das daran, dass die Aufgabe nicht präzise genug beschrieben werden kann?
Gerald Fix: “Ich bitte um Entschuldigung für die Besserwisserei, aber „Jedes komplexe Problem hat eine einfache Lösung, und die ist falsch“ ist nicht von Eco, sondern von Mencken.”
Jaromir: Das ist keine Besserwisserei, das ist richtig. Danke für den Hinweis! Seit etwa 20 Jahren benutze ich das Zitat, denke aber immer noch, dass ich’s in einem Essay-Band von Eco gelesen habe. In dem verlinkten Artikel steht aber, dass Eco das Zitat von Mencken in “Das Foucaltsche Pendel” verwendet habe, in einem Buch, dass ich zweimal gelesen habe, also muss ich es von dort haben. Vielleicht hat’s Eco aber noch einmal in einem seiner Essay verwendet. Das kann auch sein.
Die geflügelte Form von Mencken lautet: “”Für jedes Problem gibt es eine Lösung, die einfach, klar und falsch ist.” (H. L. Mencken)
Eco schrieb in das “Foucaltsche Pendel”: “Wie sagte doch gleich, ich weiß nicht mehr, wer es war: Für jedes komplexe Problem gibt es eine einfache Lösung, und die ist die falsche.”
Ich muss zugeben, dass mir Ecos knappere Form mehr zusagt als die von Mencken, also: “Für jedes komplexe Problem gibt es eine einfache Lösung, und die ist die falsch.” Diese finde ich pointierter. Außerdem ist diese Form wohl etwas richtiger, bzw. hat eine etwas andere Semantik, denn meiner Meinung nach gibt es einfache Problem, die auch einfache und richtige Lösungen haben. 🙂
Ich werde das im Text aber dementsprechend ändern. Noch einmal vielen Dank!
Gerald Fix: “Mir fällt immer wieder auf, wie schwer es z.B. Schachprogrammen fällt, “schlecht” zu spielen – also auf dem Niveau eines durchschnittlichen menschlichen Spielers. Die Programme spielen einige Züge auf ihrem hohen Niveau und bauen dann – zum Teil groteske – Fehler ein. Liegt das daran, dass die Aufgabe nicht präzise genug beschrieben werden kann?”
Jaromir: Ich glaube, da müsste man zwischen den Algorithmen der Schachprogramme unterscheiden: Deep Blue, das Kasparov schlug, war ein “brut force”-Programm, also kein künstliches neuronales Netz (deep learning) bzw. keine künstliche Intelligenz. Auch alle folgenden Schachprogramme waren so. Eigentlich begann der Siegeszug des “Reinforcement Learning” der tief lernenden neuronalen Netze erst 2016 mit dem Sieg von AlphaGo über Lee Sedol. Die neuen Schachprogramme, die künstliche neuronale Netze sind, müssten viel geschmeidiger spielen. Ganz sicher bin ich nicht, weil ich mich mit den neuen Schachprogrammen nicht tiefer beschäftigt habe. Ich vermute aber, künstliche neuronale Netze spielen “natürlicher” als die alten Schachprogramme.
@Gerald Fix (Zitat): Mir fällt immer wieder auf, wie schwer es z.B. Schachprogrammen fällt, “schlecht” zu spielen
Das liegt daran, dass der Aufwand für ein Schachprogramm, welches Züge eines wohlmeinenden Mentors hat (der seinen Schüler auch mal gewinnen lässt und ihm dabei gar das Gefühl vermittelt, er sei ein guter Schachspieler) zu gross ist. Auch in der Informatik gibt es für viele Probleme entweder eine Standardlösung oder aber als Alternative einen neuen arbeitsaufwendigen Ansatz, dessen Erfolgschance erst noch ungewiss ist.
Gerald Fix
Wenn ein Schachcomputer nicht nach der Datenbank spielt, dann bewertet er jede mögliche Stellung. Der Zug , der zu einer besseren Stellungsbewertung führt, der ist der erfolgreichere Zug. Man müsste eigentlich ein zweites schwächeres Schachprogramm für schwächere Spielstufen einsetzen.
Ich spiele oft gegen “Fritz” und nach meiner Erfahrung sind die eingebauten Fehler auf einer niedrigen Spielstufe tatsächlich dumm, so dumm, dass es keinen Spaß mehr macht, gegen das Programm zu spielen.
Deswegen ist ein Spiel gegen einen realen Menschen immer spannender.
Karl: “Ich spiele oft gegen “Fritz” und nach meiner Erfahrung sind die eingebauten Fehler auf einer niedrigen Spielstufe tatsächlich dumm, so dumm, dass es keinen Spaß mehr macht, gegen das Programm zu spielen.
Deswegen ist ein Spiel gegen einen realen Menschen immer spannender.”
Jaromir: Sowohl Fritz wie auch die anderen konventionelle Schachprogramme spielen Schach, indem sie alles durchrechnen (brute force). Erst mit AlphaZero, dem Nachfolger von DeepMinds AlphaGo und AlphaGo Zero, gibt es seit 2017 ein KNN-Schachprogramm (künstliche Intelligenz), das sich das Schachspielen selbst beibringt und locker das Schachprogramm Stockfisch besiegt:
https://www.schachbund.de/news/alphazero-schlaegt-stockfish.html
“Ein eingehender Reiz wird gewichtet, in dem eine Bewertung auf der Basis des vorhandenen Wissens passiert”
Hallo Herr Konecny,
Tiere und Menschen werden täglich /stündlich/sekündlich einer Unzahl von Reizen ausgesetzt.Da das Gehirn eine “Reizbewertungsmaschine” ist, bewertet es alle Reize nach dem Schema: bekannte, unbekannte; gefährlich bzw. ungefährlich;angenhem oder unangenehm ,befriedigende und unbefriedigende etc.) Für diese Bewertung hat die Evolution uns Menschen und den Tieren auch die die Emotionen gegeben. Wir können aber REIZE nur einordnen,wenn wir vorher bereits eine Erfahrung (Erlebnis) dazu gemacht haben. Auf Grund dieser “Erfahrung” wissen wir, dass zum Bsp. der Stock auf dem Weg keine Schlange ist und somit Angstgefühle nicht erforderlich sind.Hätten wir nicht diese Erfahrung schon gemacht, so würde ein Flucht-und Kampfsystem in uns aktiv werden:Aktivierung Symphatikus,Auschüttung von Stresshormonen (Adrenalin/Noradrenalin) etc…Neuronal könnten blitzschnell Assoziationen ablaufen, Neuronenverbände “kommunizieren” über diese angebliche Gefahr “Schlange” in dem vorhandenes Wissen im Zuge des Kampf-Fluchtsystems nach den Organismus schützenden Alternativen sucht.
Diese feuernden NeuronenVerbände könnten so konditionieren, d. heißt es wird eine SPUR dieses Vorgangs im Gehirn abgelegt, um in Zukunft schneller reagieren zu können (Es wird gelernt) Kommt man aber dieser “Schlange” einige Meter näher,überwindet die Angst, und erkennt, dass es nur ein ganz gewöhnlicher Stock ist, haben diese Spurungen ihren Sinn verloren und man “lernt” um durch ERKENNTNIS .Diese SPUR im Gehirn verliert ihre Bedeutung und wird in Zukunft normaler bewertet.Es wird also beim nächsten Anblick eines Stockes auf dem Waldweg kaum noch Noradrenalin mehr ausgeschüttet , da WISSEN(Spurungen) über die Zusammenhänge nun vorhanden ist.
Golzower: “Für diese Bewertung hat die Evolution uns Menschen und den Tieren auch die die Emotionen gegeben.”
Jaromir: Hallo, zuerst muss ich mich entschuldigen, dass ich Sie nicht mit dem Namen, wie Sie mich, grüßen und ansprechen kann. Ich kenne nur Ihre Nicknamen. 🙂
Unsere Emotionen sind eine Reaktion auf die Reize aus unserer Umwelt, nicht ihre Bewertung. Die Reize werden wohl von den Neuronaneverbänden im Gehirn bewertet, diese Neuronanverbände reagieren darauf mit der Freisetzung von Neurotransmittern, Hormonen usw., was wiederum eine bestimmte Emotion zur Folge hat. Ansonsten gehe ich mit Ihnen konform, nur machte ich mir eben eher Gedanken darüber, wie die elektrischen und chemischen Signale in vielen sich überlagernden neuronalen Netzen im Gehirn sich gegenseitig beeinflussen können – über die Vielfalt dieser Beeinflussung also. Das wird aber noch schwieriger – vielleicht sogar unmöglich – zu erklären sein, als das, wie ein trainiertes künstliches neuronales Netz seine Entscheidungen trifft. Ein extrem komplexes neuronales System eben.
@Jaromir Konecny: zur Beziehung KNN/Hirn: Der visuelle Cortex ist schon gut untersucht und die bekannte Funktionalität spricht dafür, dass dort vielstufige Strom-Prozessoren mit fest verdrahteten Spezialfunktionen wie Gesichtserkennung implementiert sind. Diese lassen die heutige Homogenität künstlichen neuronaler Netze weit hinter sich (ein künstliches neuronales Netz ist im wesentlichen nur eine mehrschichtige Neuronensammlung mit “richtig” gesetzten Gewichten). Dies zu ihrer Aussage (Zitat): Selbstverständlich kann es sein, dass Rosenblatt sein Perzeptron nach dem Vorbild des Gehirns entwickelte und später gezeigt werden konnte, dass das Multilayer-Perzeptron ein universeller Klassifizierer ist, also verallgemeinern kann wie das Gehirn, diese zwei Sachen aber trotzdem ganz zufällig sind und nichts miteinander zu tun haben. Ich denke aber, das wäre dann zu viel Zufall.
Der Artikel The functional neuroanatomy of faceperception: from brain measurementsto deep neural networks zeigt die Komplexität des visuellen Kortex und gleichzeitig den Glauben der Autoren, dass deep neuronal networks in der Verarbeitung eine Rolle spielen. Doch die Lektüre zeigt: Selbst wenn KNNs bei der Verarbeitung visueller Daten eine Rolle spielen, so erklären sie wahrscheinlich nur einen kleinen Teil der Gesamtarchitektur. Die Autoren des Artikels glauben aber auch, dass das Wissen um die Arbeitsweise des visuellen Kortexs auch umgekehrt zu Verbesserungen bei künstlichen neuronalen Netzen führen kann. Im folgenden ein Textfragment, das zeigt, wie sich die Autoren ein neuronal präzises DNN vorstellen und dass sie mit der Nachbildung des visuellen Kortexes in KNNs gegenseitig befruchtende Erkenntisse erhoffen (übersetzt mit DeepL):
Wir hoffen, dass diese neuronalen Merkmale in moderne DNNs integriert werden, um eine neue Klasse von neuronal genauen Berechnungsmodellen des Ventralstroms und insbesondere des Gesichtsnetzes zu generieren. Um DNNs neuronal genau zu machen, ist es notwendig, neuronale Funktionen zu implementieren, die derzeit nicht vorhanden sind, einschließlich: (i) Filter, die das Gesichtsfeld auf uneinheitliche Weise abtasten, (ii) Filter, die an unterschiedliche Aufgabenanforderungen angepasst werden können, (iii) zeitlich dynamische Filter, (iv) eine korrekte Anzahl von Verarbeitungsstufen und (v) wiederkehrende und Top-down-Verbindungen, wobei das Hinzufügen dieser Merkmale zu DNNs (i) das Verständnis der Berechnungen entlang des ventralen Stroms verbessern kann, (ii) wahrscheinlich die vorhergesagten Gehirnreaktionen auf eine Vielzahl von Reizen verbessern wird und (iii) wichtige Erkenntnisse für den hypothetischen Nutzen verschiedener architektonischer Merkmale des menschlichen Gehirns liefert.
Martin Holzherr: “zur Beziehung KNN/Hirn: Der visuelle Cortex ist schon gut untersucht und die bekannte Funktionalität spricht dafür, dass dort vielstufige Strom-Prozessoren mit fest verdrahteten Spezialfunktionen wie Gesichtserkennung implementiert sind. Diese lassen die heutige Homogenität künstlichen neuronaler Netze weit hinter sich (ein künstliches neuronales Netz ist im wesentlichen nur eine mehrschichtige Neuronensammlung mit “richtig” gesetzten Gewichten).”
Jaromir: Lieber Herr Holzherr, Sie sind so tief in der Hirnforschung und KI, dass sie oft die Themen meiner nächsten Blog-Beiträge vorwegnehmen. 🙂 Was bei der visuellen Wahrnehmung und als Reaktion darauf im visuellen Kortex abläuft, wissen wir tatsächlich sehr gut. Interessanterweise kann man auch die einzelnen Vorgänge in CNN (convolutional neural networks) gut und bildhaft zeigen, das heißt, was an den einzelnen tiefen CNN-Schichten bei “Computer Vision” passiert. Hier gibt es auch die größten Parallelen zwischen der Funktion der natürlichen Wahrnehmung und der von künstlichen neuronalen Netzen, also CNN.
Unlängst habe ich ein sehr gutes Buch über die visuelle Wahrnehmung gelesen “Sehen. Wie sich das Gehirn ein Bild macht.” von Rudolf E. Lang. In meinem Beitrag über das Lernen, den wir jetzt kommentieren, hatte ich etwa zwei Seiten über das natürliche Lernen im visuellen Kortex als Vergleich zu “Computer Vision”, musste das aber aus dem Text herausnehmen, weil der Text sonst zu lang wäre. Ich dachte mir, dann würde ich meinen nächsten Blog-Text nur darüber machen. Und jetzt ist es raus, keine Überraschung mehr möglich. 🙂
Solange KI nicht selbständig seine Ziele ändert, solange fühle ich mich sicher.
Ron: “Solange KI nicht selbständig seine Ziele ändert, solange fühle ich mich sicher.”
Jaromir: 🙂 Das sehe ich genauso!
Im KI-Thriller “Singularity. Avogadro Corp” wird ein eMail-Optimierungsprogramm entwickelt. Da das Projekt sehr viel Rechenzeit in Anspruch nimmt, will die Firma das Projekt einstellen. Der Projektleiter will das verhindern und schreibt nur einen Code ins Programm, in dem er der KI sagt, bzw. für sie eine Regel aufstellt, die KI solle alles tun, damit sie nicht abgeschaltet werde – das hat weitreichende Konsequenzen. Dieses Szenario fände ich in ein paar Jahren realistisch. Ich denke, wir, also die Menschheit, werden von KI nur dann profitieren – und es passieren keine großen bösen Sachen mit KI -, wenn wir uns alle bilden und zu verstehen versuchen, wie diese Programme arbeiten.
Hallo Jaromir,
mir gefällt Dein allgemeinverständlicher Artikel. Gerade weil er in mir eher mehr Fragen, als vorhandene Antworten auslöst!
Es geht um künstliche Intelligenz (KI), natürliche Dummheit (ND) und gesunder Menschenverstand (GV)
Alle drei sind wunderbar Stoff-Lieferanten für Kabarettisten. Auf lange Sicht gesehen dürften Kabarettisten nie arbeitslos werden. 😉
Diese Begriffe möchte ich gern mit der Unterscheidung maschinellem Lernen (KIL) und menschlichem Lernen (GVL) verbinden. (Du gehst darauf ja ebenfalls ein). Mehr klare Unterscheidung scheint mir notwendig um die ND durch unzulässige (kategoriale) Vermischungen, Verwechslungen und daraus resultierende Missverständnisse so gering als möglich halten zu können.
Ausserdem frage ich mich, ob sich hier nicht lerntheoretische Fragenkomplexe mit erkenntnistheoretischen Fragenkomplexe überschneiden? Haben wir es bei KIL und GVL nicht mit zwei grundsätzlich zu unterscheidenden “Lernqualitäten” zu tun, die unterschiedlichen Wirklichkeitsbereichen angehören und nicht aufeinander reduzibel sind, wenngleich wenn sie aufeinander bezogen werden, dadurch neue Wirklichkeitsphänomene generiert und bereits bekannte weiter ausdifferenziert werden?
Hierzu ein paar Thesen:
Ich würde sagen GVL kann prinzipiell KIL.
Das lässt sich m.E. belegen z.B. durch die Fragestellung: Wer hat wen erschaffen: Der Mensch Computer (mathematische Rechner) oder umgekehrt? Die “Erzeuger” von Computern, verdienen also in gewisser Weise “mehr Aufmerksamkeit” als deren Produkte.
Die Umkehrung erscheint mir nicht ganz so eindeutig und daher kritikwürdig:
KIL kann (irgendwann) GVL. Die bisherigen Lernkurven berechtigen die Prognose, dass KIL (irgendwann) sogar besser GVL kann, also die Qualität GVL2.0 erreicht, wozu GVL, nie (von sich aus) in der Lage sein würde.
Zu dieser Radikalität jedenfalls scheinen sich einige Vordenker KIL nicht genug “entblöden” zu können im Sinn ihrer angeborenen ND.
Ich frage deshalb: Können Kinder ihre Eltern hervorbringen?
Genügt es vermittels GVL-Lernkomplexität die mittels mathematischer Formeln dieselbe beschreibbar machen kann, mit diese Algorithmen “quasi mit Sperma-Funktion” Super-Computer zu “befruchten” damit diese, sich selbst “evolutionieren” um von KIL 1.Ordnung des (Selbst-)Lernens mittels großer Datenmengen und ausreichender Rechenzeitleistung, irgendwann in einem singulären Sprung KIL 2.Ordnung zu erreichen, welche (angeblich – so der Mythos) notwendig sei um die Qualität von GVL zu übertreffen, d.h. GVL2.0 zu erreichen – was dann aber keine KIL mehr sein kann? Es wird also die GVL gleich übersprungen hin zu GVL20. Mehr Nonsens geht nicht m.E.
Es geht mir hier auch weniger um die ethischen Fragen welche solche Erwartungen und Hirngespinste auch noch aufwerfen, sondern um die pseudoreligiös überhöhten Implikationen welche solche Vorstellungen von Rechner(Lern-)Leistungen und deren (oft von irrationaler Euphorie begleiteten) Vorstellungen von “Lernkurven” hervorbringen.
Vielleicht liege ich falsch, aber a) kann ich als Nicht-Mathematiker, und damit als Nicht-Wissender nur nicht-mathematisch argumentieren und b) halte ich es der ND von Computerprogrammierern zu Gute (die allesamt viel klüger sind als ich Nicht-Programmierer!), dass sie hier einen (unbewussten?) Kategorienfehler in ihren interpolierenden Prognosen und Erwartungen begehen, wenn sie ihre erfundene(!) Programme und Computer, gewissermaßen “Leben” als “ihren Kinder” “einhauchen” und ihnen nicht nur dieselbe “Erkenntniskontingenz” zuschreiben, wie sie menschlichen Kindern in ihrer Entwicklungspotenzialität zu eigen ist, sondern ihre eigene Intelligenzpotenzialität eines GVL als Programmierer, von ihren KIL-Produkten eine “Übersteigerung” an Leistungsvermögen (GVL2.0) erwarten und zuschreiben, die zudem als „notwendig“ „verkauft“ wird, da sich ihre eigene GVL sich als unzureichend erwiesen hätte um die komplexen Probleme, welche eine GVL hervorzubringen in der Lage ist, zu bewältigen. Dies würde nur eine GVL2.0 in der Lage sein.
ND ist das Ergebnis von zuviel Angst, wie auch zuwenig Angst! Und eine GVL2.0 der ND-Traum um zuviel Angst zu kompensieren bzw. zuwenig Angst zu transzendieren.
Wächst ND, weil KI (nur scheinbar) “intelligenter” wird? Oder wird KI (nur scheinbar) “intelligenter”, weil GVL in Wirklichkeit zu ND regrediert d.h. ihre eigenen unterkomplexen Komplexitätsreduktionsmustererfindungen „anhimmelt“?
Mir scheint der Grat zwischen GV und ND wird immer schmaler und das Balance-finden immer schwieriger, die Fallhöhe und Absturzgefahren in eine “Hölle” der Vermischung und Verwechslung von komplizierten und komplexen Problemen und Aufgabenstellungen, sowie deren mehr oder weniger dummen Kompensations- und Bewältigungsversuche immer größer.
Ausdrücklich Zustimmung zu folgenden Aussagen:
Echte Intelligenz und echte Dummheit können immer noch nur natürlich sein.
KI von KNN wird von Menschen programmiert und trainiert.
Lernen heißt Erfahrung in Wissen und Kompetenzen umwandeln.
Einmal Gelerntes verführt und führt in Versuchung (Verhaltens- und Kommunikations-)Muster zu bilden, die zu dummen (pseudoreligiöse) Entscheidungen führen können, wenn mit diesen versucht wird qualitativ neue und bislang unbekannte Probleme und Orientierungsfragen zu lösen.
GV braucht keine KI-Algorithmen und iteratives, supervised Lernen, um Aufgaben zu bewältigen.
Solange KIL “schmerzlos” bleibt, bleiben auch deren Lernerfolge nicht nur uneffizient sondern erst recht uneffektiv (i.S.v. unterkomplex). KIL kann bestenfalls komplizierte Aufgaben schneller als GVL lösen. KIL ist dagegen prinzipiell ungeeignet komplexe Aufgaben zu lösen.
Die Fähigkeit die kompliziertesten Aufgaben scheller zu lösen, als alle GV zusammengenommen je in der Lage sein würde, genügt keinesfalls um auch nur die einfachste komplexe Aufgabe lösen zu können.
Vielmehr ist KIL auf komplexe Aufgaben angewandt, nur zu unterkomplexen und d.h. entsprechend “dummen” Antworten und Lösungen fähig.
GVL war dagegen schon immer in der Lage, adäquate Antworten und Lösungen für komplexe Herausforderungen zu (er)finden und bisher ausreichend – und wird es auch weiterhin sein. Auch die GVL entwickelt sich weiter. Doch KIL wird die GVL nicht übertreffen, sondern der GVL notwendigerweise solche Schmerzen bereiten, dass GVL gar nicht anders kann, als sich aus der Hölle der eigenen Bequemlichkeit herauszubewegen um die angestauten komplexen Probleme zu lösen.
Neoreligiöse “Mythenbildungen von GVL2.0 als Erfindung von Entwicklern von KIL von KNN sind Konstrukte einer ND. Deren propagierte Notwendigkeit einer GVL2.0 durch KIL ein Phantasma von zuviel Angst (Dystopismus) bzw. zuwenig Angst (Utopismus) gegenüber komplexen Aufgabenstellungen.
Ingo Damith: “Ausserdem frage ich mich, ob sich hier nicht lerntheoretische Fragenkomplexe mit erkenntnistheoretischen Fragenkomplexe überschneiden? Haben wir es bei KIL und GVL nicht mit zwei grundsätzlich zu unterscheidenden “Lernqualitäten” zu tun, die unterschiedlichen Wirklichkeitsbereichen angehören und nicht aufeinander reduzibel sind, wenngleich wenn sie aufeinander bezogen werden, dadurch neue Wirklichkeitsphänomene generiert und bereits bekannte weiter ausdifferenziert werden?”
Jaromir: Hallo Ingo, ich muss zugeben, dass ich nicht weiß, ob wir’s beim Lernen der künstlichen und der natürlichen Netze mit zwei grundsätzlich zu unterscheidenden “Lernqualitäten” haben. Um das auszuloten, betreibe ich ja diesen Blog. Wie ich schon als Antwort auf Martin Holzherrs Kommentar schrieb: Das Gehirn ist wohl genauso wie ein Multilayer-Perzeptron (künstliches neuronales Netz – KNN) ein universeller Klassifizierer, nur kann ein gut trainiertes KNN besser klassifizieren und Muster in großen Datensätzen erkennen als ein Mensch. Ein Mensch kann dagegen unbekannte Probleme in fremden Umgebungen viel besser lösen als ein KNN. Es kann ja sein, dass unser Gehirn sich aus Millionen neuronaler Netze zusammensetzt, die einzeln ähnlich wie die künstlichen Netze funktionieren, nur viel “geschmeidiger”, da sie zusammen mit der Aktivität in ihnen evolviert sind und nach keinen starren und sehr vereinfachten mathematischen Algorithmen laufen wie die künstlichen. Erst die komplexe Überlagerung dieser Millionen natürlichen Netz stellt jedes künstliche neuronale Netz in den Schatten. Führt der Weg zu starker künstlicher Intelligenz, die es genauso wie ein Mensch kann, über die heutigen KNN, die nur viel komplexer und mit Wissen und der Wechselwirkung mit ihrer Umgebung angereichert werden müssen? Oder muss man dafür ganz neue Ansätze und Algorithmen entwickeln? Das sind Fragen, die heute, glaube ich, niemand beantworten kann.
Ingo Damith: “Ich würde sagen GVL kann prinzipiell KIL.”
Jaromir: Dem ist eben nicht so. Wenn Menschen das könnten, was künstliche neuronale Netze können, würden wir für ihre Arbeit Menschen einsetzen. Kein Mensch aber wird je AlphaGo Zero im Go-Spiel schlagen oder Muster in Datensätzen mit Millionen Daten erkennen u. v. a.
@Ingo Damith: Ihre Fragen hätten sie schon an die alten Griechen stellen können, in deren Mythen bereits Automaten vorkommen – geschmiedet von Hephaistos (Zitat AUTOMOTONES): Die AUTOMATEN waren lebhafte, metallische Statuen von Tieren, Menschen und Monstern, die vom göttlichen Schmied Hephaistos (Hephaestus) und dem athenischen Handwerker Daidalos (Daedalus) gefertigt wurden. Die Besten von ihnen konnten wie Männer denken und sich fühlen. Der Riese Talos, welcher Kreta bewachte, war wohl Hephaistos beeindruckendstes Werk.
Allerdings war Hephaistos selbst ein Gott – der Gott des Feuers und der Schmiede.
Die alten Griechen trauten also mindestens den Göttern das Schaffen von künstlichen Menschen zu.
Aber heute sind ja wir die Götter! (oder fühlen uns zunehmend so)
@Martin Holzherr: sic! Da sehen Sie mal, wie wenig wirklich “Neues unter der Sonne” es seit Menschengedenken und eitel-differenziert-konstruiertem Erfindungsreichtum von “Technae” es gibt. Offensichtlich ist es Gattung Menschen “unmöglich”, seiner eigenen Semiosphäre zu entkommen. Jede neue Generation stellt sich, sich wiederholenden Fragekomplexen in sich zunehmend ausdifferenzierenden Kontexten und konstruiert (Ver-)Antwort(ungs)möglichkeiten verbunden mit zu korrigierenden Entscheidungs-Not-Wendigkeiten mit jeder neuen Schmerzerfahrung, bis der “letzte Schnaufer” – (hoffentlich im Reinen mit sich und dem ganzen Rest) getan ist. 🙂
Sehr guter Beitrag, der die Thematik gut beschreibt.
Bei meinem nächsten Aufsatz zur KI werde ich sicherlich hierauf verweisen 🙂
Was fehlt (und hier aber auch nicht abgesprochen werden sollte) sind die Folgen bzw. etwaige Risikenszenarien in rechtlicher Hinsicht. Hierzu habe ich auch ein paar Worte einmal verfasst in der DuD: https://link.springer.com/article/10.1007%2Fs11623-017-0870-4
Es geht dabei auch darum, wie mit etwaiger Diskriminierung (durch Fehler und wissenschaftlich fehlerhaften Berechnungsgrundlagen der Anwendung) umzugehen ist.
csc: “Was fehlt (und hier aber auch nicht abgesprochen werden sollte) sind die Folgen bzw. etwaige Risikenszenarien in rechtlicher Hinsicht. Hierzu habe ich auch ein paar Worte einmal verfasst in der DuD: https://link.springer.com/article/10.1007%2Fs11623-017-0870-4”
Jaromir: Vielen Dank für die netten Worte. Risikenszenarien in rechtlicher Hinsicht sind sicher eine gute Ergänzung zum Thema KI. Ich kann mich damit hier nicht beschäftigen, schon so schreiben mir Freunde ständig, dass meine Blog-Beiträge zu lang sind. 🙂
Ingo Damith
In dem Roman 1984 wird die Problematik der durchorganisierten Gesellschaft durch Machinen als Horrorszenario dargestellt. Die letzte Hoffnung zu entkommen ist, der dumme Mensch, der sich nicht in dieses System einspannen lässt.
Also machen wir uns nicht zu viel Sorgen über KI, Wenn die Brücke unter dem selbsfahrenden Auto zusammenbricht, dann ist das nicht der KI anzulasten, eher der Ignoranz des Menschen. Diese Charaktereigenschaft kommt in der Analyse von Jaromir nicht vor.
Zitat Golzower: “Tiere und Menschen werden täglich /stündlich/sekündlich einer Unzahl von Reizen ausgesetzt. Da das Gehirn eine “Reizbewertungsmaschine” ist, bewertet es alle Reize nach dem Schema: bekannte, unbekannte; gefährlich bzw. ungefährlich;angenhem oder unangenehm ,befriedigende und unbefriedigende etc.) Für diese Bewertung hat die Evolution uns Menschen und den Tieren auch die die Emotionen gegeben. Wir können aber REIZE nur einordnen, wenn wir vorher bereits eine Erfahrung (Erlebnis) dazu gemacht haben.“
.
Diesen Ansatz finde ich einleuchtend und für mich bedeutet es: Es gibt kein Denken ohne Fühlen. Der Spruch von Descartes sollte nicht heißen „Ich denke, also bin ich“, sondern „Ich fühle, also bin ich“.
Das bedeutet wiederum, dass man eine Maschine zum selbständigen Denken, zum individuellen Lernen und individuellen Problemlösungen bauen kann, nur wenn man herausgefunden hat, wie Gefühle im Gehirn entstehen und wenn man sie in eine Maschine einprogrammieren kann. Wie die Informationsverarbeitung funktioniert ist aus meiner Sicht nämlich nur die halbe Miete, wir müssten den Antrieb der Informationsverarbeitung auch einprogrammieren, die Gefühle. Und dann stellt sich natürlich in erster Linie eine grundsätzliche ethische Frage: Darf man eine Maschine bauen, die leiden kann?
Danke für den anregenden Beitrag!
Wenn man die künstliche „Intelligenz/Dummheit“ mit der natürlichen des Menschen vergleicht, dann sollten neurophysiologische Prozesse, die über Stunden hinweg ablaufen, eigentlich nur eine untergeordnete Rolle spielen. Das Erkennen einer Katze erfolgt augenblicklich, da dürfte allein die aktuell vorhandene neuronale Struktur oder Verschaltung von Belang sein. So, wie beim KNN die aktuelle Verschaltung und „Empfindlichkeit“ der Knotenpunkte relevant ist, wenn ein Bit-Muster als Katze „erkannt“ werden soll.
Wir können uns also, soweit es um das spontane Erkennen von Mustern geht, auf die elektrischen Phänomene konzentrieren. Und an dieser Stelle gibt es, so habe ich den Beitrag verstanden, im Grunde keine fundamentalen Unterschiede zwischen biologischem Hirn und KNN (wenn man mal von der Komplexität der Verschaltung absieht).
Das heißt, wenn ein Kindergartenkind Katzen besser von Hunden unterscheiden kann als ein KNN, dann liegt das eben an den Strukturen, an denen die elektrischen Ereignisse ablaufen. Und die sind beim Kind eben um Größenordnungen komplexer als bei jedem derzeit bekannten KNN, weshalb das Kind in dieser Hinsicht jeder KNN überlegen ist.
Wenn es (im Beitrag) heißt:
,
dann klingt das so, als bräuchte das KNN generell sehr viel länger, um etwas Neues zu lernen als etwa ein Mensch. Dabei fällt aber, so scheint mir, unter den Tisch, dass das menschliche Hirn von Anbeginn seiner individuellen Existenz an ständig lernt und somit das bereits Gelernte in neuen Situationen entsprechend nutzen kann. Dieses im Laufe des individuellen Lebens erworbene Wissen würde ich übrigens nicht als „a priori Wissen“ bezeichnen.
Ein echtes „a priori Wissen“ wäre für mich das, was im Laufe der Evolution (mindestens über 500 Mio Jahre hinweg) an „Wissen“ erworben wurde und sich in der grundlegenden Architektur des gesamten Nervensystems niedergeschlagen hat. Aber auch dieses „a priori Wissen“ ist in einer Art „Lernprozess“ entstanden, durch „Versuch und Irrtum“ im Evolutionsprozess.
Insgesamt gesehen hat die biologische Intelligenz also einen ungeheuren Vorsprung gegenüber der künstlichen, was die Dauer des Lernprozesses anbelangt.
Balanus: “Danke für den anregenden Beitrag!
Wenn man die künstliche „Intelligenz/Dummheit“ mit der natürlichen des Menschen vergleicht, dann sollten neurophysiologische Prozesse, die über Stunden hinweg ablaufen, eigentlich nur eine untergeordnete Rolle spielen. Das Erkennen einer Katze erfolgt augenblicklich, da dürfte allein die aktuell vorhandene neuronale Struktur oder Verschaltung von Belang sein. So, wie beim KNN die aktuelle Verschaltung und „Empfindlichkeit“ der Knotenpunkte relevant ist, wenn ein Bit-Muster als Katze „erkannt“ werden soll.
Wir können uns also, soweit es um das spontane Erkennen von Mustern geht, auf die elektrischen Phänomene konzentrieren. Und an dieser Stelle gibt es, so habe ich den Beitrag verstanden, im Grunde keine fundamentalen Unterschiede zwischen biologischem Hirn und KNN (wenn man mal von der Komplexität der Verschaltung absieht).”
Jaromir: Danke für die netten Worte! Die freuen. Danke auch für die sehr klugen Anmerkungen. Ich versuche mich damit – jetzt im Zug nach Stuttgart – auseinanderzusetzen:
Ähnliches habe ich in den Kommentaren hier bereits geschrieben, ich bringe es aber noch einmal:
Ich glaube schon, dass es fundamentale Unterschiede zwischen biologischem Hirn und künstlichen neuronalen Netzen gibt. Schon das natürliche Neuron ist eine kleine Fabrik mit seinen eigenen Programmen, das die Aktivität in seinem Neuronenverband beeinflusst. Ein “Neuron” in einem künstlichen neuronalen Netz ist nur ein Knotenpunkt, durch den Signale laufen. Inwieweit ein Netz als solches das ganze neuronale System definiert und inwieweit seine Aktivität, die Dynamik der Signale also, die durch das Netz laufen, wissen wir nicht. Darüber habe ich in meinem Blogbeitrag geschrieben “Bin ich mein Konnektom?”
Folgendes zitiere ich aus meiner Antwort auf den Kommentar von Ingo Damith: “Das Gehirn ist wohl genauso wie ein Multilayer-Perzeptron (künstliches neuronales Netz – KNN) ein universeller Klassifizierer, nur kann ein gut trainiertes KNN besser klassifizieren und Muster in großen Datensätzen erkennen als ein Mensch. Ein Mensch kann dagegen unbekannte Probleme in fremden Umgebungen viel besser lösen als ein KNN. Es kann ja sein, dass unser Gehirn sich aus Millionen neuronaler Netze zusammensetzt, die einzeln ähnlich wie die künstlichen Netze funktionieren, nur viel “geschmeidiger”, da sie zusammen mit der Aktivität in ihnen evolviert sind und nach keinen starren und sehr vereinfachten mathematischen Algorithmen laufen wie die künstlichen. Erst die komplexe Überlagerung dieser Millionen natürlichen Netz stellt jedes künstliche neuronale Netz in den Schatten.
Führt der Weg zu starker künstlicher Intelligenz, die es genauso wie ein Mensch kann, über die heutigen KNN, die nur viel komplexer und mit Wissen und der Wechselwirkung mit ihrer Umgebung angereichert werden müssen? Oder muss man dafür ganz neue Ansätze und Algorithmen entwickeln? Das sind Fragen, die heute, glaube ich, niemand beantworten kann.”
Balanus: “Das heißt, wenn ein Kindergartenkind Katzen besser von Hunden unterscheiden kann als ein KNN, dann liegt das eben an den Strukturen, an denen die elektrischen Ereignisse ablaufen. Und die sind beim Kind eben um Größenordnungen komplexer als bei jedem derzeit bekannten KNN, weshalb das Kind in dieser Hinsicht jeder KNN überlegen ist.”
Jaromir: Wir müssen zwischen nicht trainierten künstlichen Netzen und trainierten unterscheiden. Ich glaube, die künstlichen Netze der Computer Vision erkennen Gesichter und Objekte mittlerweile so gut wie Menschen, wenn nicht besser.
Bei dem was Sie oben schreiben, denke ich aber, spielen eine sehr große Rolle eben unsere Vorkenntnisse, um die es in meinem Betrag geht, die die künstlichen Netze nicht haben. Zum Beispiel miaut ein Schatten im Dunkeln, und das Kind weiß sofort, es sei eine Katze und kein Hund – das ist die Vorkenntnis des Kindes, dass Katzen miauen, die das künstliche Netz nicht hat.
Balanus: Wenn es (im Beitrag) heißt:
»Ein KNN braucht Tage und einige Millionen Spielstellungen, um ein neues Spiel zu lernen. Am Anfang des Spiels tappt es vollkommen im Dunkeln. Bevor das künstliche Netz gelernt hat, dass die Figur Richtung Ziel hinauf hüpfen solle, muss es stundenlang Belohnungs- und Strafpunkte sammeln «
,dann klingt das so, als bräuchte das KNN generell sehr viel länger, um etwas Neues zu lernen als etwa ein Mensch. Dabei fällt aber, so scheint mir, unter den Tisch, dass das menschliche Hirn von Anbeginn seiner individuellen Existenz an ständig lernt und somit das bereits Gelernte in neuen Situationen entsprechend nutzen kann. Dieses im Laufe des individuellen Lebens erworbene Wissen würde ich übrigens nicht als „a priori Wissen“ bezeichnen.”
Jaromir: Das stimmt, dass “das menschliche Hirn von Anbeginn seiner individuellen Existenz an ständig lernt und somit das bereits Gelernte in neuen Situationen entsprechend nutzen kann”. Darum geht es auch in dem Blog und das unterscheidet uns wesentlich von den künstlichen neuronalen Netzen – unsere Vorkenntnisse. In der KI-Forschung überlegt man aber schon richtig, warum das künstliche neuronale Netz an einem Million Bilder gelernt haben muss, Katzen als Katzen zu erkennen, während dem Kleinkind nur ein paar gesehene Katzen dafür reichen. Selbstverständlich bleibt die Frage unbeantwortet, ob dafür alle Vorkenntnisse des Kindes reichen, (dass Katzen vierbeinige Haustiere sind, die miauen, Mäuse fangen usw.), um immer eine Katze zu erkennen, auch wenn das Kind nur wenige in seinem Leben gesehen hat, und die meisten davon sowieso bei YouTube.
Balanus: “Dieses im Laufe des individuellen Lebens erworbene Wissen würde ich übrigens nicht als „a priori Wissen“ bezeichnen.
Ein echtes „a priori Wissen“ wäre für mich das, was im Laufe der Evolution (mindestens über 500 Mio Jahre hinweg) an „Wissen“ erworben wurde und sich in der grundlegenden Architektur des gesamten Nervensystems niedergeschlagen hat. Aber auch dieses „a priori Wissen“ ist in einer Art „Lernprozess“ entstanden, durch „Versuch und Irrtum“ im Evolutionsprozess.”
Jaromir: Ob ich “Vorkenntnisse” oder “a priori Wissen” schreibe, meine ich die Gesamtheit des Wissens, das ein Mensch hat, das vererbte also (Genetik, Evolution, Kultur) und das eigens erworbene (passives und aktives Lernen). Am Ende habe ich mich für “Vorkenntnisse” entschieden, trotzdem habe ich aber einmal “a priori Wissen” verwendet, da es in den englischsprachigen KI-Artikeln so verwendet wird, und ich wollte den Leser nicht verwirren, wenn er in den englischsprachigen Artikeln nach dem Thema sucht: “a priori knowledge”. Im Philosophie-Deutsch heißt “a priori” zwar: “von der Erfahrung oder Wahrnehmung unabhängig; aus der Vernunft durch logisches Schließen gewonnen; aus Vernunftgründen”, andererseits bildungssprachlich: “von vornherein”, was meinen “Vorkenntnissen” recht nahe kommen würde.
Balanus
Hauptsächlich aus den elektrischen Phänomenen kann man erklären, dass die Informationsverarbeitung im Gehirn, letztlich so wie im Computer, auf die Realisierung der „Codierungstheorie“ und der “Boolschen Algebra” beruht.
Allerdings gibt es noch das bedeutsame „Empfindungsphänomen“ bei den elektrisch – chemischen biologischen Prozessen. Die Empfindungen generieren nicht nur Motivationen, sie verbreitern zusätzlich die informelle Basis der Verarbeitung. Bedeutet, bei der Katze wird zusätzlich „abgespeichert“ dass sie ein weiches Fell hat, gerne Kontakt mit Menschen sucht … Es gibt bei biologischen Systemen zusätzliche Merkmale (auftretende Empfindungen) zur Objekterkennung.
Die chemische Wirkung der elektrischen Signale und deren Umsetzung benötigt Zeit. In rein elektrischen Systemen treten (Information abbildende) Signale mit einer Frequenz von einigen Gigahertz auf, in biologischen haben sie höchstens einige 100 Hz. Allerdings erfolgt die Informationsverarbeitung in biologischen Systeme hochgradig „parallel“, in technischen Systemen gibt es sozusagen einen „Flaschenhals“ in der Verarbeitung.
Ein gewisser Unterschied wäre demnach die Empfindungsfähigkeit biologischer Systeme.
Ich habe zwar eine private und nicht seriös belegbare Vermutung, so dass die „Gewichtung“ der Signalweiterleitung zumindest auch Einfluss auf die Empfindung nimmt, diese möglicherweise sogar generiert. Die elektrische Signalleitung sollte im Prinzip, eigentlich wie in der Technik auch, von den elektrischen „Impedanzen“ (so etwas wie der „elektrische Widerstand“ der Leitungen und Knoten) abhängen, die auf biologischen Strukturen chemisch „realisiert“ werden.
Impedanzen bedeuten demnach, dass nicht nur auf die Stärke der Stromflüsse (wie beim elektrischen Widerstand) Einfluss genommen wird, sondern dass auch besondere Phasenverhältnisse und allenfalls Resonanzen auftreten können. Meine vage „Privatvermutung“: Je stärker die Resonanzen desto stärker die Empfindungen, von der Phasenlage hängt weiters ab, ob die Empfindung (lustvoll) angestrebt, oder (schmerzhaft) vermieden werden sollte.
Die „Gewichtung“ ist ganz allgemein bei biologischen Systemen stark, wenn die Signale „stark“ sind und viele (synaptische) Verknüpfungen in den neuronalen Verbänden abhängig vom Input auftreten.
Auch beim Menschen wurde viel Wissen nicht nur durch „Selbstversuch und Irrtum“ sondern sozusagen durch systematische Lernprozesse erworben. Beides auch in der technischen KI möglich.
Um in der KI weiterzukommen, sollte man auf ein geeignetes realistisches „Empfindungsmodell“ aufbauen und dieses algorithmisch abbilden können.
Mich würden auch Einwände zum von mir vertretenen „Impedanzkonzept“ interessieren.
Wichtiger als Common sense knowledge, also das Wissen über Alltag-Fakten, ist Common sense reasoning, also das unmittelbare Schlussfolgern, das praktisch ständig geschieht, wenn wir etwas erleben oder erfahren. Beispiel: Wenn mir A etwas erzählt, das ich schon von B gehört habe und er auch noch ähnliche Worte verwendet, sage ich vielleicht: “Haben sie das schon mit B besprochen”? Wenn nun A antwortet: “Nein, das habe ich letzte Woche gelesen” schlussfolgere ich, dass sowohl A als auch B das gleiche gelesen haben. Das – und ähnliches – ist für uns eine so selbstverständliche Schlussfolgerung, dass wir sie oft gar nicht mehr wahrnehmen, das Aha stellt sich pratkisch unmittelbar ein. Es sind Sekundenbruchteile in der wir solch einfache Schlussfolgerungen vornehmen, so dass es eigentlich – nach Kahnemann – zum schnellen Denken (schnell, automatisch, immer aktiv, emotional, stereotypisierend, unbewusst) und nicht zum langsamen Denken (langsam, anstrengend, selten aktiv, logisch, berechnend, bewusst) gehört. Gut, man könnte sagen, dass common sense reasoning vielleicht in einem Mittelbereich zwischen schnellem und langsamen Denken beheimatet ist. Dennoch geschieht es so schnell, dass man davon ausgehen muss, dass im Hirn eine Schlussfolgerungsreaktion quasi fest verdrahtet wurde: Der gesunde Menschenverstand bedeutet, dass man bestimmte Zusammenhänge so gut gelernt und erfahren hat, dass die Reaktion in vorgespurten Bahnen abläuft.
Zu all dem passt die im Beitrag von Jaromir Konecny zitierte Aussage John Mc Carthey (dem AI-Pionier) sehr gut: „Deswegen sagen wir, dass ein Programm den gesunden Menschenverstand (common sense) hat, wenn es automatisch für sich selbst eine ausreichend breite Klasse von unmittelbaren Konsequenzen schlussfolgert, über alles, was es sagt und was es bereits weiß.“
Wie aber kann man common sense reasoning in Künstlichen Neuronalen Netzwerken implementieren?
Der Ansatz, welcher in Towards Symbolic Reinforcement Learning with Common Sense verfolgt wird, scheint mir naheliegend und vielversprechend (Zitat, übersetzt von DeepL): Im Gegensatz zu SRL (Symbolic Reinforcement Learning) werden in SRL+CS (Common Sense) nur die Zustände, die Objekte enthalten, mit denen ein Agent interagiert, aktualisiert, wenn die Belohnungen ungleich Null sind (nennen wir dieses Prinzip eins), und die relative Position eines Objekts in Bezug auf einen Agenten wird bei der Entscheidung, welche Aktion zu ergreifen ist, berücksichtigt (nennen wir dieses Prinzip zwei).
Oder in meinen eigenen Worten: Lerne vor allem aus dem Verhalten von Objekten, mit denen Du interagierst und zwar umso stärker, je näher die Objekte sind.
Der Begriff SRL, also Symbolic Reinforcement Learning, meint folgendes: Während die neuronalen Netze, welche visuelle Informationen verarbeiten, letztlich auf der Ebene von Bildpunkten aufsetzen, setzt das Symbolic Reinforcement Learning auf erkannten Objekten auf. Das scheint zuerst kein wirklicher Unterschied, denn ein tiefes neuronales Netz, welches auf der Eingabeseite Bildpunkte einliest, kann ja in tieferen Schichten ebenfalls Objekte erkennen. Und doch gibt es einen entscheidenden Unterschied: Bei den typischen neuronalen Netzwerken, welche mit Bildpunkten auf der Eingabeseite beginnen werden auch die tieferen und sehr tiefen Schichten weiterhin von sehr vielen oder gar allen Bildpunkten der Eingabeebene beeinflusst. Das kann dazu führen, dass die Änderung eines einzelnen Bildpunktes auch auf der Eingabeseite zu einem anderen Resultat führt. Beim Symbolic Reinforcement Learning dagegen werden die erkannten Objekte heraussepariert und eine Änderung eines Bildpunktes, der nicht zum erkannten Objekt gehört ändert nichts an der Interpretation des Objekts. Zudem werden die relativen Abstände (räumlich+zeitlich) der Objekte zueinander festgehalten. Oder in den Worten der Autoren (Zitat, übersetzt von DeepL): In DSRL (Deep Symbolic Reinforcement Learning) werden zunächst Objekttypen mit Objekten klassifiziert, deren Positionen von einem Low-Level-Symbolgenerator erfasst werden, der einen Faltungs-Auto-Encoder und eine Spektrumsvergleichstechnik verwendet. Zweitens wird eine räumlich-zeitliche Darstellung aller Objekte erstellt, wobei die relativen Positionen der Objekte in zwei aufeinanderfolgenden Bildern verwendet werden.
Zum konventionellen Bildverarbeitungsansatz, der als CNN (convolutional neural network) bekannt ist schreiben die Autoren (übersetzt von DeepL): Um die Anzahl der Zustände in einem Bild zu reduzieren, wird die Verwendung eines neuronalen Faltungsneuronalen Netzwerk (CNN) vorgeschlagen, was zu Deep Q-Netzwerken führte. DQNs streben eine Verallgemeinerung der Zustände, die durch Pixelwerte unter Verwendung gelernter Filter und eines vollständig verbundenen rückgekoppelten neuronalen Netzwerks bereitgestellt werden. Allerdings sind die von der CNN verallgemeinerten Zustände konstruktiv abhängig von allen Pixeln im Rohbild, was die Verallgemeinerung über verschiedene Bilder hinweg behindern kann.. In [21] wird beispielsweise gezeigt, dass das Verändern eines Pixelwertes dazu führen kann, dass die Klassifizierung eines CNN ändert oder was im Falle von DQN den Zustand ändert. Darüber hinaus sind die Zustände nicht vollständig translations-, rotations- und größeninvariant und erfordern zusätzliche Manipulationen, um sie robuster zu machen, wie in[7] dargestellt. Zustände, die von CNNs verallgemeinert werden, enthalten keine expliziten Informationen. über die relativen Positionen der Objekte und sind im Allgemeinen durch die festen Abmessungen des Eingabebildes eingeschränkt.
Zusammengefasst: Symbolisches Bestärkendes Lernen (Symbolic Reinforcement Learning) arbeitet auf der Stufe von erkannte Objekten und erkannter räumlich-zeitlicher Objektbeziehungen indem es eine Welt aufbaut, in der Teilzustände mit relativen Position eines Agenten gegenüber Objekten existiern.
Die heute für die Bildverarbeitung dominierenden CNNs dagegen tun dies nie explizit, bei CNNs gibt es auch auf der Ausgabeseite immer noch Beziehungen zwischen erkannten Objekten und fast jedem Bildpunkt der Eingabeseite und zudem kennt CNNs die räumlich zeitlichen Beziehungen zwischen Objekten nicht explizit.
SRL+CS(common sense) bedeutet in Bezug auf den Lernvorgang, dass die Welt als Sammlung von Objekten und ihrer räumlich-zeitlichen Nachbarschaft modelliert wird und dass bei sich Bestärkung des Verhaltens sich nur die Beziehung des Agenten mit demjenigen Objekt ändert, welches vom Agenten berührt wird, also in unmittelbarer Nachbarschaft liegt.
Oder verkürzt: Wenn dich jemand schlägt, dann beschäftige dich mit dem, der dich schlägt und nicht mit der lieblichen Landschaft, die durchs Fenster scheint.
“Unsere Emotionen sind eine Reaktion auf Reize aus unserer Umwelt, nicht ihre Bewertung….”
Mit dieser ihrer Einschätzung kann in Zukunft jedes Reh von einem Wolf jederzeit gefressen werden.Flucht -oder KampfReaktionen entwickelt das Reh erst aus der Angst vor dem Reiz WOLF. Diese Angst (Emotion) entwickelt sich also erst aus der Bewertung des Reizes WOLF, denn das Reh “erkennt ” in dem Wolf ein Tier vor dem zum Beispiel seine Mutter -und es selbst damit- geflohen ist. Es ist also eine Bewertung -Konditionierung- zum Reiz erfolgt,die nun automastisch bei diesem Reh wirksam wird. Der Reiz WOLF ist also als Erkenntnis(Bewertung) im Unterbewusstsein des Rehs abgelegt. Die Konditionierung erfolgt über dsas Limbische System genau so wie beim Menschen. Emotionen sind für mich sogesehen nicht nur Bewertungen sondern auch Warnsysteme,was jeder an sich selbst überprüfen kann.
Golzower: ” “Unsere Emotionen sind eine Reaktion auf Reize aus unserer Umwelt, nicht ihre Bewertung….”
Mit dieser ihrer Einschätzung kann in Zukunft jedes Reh von einem Wolf jederzeit gefressen werden.Flucht -oder KampfReaktionen entwickelt das Reh erst aus der Angst vor dem Reiz WOLF.”
Jaromir: Die Reize aus unserer Umwelt werden von unseren Sinnen wahrgenommen und mit unserem neuronalen System bewertet. Unsere Emotionen sind eine Folge davon und eine offensichtliche Reaktion des neuronalen Systems auf diese Reize, zusammen mit unserer Motorik: Uns zum Beispiel vor Angst (Emotion) vor dem Wolf weglaufen (Motorik) zu lassen. Gefühle bewerten nichts, sie sind Symptome des Wertenden.
Unser Problem ist hier: Ich versuche in diesem Blog künstliche neuronale Netze mit den natürlichen unseres Gehirns und unseres Nervensystems zu vergleichen: Was kann die KI-Forschung von der Hirnforschung lernen und vice versa? Deswegen betrachte ich zuallererst, was in unserem neuronalen System passiert und nicht Sekundäres. Künstliche neuronale Netze zeigen ja (vorläufig) keine Gefühle. Solche Vergleiche bringen bei der “Gehirn & KI”-Betrachtung also nicht viel.
Innerhalb der AI-Forschungsszene ist gerade jetzt das Thema Common Sense Knowledge (Alltagsfakten, die schnell abrufbar sind) und Common Sense Reasoning (Eingebung,Intuition, unmittelbar Absichten und Konsequenzen erkennen) aktuell.
Doch wegen dem ganzen AI-Hype werden Fortschritte auf diesem Gebiet oft überbewertet und es wird zudem schon als Fortschritt vermeldet, was noch in einem frühen Erprobungsstadium ist. Das von mir oben verlinkte arxiv-Papier Towards Symbolic Reinforcement Learning with Common Sense scheint mir ein gutes Beispiel für die Folgen dieses AI-Hypes. Da wird zwar ein vielversprechender Ansatz für eine Architektur vorgestellt, die in der Lage ist die richtigen Prioritäten zu setzen indem sie sich auf erkannte Objekte und ihre Lagebeziehungen konzentriert, doch getestet haben die Autoren das System nur gerade mit einem extrem einfachen Videospiel in dem der Spieler “gute” Objekte einsammeln und “böse” Objekte vermeiden muss. Die beiden Prinzipien, die angewandt werden:
1) Objekte als Symbole behandeln indem man visuell erkannte Objekte von der Umgebung etwas unabhängiger macht und sie translations-, rotationsinvariant etc. darstellt und
2) Ein Objektnetzwerk unterhalten in dem die Abstände der Objekte und ihre Interaktionen herausgestellt werden
sind zudem eigentlich so selbstverständlich und trivial, dass man sich wundern muss, dass dies nicht schon längst in AI-Architekturen gemacht wird.
Die Öffentlichkeit hat aber einen ganz anderen Eindruck von AI. Verbreitet ist die Annahme, der unmittelbare Umbruch stehe unmittelbar bevor und Arbeit und Forschung werde schon morgen von Robotern erledigt.
Doch gerade solche Arbeiten wie die verlinkte zeigen, dass in der KI-Forschung noch an grundlegenden Problemen gearbeitet wird und wohl mehrere Doktorandengenerationen hier noch ihre Sporen abverdienen müssen.
Martin Holzherr: “Die Öffentlichkeit hat aber einen ganz anderen Eindruck von AI. Verbreitet ist die Annahme, der unmittelbare Umbruch stehe unmittelbar bevor und Arbeit und Forschung werde schon morgen von Robotern erledigt.”
Jaromir: Da gehe ich vollkommen mit Ihnen. Ich wäre auch glücklicher, wenn wir den Begriff “künstliche neuronale Netze” statt “künstliche Intelligenz” (KI) verwendet würden, da der Begriff KI einerseits viel zu viel verspricht, was er nicht halten kann, andererseits vielen auch Angst macht. Hier ist Aufklärung notwendig. Ich finde auch, ohne starke KI zu sein, leisten die künstlichen neuronalen Netze Erstaunliches und werden so oder so schon jetzt, wie sie sind, unser ganzes Leben umwälzen.
Vielleicht sollten wir im Deutschen einfach “Maschinenlernen” verwenden. Das ist präziser als KI und KNN und ist auch kürzer. Deswegen habe ich die URL “www.maschinenlernen.com” bestellt. “.de” war schon weg. 🙂
@Jaromir Konecny
24. September 2018 @ 12:59
24. September 2018 @ 13:11
Danke für die Antwort(en)!
Ich finde es nach wie vor etwas irritierend, wenn man beim Gehirn von Vorkenntnissen spricht, wo es sich doch um das Ergebnis von (umfassenden) Lernprozessen handelt, evolutionär erworben oder eben individuell, Lernprozesse in gigantischer Zahl, die das reife Gehirn bereits hinter sich gebracht, ein neu konstruiertes KNN aber noch vor sich hat (soweit es die Technik überhaupt zulässt). Dass bei bestimmten Aufgaben ein trainiertes KNN besser oder schneller ist oder sein kann als das Hirn, ist klar.
Man würde bei einem Vergleich zweier KNNs ja auch nicht sagen, ein bereits trainiertes KNN besäße gegenüber dem nicht trainierten (so etwas wie) Vorwissen oder Vorkenntnisse.
Zum fundamentalen Unterschied zwischen Hirn und KNN: Wenn es wirklich nur um die Prozesse geht, die sich im Bereich von ein bis 1000 Millisekunden abspielen, wie etwa bei der blitzartigen Gesichtserkennung, glauben Sie wirklich, dass da die intrazelluläre Biochemie der Neuronen eine tragendende Rolle spielt? Die neuronale Biochemie dient doch im Wesentlichen „nur“ dem Auf- und Abbau sowie der Erhaltung der zellulären Verknüpfungen, also der Herstellung des Gerüstes, an dem die entscheidenden elektrophysiologischen Prozesse dann ablaufen können.
Dass ein lebendes Nervengewebe etwas fundamental anderes ist als ein „totes” KNN, wird wohl keiner bestreiten wollen. Aber hinsichtlich der Fähigkeit zur Informationsverarbeitung scheint mir da kein fundamentaler oder schon gar kein kategorialer Unterschied zu bestehen, sondern nur ein gradueller.
Balanus: “Ich finde es nach wie vor etwas irritierend, wenn man beim Gehirn von Vorkenntnissen spricht, wo es sich doch um das Ergebnis von (umfassenden) Lernprozessen handelt, evolutionär erworben oder eben individuell, Lernprozesse in gigantischer Zahl, die das reife Gehirn bereits hinter sich gebracht, ein neu konstruiertes KNN aber noch vor sich hat (soweit es die Technik überhaupt zulässt). Dass bei bestimmten Aufgaben ein trainiertes KNN besser oder schneller ist oder sein kann als das Hirn, ist klar.”
Jaromir: “Ein neu konstruiertes KNN” gewinnt beim Lernen eben nur die “Vorkenntnisse” seiner einzelnen tiefen Schichten: Das heißt die erste tiefe (verdeckte) Schicht liefert “Vorkenntnisse” der nachfolgenden zweiten tiefen Schicht und so weiter und sofort. Da aber künstliche neuronale Netze nur auf eine einzelne Aufgabe hin trainiert werden können, haben sie nach dem Training nur die “Vorkenntnisse” aus dem Datensatz, mit dem sie auf diese einzelne Aufgabe trainiert werden. Dem Menschen steht dagegen im Moment, indem er ein Problem lösen muss, sein ganzes vererbtes und in seinem Leben erworbenes Wissen für die Lösung dieses Problems zur Verfügung.
Das heißt: Wenn ein Mensch und ein künstliches neuronales Netz am Spielanfang von Montezuma’s Revenge stehen, weiß der Mensch sofort, dass die Figur im Spiel sich Richtung Tür, die Stufen hoch und so weiter bewegen soll, weil der Mensch dank seinen “Vorkenntnissen” (seinem gesamten Wissen VOR diesem Spiel) weiß, wozu Türen und Stufen dienen und dass man in einem Wettbewerb nun mal zu einem Ziel laufen muss.
Diese “Vorkenntnisse” hat ein künstliches neuronales Netz nicht. Deswegen muss es ein paar Stunden lang herumprobieren, bis es an Belohnungen und Bestrafungen gelernt hat, richtig zu spielen. Einfach gesagt bezieht sich das Wort “Vorkenntisse” auf das Wissen eines Menschen und eines künstlichen Netzes eben vor diesem einem Spiel und relativ dazu. Oder vor dem Lösen eines anderen Problems und relativ dazu.
Balanus: “Zum fundamentalen Unterschied zwischen Hirn und KNN: Wenn es wirklich nur um die Prozesse geht, die sich im Bereich von ein bis 1000 Millisekunden abspielen, wie etwa bei der blitzartigen Gesichtserkennung, glauben Sie wirklich, dass da die intrazelluläre Biochemie der Neuronen eine tragendende Rolle spielt? Die neuronale Biochemie dient doch im Wesentlichen „nur“ dem Auf- und Abbau sowie der Erhaltung der zellulären Verknüpfungen, also der Herstellung des Gerüstes, an dem die entscheidenden elektrophysiologischen Prozesse dann ablaufen können.”
Jaromir: Die neuronale Biochemie ist auch die Grundlage aller Hirnaktivität, somit vor allem der elektrischen Ströme/Signale, die durch Neuronen und Neuronenverbände fließen und die eigentliche Musik machen: An den Synapsen des Ausgangsneurons werden Neurotransmitter freigesetzt, die an die Rezeptoren des Eingangsneurons koppeln und das Freisetzen oder Binden von Kalium-, Natrium- und Calcium-Kationen bewirken, die wiederum mit den Protein- und Chlorid-Anionen wechselwirken und einen Spannungsgradienten im Eingangsneuron verursachen oder auch abschwächen. Auch bei der Entladung strömen Ionen aus und in und durch die Zelle. Das alles ist Biochemie. Bitte um Entschuldigung, dass ich das hier sehr vereinfacht zusammengefasst habe. Diese Prozesse sind viel komplexer, trotzdem biochemisch. Was sonst?
Zu:”Künstliche neuronale Netze:
Ich verstehe ihre Argumentationen, Herr Konencny. Wenn Sie, so meine Ansicht, die Neuronalen Netze verstehen wollen, müssen sie die Evolution befragen und in der Geschichte der Gehirnentwicklung zurückgehen. Will sagen: Sie müssen nicht den zweiten und vierten Schritt machen,sondern den ersten Schritt zuerst. Neuronale Netze sind für mich ein Verbund von expliziten und impliziten Lernen,was sich auch und besonders im Gehirnaufbau zeigt.Implizites Lernen war evlutionär zuerst da und bewirkt weiterhin entscheidend das explizite Lernen.Die Ausschüttung von Neurotransmittern an den Synapsen bzw. ihre Verdrahtungen sind lediglich das sekundäre Ergebnis der Bewertungsprozesse und nicht die Ursachen!
Man kann also kein Auto bauen, wenn man die Konstruktionspläne der EVOLUTION nicht kennt.Gefühle sind Symptome des Wertenden ,womit ich ihnen zustimme. Gleichzeitig sind sie aber auch das Ergebnis von Wertungsmustern sowie als “WERTMAßSTAB “evolutionär in jedem Gehirn verankert. Ohne Gefühle keine natürliche Intelligenz. Geben sie ihrer künstlichen Intelligenz “WertungsMuster”.
Golzower: “Wenn Sie, so meine Ansicht, die Neuronalen Netze verstehen wollen, müssen sie die Evolution befragen und in der Geschichte der Gehirnentwicklung zurückgehen.”
Jaromir: Ich habe acht Jahre lang an der TU München über die Evolutionstheorie und die Entstehung des genetischen Codes geforscht und bin damit fürs Ganze Leben vorbelastet: 🙂 Wenn ich bei meinen Überlegungen zur Hirnforschung etwas befrage, dann immer zuerst die “Evolution”.
Wie Gefühle zustande kommen, damit beschäftige ich mich seit langem ziemlich viel, in dem Video in meinem Blogtext wird ja auch Literatur dazu genannt, das wunderbare Buch “How Emotions Are Made” 🙂
Ich gebe Ihnen aber recht: Wenn wird die gesamte Evolution des Gehirns modellieren bzw. nachvollziehen könnten, würden wir wohl auch viele neue Ansätze für die Entwicklung neuer Algorithmen für künstliche neuronalen Netze entdecken. Deswegen erforscht man ja auch zielstrebig das kleine neuronale Netz von nur 302 Neuronen des Fadenwurms.
Vermutlich ist der sogenannte gesunde Menschenverstand, etwas sehr Gutes, auch wenn ihn manche in Zusammenhang mit dem gesunden Volksempfinden bringen, bösartigerweise, wohl nur für den Menschen erreichbar.
Bestimmte politische Ideologien, idR kollektivistische, wollen ihn angreifen bis rauskriegen, was aber stets nur in Teilen gelingt.
Immerhin ist durch das sogenannte Machine Learning nun doch i.p. KI etwas Brauchbares entstanden, es musste ja lange gewartet werden, insbesondere auch auf hohe Rechenleistung.
MFG
Dr. Webbaer (der immer noch auf Vorschläge für die Definition von Intelligenz [1] wartet – was bspw. Klugheit, Weisheit, Verständigkeit, Abgefeimtheit sind, weiß dagegen jeder)
[1]
“Intelligenz liegt dann vor, wenn sogenannte IQ-Tests erledigt werden konnten”, ist etwas dünn.
Zur Objekterkennung, also zur Erkennung von real existierend scheinenden Gegenständen, hat Russell einiges geschrieben, womöglich das Entscheidende :
-> http://www.loske.org/html/school/philo/russell.pdf (Quelle nicht geprüft, vielleicht das PDF in einer “Sandbox” öffnen, für Vorsichtige)
Zum Wesen des Lernens noch kurz dieses angebliche Einstein-Zitat ergänzt :
Einstein hat’s so wohl nie gesagt, denn es wäre falsch “Wahnsinn” derart zu definieren, “Wahnsinn” wird üblicherweise als Abwesenheit der Ratio verstanden.
Die Naturwissenschaften häufen insofern Evidenz an, gerne auch sehr sehr viel, um eben doch mal andere Ergebnisse generiert zu sehen.
Die Naturwissenschaften gehen heutzutage skeptizistisch vor, es wird ja nicht mehr verifiziert, sondern die Falsifikation von Theorie gesucht.
Zudem kann sich das Verhalten der Welt ja auch irgendwann ändern, die Welt als “Black Box” sozusagen, der Lernende ist Weltteilnehmer, nie Weltbetreiber.
In Hinsicht gilt :
Und so gilt es auch für das Lernen, dessen Wesen prozeduraler Art ist.
@Balanus / 23. September 2018 @ 11:32
Was das spontane Erkennen betrifft, gilt es zunächst einmal zu unterscheiden: Erkennen ist eine der drei Leistungen im Dienst der sogenannten Informationsverarbeitung, die erst an zweiter Stelle (beim prädikativen Denken) vorkommt, nach der Wahrnehmung. Wahrnehmen tut Mensch über seine Sinnesorgane, bei KNN gibt es die nicht. Im menschlichen Gehirn gibt es deshalb aber primäre Zentren, in denen die jeweils wahrgenommenen Reize getrennt “verarbeitet” werden. Nicht ohne Grund basieren die Begriffe (sic!) mit denen wir ausdrücken, etwas gelernt bzw. verstanden zu haben, auf unserem haptisch-taktilen Sinn: wir begreifen, wie erfassen, was wir erkannt oder verstanden haben. KNN tun dies nicht. Und wir erkennen auch keine Muster, sondern im Gehirn arbeiten, die verschiedenen Sinnessysteme zusammen, um dann, auf höherer Ebene, zu einem Erkennen zu kommen.
Wenn Sie einmal ein Kleinstkind (acht Wochen-drei Monate) bei der Auseinandersetzung mit einem Gegenstand beobachtet haben, werden Sie feststellen, dass anfangs der überwiegende Teil der Auseinandersetzung über das haptisch-taktile System geht: es greift den Gegenstand, steckt ihn in den Mund, befingert ihn, schaut ihn zwischendurch an, erwirbt dadurch nicht nur einen visuellen Eindruck, sondern zunächst einen haptischen. Und noch in der präverbalen Phase ist es fähig, Kategorien zu bilden, die es ihm ermöglichen, Hunde von Katzen zu unterscheiden .
Das menschliche Gehirn mag zwar vom Aufbau her Ähnlichkeit mit künstlich neuronalen Netzen haben, aber es arbeitet völlig anders. Und es erkennt keine Muster, das können nur wir.
Im dankenswerterweise bereit gestellten Text sind Beispiele für das Entwickeln von Mustern genannt worden, auch Spiele betreffend, vgl. bspw. auch hiermit :
-> http://www.spiegel.de/netzwelt/gadgets/alphago-besiegt-weltbesten-go-spieler-ke-jie-in-go-turnier-a-1148889.html
“Brute Force” ist hier nichts zu machen.
MFG + schöne Mittwoche,
Dr. Webbaer
Bonuskommentar zum dankenswerterweise zur Verfügung gestellten Text, insbesondere hierzu :
Diese Funktion als Muster sozusagen.
Ein KNN lernt nicht, was ‘am besten’ ist, sondern was besser ist, als zuvor Versuchtes.
Ein KNN wird demzufolge nie optimal verstehen, dies geht zumindest bei hoher Komplexität nicht, ansonsten wäre es “Brute Force”, sondern lernt, kann dabei auch irren und schwer falsch liegen, obwohl es fortlaufend lernt und (relativ) besser wird.
Insofern gilt es auch für unsere Freunde, die KNNe, kompetitiv zu werden und in Konkurrenz zu lernen, sozusagen Gesellschaft nachzubilden, Diversität zu pflegen.
Immer im Bewusstsein (bei hoher Komplexität] nie optimal zu handeln, nie fertig zu sein – und auch grob falsch liegen zu können.
Dr. Webbaer: “Ein KNN lernt nicht, was ‘am besten’ ist, sondern was besser ist, als zuvor Versuchtes.”
Jaromir: In jedem Lernschritt lernt ein KNN grundsätzlich das Minimum der Kostenfunktion zu finden bei den gegebenen Gewichten der Verbindungen zwischen den Neuronen, also den kleinsten Fehler des Netzes. Denn so sind die algorithmischen Vorgaben für das Netz. Dadurch ermittelt das Netz die Funktion, die am besten die Ausgabewerte in Abhängigkeit der Eingabewerte beschreibt. Das Minimum der Kostenfunktion wird mit mathematischen Methoden des “Gradientenabstiegs” ermittelt, damit werden neue Gewichte für die Verbindungen zwischend den Neuronen berechnet – der Fehler wird ins Netz zurückgeführt (Backpropagation).
Selbstverständlich wird aber die Funktion, die die Ausgabewerte in Abhängigkeit von den Eingabewerten beschreibt immer besser, an je mehr Daten sie lernen kann.
Dr. Webbaer: “Insofern gilt es auch für unsere Freunde, die KNNe, kompetitiv zu werden und in Konkurrenz zu lernen, sozusagen Gesellschaft nachzubilden, Diversität zu pflegen”
Jaromir: Mit den vorhandenen Algorithmen ist es einfach nicht möglich, einem künstlichen neuronalen Netz mehr beizubringen als das Lösen einer einzigen Aufgabe oder, in einem Datensatz Muster bzw. Klassen zu finden. Deswegen können KNN nur bei der Lösung einer einzigen Aufgabe in Konkurrenz treten, wie DeepMind zum Beispiel verschiedene Netze beim Lösen eines bestimmten und vorbereiteten IQ-Test verglich (siehe den vorigen Blogtext). Mit Menschen sind KNN schon überhaupt nicht zu vergleichen.
Um zur allgemeinen künstlichen Intelligenz (starke KI) zu kommen, deren Denkfähigkeiten mit den menschlichen verglichen werden könnten, müsste man entweder Millionen, vielleicht Milliarden, KNN gekonnt überlagern und zusammen koppeln, oder ganz neue Ansätze finden, wie eine solche KI gebaut werden kann.
Jein.
“Wir” begreifen, d-sprachig, in anderen Sprachen, vgl. bspw. mit dem Begriff, äh, ‘Term’, ist eher die Zeitlichkeit gemeint, die Entwicklung von Etwas.
Zusammengefasst als “Griff” und “Zeitlichkeit” wäre Dr. Webbaer bei Ihnen, es geht ja nicht nur im Naturwissenschaftlichen um die Arbeit am Versuch, der ausschnittsartig, näherungsweise und an Interessen (!) gebunden erfolgt, was wiederum ausschnittsartig, näherungsweise und an Interessen (!) gebundene Theoretisierung (“Sichtenbildung”, Sichten auf Daten sind gemeint) erzeugt. [1]
Die KNN tun dies ähnlich, sie folgen einem anderen Motivationsimperativ [2], sie sind (noch) Diener und leben nicht, denn Leben bedingt Sterben und sozusagen besondere Kompetivitität, abär sie scheinen auf einem guten Wege. [3]
MFG + schöne Mittwoche noch,
Dr. Webbaer
[1]
Insofern liegt (auch) im Naturwissenschaftliche nackte Veranstaltung vor, nichts Schlechtes daran.
[2]
Derartige Imperative sind zu entwickeln, im Vorbau, bevor sich im erkennenden Sinne näher, wie oben beschrieben, ‘ausschnittsartig, näherungsweise und an Interessen (!) gebundenen’ bemüht werden kann.
Bei der AI schaut’s hier mau aus.
Womöglich : dankenswerterweise.
[3]
Wolfgang Schäuble, Dr. Wolfgang Schäuble hat sich über die Jahrzehnte hinweg als böse ein wenig ins Hirn des Webbaeren geschlichen.
AI, die mit dem hier gemeinten Erkenntnissubjekt direkt konkurriert darf nicht geschaffen werden, es liegt hier eine sozusagen definitorische Selbstverständlichkeit vor.
Gesunder Menschenverstand ist mehr als eine Sammlung von Fakten. Nicht etwa das Wissen, dass Zitronen sauer sind ist entscheidend, sondern wie der Mensch sich
1) dieses Wissen aneignet und
2) wie er es präsent hält und schnell abrufbar macht.
Zu 2) : Selbst spüre ich die Säure einer Zitrone nur schon wenn ich sie anschaue oder daran denke. Diese Unmittelbarkeit des Wissens und auch des Schlussfolgerns (z.B es ist 20h und (Schlussfolgerung) die Einkausläden sind zu) ist unverzichtbar für das fluide, unmittelbare Denken und Handeln. Ohne die Schnelligkeit mit der das geschieht wären wir alle gelähmt und bar jeder Lebendigkeit.
Zum gesunden Menschenverstand gehört auch die Fähigkeit gelerntes zu verallgemeinern und auf andere Anwendungsbereiche anwenden zu können. Während künstliche neuronale Netzwerke heute in Klassifizierungen grosser Datensets (z.B. Alle Thoraxröntgenbilder oder alle Tierfotographien) dem Menschen überlegen sind, sind sie heute nicht in der Lage das Gelernte auf andere Anwendungsgebiete zu transferieren und sie können auch nicht dazulernen ohne dass bestehendes Wissen durch neues verdrängt wird (katastrophales Vergessen).
Mein Verdacht: Der Mensch ist zu besseren, kostengünstigeren Abstraktionen als heutige KNNs in der Lage. Überhaupt spart der Mensch auf raffinierte Weise Speicherplatz ein, indem er schon Bekanntes gar nicht mehr „richtig“ wahrnimmt. Das kann aber nur mit den richtigen Abstraktionen und vor allem den richtigen Abstraktionstechniken funktionieren!
Martin Holzherr: “Gesunder Menschenverstand ist mehr als eine Sammlung von Fakten. Nicht etwa das Wissen, dass Zitronen sauer sind ist entscheidend, sondern wie der Mensch sich
1) dieses Wissen aneignet und
2) wie er es präsent hält und schnell abrufbar macht.”
Jaromir: Das stimmt, dass der gesunde Menschenverstand mehr als eine Ansammlung von Fakten ist. Nur sollten wir dabei nich vergessen, dass ein künstliches neuronales Netz (KNN) lernen und anschließend im engen Bereich seiner Aufgabe generalisieren kann. Es ist also nicht auszuschließen, dass eine sinnvolle Überlagerung von vielen künstlichen neuronalen Netzen (vergleichbar der unseres Gehirns) und die Verkopplung ihrer Fähigkeiten zu generalisieren mit einem breiten Wissen über seine Umwelt und mit guter Sensorik, die Reize aus dieser Umwelt als Input verwerten kann, etwas ähnliches wie den gesunden Menschenverstand hervorbringt.
Die Frage ist also: Ist unser gesunder Menschenverstand MEHR als das Ergebnis einer hochkomplexen Verschachtelung von Millionen neuronalen Netzen in unserem Gehirn zusammen mit der Gehirnaktivität, die in ihnen stattfindet? (Und unseres Wissens und “Embodiments” in unserer Umwelt.) Wenn ja, dann was ist das “Mehr”?
Das einzige “Mehr”, das ich hier sehe, ist der Beitrag der einzelnen Neuronen im Hirn, die nicht punktuell sind, wie in einem KNN, sondern in vielen Funktionen autonome und hochkomplexe Zellen. Diese Neuronen sind aber für die Gehirnaktivität verantwortlich, stecken also schon in der Gleichung drin:
Komplexes System v. neuronalen Netzen + Hirnaktivität + Wissen + Embodiment = Verstand bzw. Bewusstsein
@Dr. Webbaer /
26. September 2018 @ 07:39
Oder: Jedem Punkt auf der Netzhaut entspricht ein Neuron, das über eine Synapse mit einem Neuron einer zweiten Schicht verbunden ist – es konvergiert mit anderen Neuronen auf dieses der zweiten Schicht.Neurone der zweiten Schicht können verschiedene Muster von Übergangsgewichten haben, insofern, ja: ok, insofern kan man ein Neuron der zweiten Schicht als Musterdetektor bezeichnen.
Nur wie gesagt, so funktioniert es im Gehirn eben nicht. 🙁
Zu Alpha Go:
Ich finde die Studie leider nicht mehr, in der die Augenbewegungen von Anfängern nd Meistern im Schachspiel analysiert wurden: Anfänger schauen auf die Figuren bzw. den Zug einer Figur zum Zielfeld, Meister schauen zwischen die Figuren und Felder.
Könnte natürlich genauso funktionieren wie eben beschrieben, nur: was für ein Muster sollte das ergeben, das detektiert bzw. erkannt werden soll?
26. September 2018 @ 09:15
Ich:
Sie:
Ich hatte es schlicht etymologisch gemeint: greifen von ahd: grifan, mhd:grifen, got. gripan; und erfassen von ahd. fazzon (ergreifen, fangen), usw.
Wenn Sie die Zeitlichkeit mit hineinnehmen wollen, also den Prozess, der sich vom Wahrnehmen bis zum Begreifen bzw. Erfassen vollzieht, ist das tatsächlich ein Entwicklungsprozeß, hirnphysiologisch wie kognitionspsychologisch gesehen.
In diesem Zusammenhang vielleicht interessant: In einem Test untersuchte Schwank, worauf zweijährige Kinder zum Zweck des Erkennens achten: sie baute eine Holzeisenbahnstrecke mit einer Brücke auf, unter der Brücke befand sich ein Glockenspiel. Dazu gab es zwei Lokomotiven, eine graue und eine rotgrüne. Fuhr die graue über die Brücke, passierte nichts, fuhr die rot-grüne über die Brücke erklang das Glockenspiel. Anschließend durften die Kinder das ausprobieren. Die meistenKinder nahm die rotgrüne Lokomotive und ließen sie mehrmals über die Brücke fahren. Einige wenige nahmen ebenfalls die rotgrüne, aber sie untersuchten sie vorher und stellten fest, dass die einen Hebel hatte, der die Töne verursachte.
Ein KNN würde sicherlich auch nach zigmaligem Vorführen gelernt haben, dass (sofern es auch Geräusche verarbeiten kann) die rotgrüne Lok Klingeltöne erzeugt. Aber ich bezweifle, dass es je auf den Gedanken käme, bei der Lok nach der Ursache zu suchen.
Zitat Golzower: “Tiere und Menschen werden täglich /stündlich/sekündlich einer Unzahl von Reizen ausgesetzt. Da das Gehirn eine “Reizbewertungsmaschine” ist, bewertet es alle Reize nach dem Schema: bekannte, unbekannte; gefährlich bzw. ungefährlich;angenhem oder unangenehm ,befriedigende und unbefriedigende etc.) Für diese Bewertung hat die Evolution uns Menschen und den Tieren auch die die Emotionen gegeben. Wir können aber REIZE nur einordnen, wenn wir vorher bereits eine Erfahrung (Erlebnis) dazu gemacht haben.“
.
Diesen Ansatz finde ich einleuchtend und für mich bedeutet es: Es gibt kein Denken ohne Fühlen. Der Spruch von Descartes sollte nicht heißen „Ich denke, also bin ich“, sondern „Ich fühle, also bin ich“.
Das bedeutet wiederum, dass man eine Maschine zum selbständigen Denken, zum individuellen Lernen und individuellen Problemlösungen bauen kann, nur wenn man herausgefunden hat, wie Gefühle im Gehirn entstehen und wenn man sie in eine Maschine einprogrammieren kann. Wie die Informationsverarbeitung funktioniert ist aus meiner Sicht nämlich nur die halbe Miete, wir müssten den Antrieb der Informationsverarbeitung auch einprogrammieren, die Gefühle. Und dann stellt sich natürlich in erster Linie eine grundsätzliche ethische Frage: Darf man eine Maschine bauen, die leiden kann?
@Jocelyne Lopez betreffend Gefühle: Denken kann man auch ohne Gefühle – es gibt ja auch gefühlsarme Menschen. Gefühle sind aber eine Art Bewertung von etwas Erlebtem oder einem Reiz. Und wir bewerten ja ständig und filtern damit für uns Wichtiges von weniger wichtigem aus. Letztlich geht es auch um die Sinnhaftigkrit des Denkens und Erlebens. Gefühle und Gefühlsentwicklungen erleben wir meist in einem Sinnzusammenhang.
@Trice // 25. September 2018 @ 15:46
Schönen guten Abend, ich habe zu einigen Ihrer Aussagen mal wieder ein paar Fragen. Sie schreiben:
»Erkennen ist eine der drei Leistungen im Dienst der sogenannten Informationsverarbeitung, die erst an zweiter Stelle (beim prädikativen Denken) vorkommt, nach der Wahrnehmung. Wahrnehmen tut Mensch über seine Sinnesorgane, bei KNN gibt es die nicht.«
Einverstanden, erst kommt die Perzeption an den Sinnesorganen, dann die Wahrnehmung irgendwo im Hirn und schließlich das Erkennen (deuten, werten), auch irgendwo im Gehirn.
Aber wieso soll ein KNN nicht über einen sensorischen Input verfügen können? Irgendwie müssen die Daten ja ins KNN gelangen können, damit Informationsverarbeitung überhaupt stattfinden kann. Entsprechend ausgerüstet, könnte eine künstliche Hand die Rauheit einer Oberfläche prüfen, den pH-Wert von Wasser testen, dessen genaue Temperatur oder die Leitfähigkeit, oder was auch immer technisch irgendwann mal möglich sein wird.
»Das menschliche Gehirn mag zwar vom Aufbau her Ähnlichkeit mit künstlich neuronalen Netzen haben, aber es arbeitet völlig anders.«
Daran habe ich bislang noch gar nicht gedacht: Eigentlich sollte es doch möglich sein, ein KNN so zu konstruieren, dass es wenigstens prinzipiell wie ein „funktional arbeitendes“ Gehirn (oder zumindest Teile davon) funktioniert. Oder sehen Sie da nicht überwindbare Hürden grundsätzlicher Art?
» Und es [das Gehirn] erkennt keine Muster, das können nur wir.«
Wenn ich (als Person, Subjekt, Organismus) ein Muster erkenne, dann tue ich das mittels meines (eines, des) Gehirns. Und da im Schädel nichts anderes ist als das Gehirn und seine „Hilfsstrukturen“, dann kann ich doch auch gleich sagen, dass das Gehirn Muster erkennt. Jedes Organ hat seine Funktion(en), die Leber produziert unter anderem Galle, die Niere Urin und das Gehirn erkennt u.a. eben Muster.
@Golzower // 25. September 2018 @ 09:55
» Man kann also kein Auto bauen, wenn man die Konstruktionspläne der EVOLUTION nicht kennt. «
Na ja, wo liefert denn die Evolution Baupläne für Autos? Oder Diesel-Motoren mit Schummel-Software?
Richtig ist, dass die Evolution zufällig eine grandiose „Denkmaschine“ zustande gebracht hat, sogar eine mit Bewusstsein.
Aber es gibt auch evolutionäre Mängelwesen. Beziehungsweise biologische Konstruktionen, die nur für einen winzig kleinen Bereich tauglich sind.
Nehmen wir z. B. das Fliegen, da gibt es ganz unterschiedliche Fähigkeiten bei Insekten und Vögeln. Der Mensch hat für sich ganz eigene Lösungen gefunden, die es so im Tierreich nicht gibt.
Vielleicht geht es in der Informationstechnologie ja ganz ähnlich: KNN sind möglicherweise nur eine Variante, andere Verfahren könnten sich, je nach Aufgabe und Problemstellung, als viel leistungsfähiger und effektiver erweisen.
Vielleicht müssen wir auch in der KI-Forschung das Fliegen neu erfinden.
Die bisherige Ingenieurskunst will Dinge eigentlich nicht nachbauen, sondern augrund grundlegender physikalischer Prinzipien unter Berücksichtigung real vorhandener Materialien, ein System nach eigenen Vorstellungen realisieren. So gesehen spricht nicht die Analogie, die biomimetische Ähnlichkeit zwischen natürlichen und künstlichen neuronalen Netzen für künstliche neuronale Netze, sondern allein der Erfolg, der mit künstlichen neuronalen Netzen erreicht wird, spricht dafür sie weiter einzusetzen und zu untersuchen. Untersuchen bedeutet auch sie zu verstehen und das wiederum heisst die dahinterliegende Mathematik verstehen. Der Mensch als Ingenieur gibt sich (im Unterschied zur Natur?) eigentlich nie damit zufrieden, dass etwas funktioniert – er will es auch verstehen. Der letzte Satz von Richard Feyman vor seinem Tod war zwar: „What I cannot create, I do not understand“, doch damit meinte er auch, dass man Dinge mit denen man umgeht auch verstehen sollte. Bei künstlichen neuronalen Netzen ist es aber eher so, dass man sie zwar kreieren, erschaffen kann, sie aber heute noch nicht vollständig versteht – für einen ingenieursmässig denkenden Mensch ziemlich unbefriedigend.
Gibt es denn überhaupt Alternativen zu tief verschachtelten künstlichen neuronalen Netzen beim maschinellen Lernen, beispielsweise beim klassifizieren/kategorisieren?
Die Antwort ist ja. Es ist vor allem der Bayessche Ansatz, der viel versprechend ist und auch zu kürzen Lernzeiten mit wenig Lernschritten führt. Allerdings ist der Rechenaufwand dafür heute oft noch zu gross. Beim Bayes‘schen Schlussfolgern kann man zudem angeben, mit welcher Wahrscheinlichkeit ein Resultat, zum Beispiel eine Klassifizierung eines Gefährts als Mercedes Modell XY korrekt ist – etwas was man bei tiefen neuronslen Netzen nicht kann.
Mit Bayes-Methoden meint man generell Methoden, die mit Wahrscheinlichkeiten und Wahrscheinlichkeitsentwicklungen arbeiten und wo Lernen bedeutet, dass die Sicherheit der Aussage steigt. Auch unser eigenes Denken ist übrigens stark von Wahrscheinlichkeiten geprägt. Wenn wir beispielsweise etwas nicht genau erkennen können sagen wir schnell: entweder ist es „das“ oder „das“ oder aber das. So etwas kann aber ein konventionelles neuronales Netz nicht.
Besonders vielversprechend ( aber auch extrem rechenaufwendig ) für KI-Anwendungen sind die ebenfalls zu den Bayes-Methoden gehörigen Gaussian Processes (Zitat Wikipedia übersetzt von DeepL): Ein maschineller Lernalgorithmus, der einen Gaußschen Prozess beinhaltet, verwendet lazy Learning und ein Maß für die Ähnlichkeit zwischen Punkten (die Kernelfunktion), um den Wert für einen unsichtbaren Punkt aus Trainingsdaten vorherzusagen. Die Vorhersage ist nicht nur eine Schätzung für diesen Punkt, sondern hat auch Unsicherheitsinformationen – es ist eine eindimensionale Gaußsche Verteilung (die zu diesem Zeitpunkt die Randverteilung ist)[1].
Gaussian Processes machen also Voraussagen und es gibt viele Anzeichen dass auch unser Hirn ständig Voraussagen macht.
Eine andere Bayes-Methode sind Bayes Neural Networks (Zitat): Neuronale Netze verfügen über kontinuierliche Funktionsannäherungsfunktionen. Stochastische Modelle ermöglichen die direkte Spezifikation eines Modells mit bekannter Interaktion zwischen den Parametern zur Datengenerierung. Während der Vorhersagephase erzeugen stochastische Modelle eine vollständige posteriore Verteilung und erzeugen probabilistische Garantien für die Vorhersagen. Somit sind BNNs eine einzigartige Kombination aus neuronalen Netzen und stochastischen Modellen, wobei das stochastische Modell den Kern dieser Integration bildet. BNNs können dann probabilistische Garantien für ihre Prognosen geben und auch die Verteilung der Parameter generieren, die sie aus den Beobachtungen gelernt haben. Das heißt, im Parameterraum kann man die Art und Form der erlernten Parameter des neuronalen Netzes ableiten.
Fazit: in der KI ist noch vieles (fast alles?) offen. Anstatt neuronale Netze könnten in naher Zukunft auch Gaussian Processes zur Standardmethode werden.
@Balanus / 26. September 2018 @ 21:55
Guten Morgen, 🙂
(naja, eigentlich schon Mittag, aber ich bin Abendmensch)
Es dürfte vermutlich kein Problem sein, ein KNN zu bauen, das auch sensorischen Input als Information empfangen und verarbeiten kann. Nur schrieb ich ja schon mehrfach, dass das menschliche Gehirn als System nicht offen für Information ist. Offen ist es ausschließlich für Energiedurchflüsse. Das heißt aber auch, dass es auf andere Weise arbeiten muss, damit Wahrnehmen, Verstehen und Erkennen gelingen kann. Wenn ein KNN also den pH-Wert von Wasser testet oder dessen Temperatur, heißt das noch nicht, dass es ein Temperaturempfinden hat (und den pH-Wert kann man auch mit Lackmuspapier testen). Darüber hinaus: Sie erinnern sich sicher an Windmanns Brief an einen Zombie. Darin schrieb sie, dass jeder psychische Vorgang aus zwei (A-undB-consciousness) Perspektiven betrachtet werden kann – nur von außen lässt sich nicht beurteilen, ob der Schmerzschrei beim “Messen” der Temperatur nur auf die Verknüpfung zweier Systeme zurückzuführen ist, oder ob tatsächlich Schmerz empfunden wird.
Ob die Hürden unüberwindbar sind, kann ich nicht beurteilen, da ich nicht weiß, ob nicht dann, wenn man herausgefunden hat, wie menschliche Gehirne tatsächlich arbeiten, nicht auch möglich wäre, solche KNNe zu konstruieren – wobei man dazu allerdings auch noch einen Körper braucht, der konstruiert werden muss.
Ein fundamentaler Unterschied besteht derzeit darin, dass die Arbeitsweise menschlicher Gehirne nicht nur auf elektrophysikalischer Basis, sondern auch auf biochemischer Basis abläuft – womit ich nicht nur beispielsweise den Einstrom von Kalium- oder Natriumionen, oder den Neurotransmitterstoffwechsel meine, sondern auch das auf Kommunikationssystem der Astrozyten, das auf rein chemischer Basis funktioniert.
Möglich, dass sich das alles konstruieren lässt, aber der entscheidende Punkt ist, dass menschliche Gehirne keine von außen kommende Information verarbeiten können. Weshalb sie nach einem anderen Prinzip vorgehen, um das, was wir erleben, sind, tun und können, zu bewerkstelligen: es arbeitet nach denselben Regeln, nach denen auch unsere Umwelt(en) funktionieren – anderenfalls wäre kaum gewährleistet, dass das Gehirn sie intern richtig “konstruiert”, nachdem es sie per Sinnessysteme erst einmal als Wellenlängen registriert und zerlegt hat. Wir würden nicht überleben bzw. es würde uns nicht geben, wenn unsere gehirne nach anderen Regeln arbeiteten als die Welt “da draußen”.
Solange man aber diese Regeln und die dazu gehörigen Gesetze nicht kennt: keine Chance!
Nein, können Sie nicht, das ist ein Fehler. Das Gehirn erkennt keine Muster, sondern das neuronale Netz produziert Muster, und das Astrozyten-Netz wirkt daran mit und vermutlich ist das unser “Übersetzer”.
Und um auf Ihr Beispiel zurückzukommen: Die Leber produziert zwar u.a. Galle , aber deshalb muss sie Galle nicht “erkennen”.
@Trice // 27. September 2018 @ 12:03
» Offen ist es [das menschliche Gehirn als System] ausschließlich für Energiedurchflüsse. Das heißt aber auch, dass es auf andere Weise arbeiten muss, damit Wahrnehmen, Verstehen und Erkennen gelingen kann. «
Keine Frage, ein evolviertes (hochentwickeltes) neuronales Netz funktioniert und arbeitet anders als ein KNN. Ansonsten könnte es nicht das leisten, wofür es evolviert ist. Es muss schließlich den Organismus, von dem es ein Teil ist, zielgerichtet durch die Umwelt steuern. Die Art und Weise seiner Entstehung im Evolutionsprozess bedingt eine Reihe von Eigenschaften und Funktionen, die für ein KNN vermutlich überhaupt nicht relevant sind.
» Wenn ein KNN also den pH-Wert von Wasser testet oder dessen Temperatur, heißt das noch nicht, dass es ein Temperaturempfinden hat«
Wozu braucht es ein Temperaturempfinden? Im Hirn dient das Empfinden dazu, qualitative Unterscheidungen treffen zu können. Ein KNN kann hierfür die gewonnenen Messwerte nutzen, auf Zehntelgrad genau, wenn’s erforderlich ist.
» Ob die Hürden unüberwindbar sind, kann ich nicht beurteilen, da ich nicht weiß, ob nicht dann, wenn man herausgefunden hat, wie menschliche Gehirne tatsächlich arbeiten, nicht auch möglich wäre, solche KNNe zu konstruieren – wobei man dazu allerdings auch noch einen Körper braucht, der konstruiert werden muss. «
Legt man Ihre Hypothese/Theorie zugrunde, dann simuliert ein KNN derzeit wohl eher die prädikative Arbeitsweise eines Gehirnes denn die funktionale. Ich hatte mir überlegt, was man an der Vernetzung wohl ändern müsste, damit ein KNN ähnlich wie die funktionale Gehirnvariante funktioniert: Das KNN sozusagen als Test für die Richtigkeit der Hypothese von den zwei kognitiven „Geschlechtern“ (aber das müssen wir hier jetzt nicht vertiefen, war nur so ein Gedanke).
Irritierend finde ich die Einlassung, menschliche Gehirne könnten „keine von außen kommende Information verarbeiten“. Genau genommen gibt es außerhalb der Gehirne sowieso keine „Information“. Statt von ‚Informationsverarbeitung‘ sollte man vielleicht besser von ‚Datenverarbeitung‘ sprechen, beim Gehirn und auch bei einem KNN. In beiden Systemen gibt es bloß „Energiedurchflüsse“ und keine Information im engeren Sinne.
Und ich denke schon, dass wir uns ganz auf diese energetische Seite der Hirnfunktionen konzentrieren können, wobei jedes Neuron einem Knotenpunkt in einem KNN entspricht. Für das Wiedererkennen eines Gesichts innerhalb weniger Millisekunden spielt die Funktion der Astrozyten wohl keine wesentliche Rolle. Das Bewusstwerden dieses Erkennungsprozesses, woran vielleicht die Astrozyten beteiligt sind, ist ja bereits der Output, das Ergebnis der neuronalen, unbewusst ablaufenden elektrophysiologischen Aktivitäten, die durch den sensorischen Input angestoßen werden.
» Das Gehirn erkennt keine Muster, sondern das neuronale Netz produziert Muster,… «
Vorab: Mustererkennung durch das Gehirn impliziert in meinem Sprachgebrauch nicht, dass einem dieses Muster bewusst wird oder dass dies mit bewussten Sinnesempfindungen einhergehen muss.
‚Muster‘ bedeutet, dass es hinsichtlich des sensorischen Inputs Unterschiede gibt, weil eben die physikalische Welt nicht homogen ist. Diese physikalischen Unterschiede sind die „Muster“, die erkannt werden oder eben nicht erkannt werden, weil das neuronale Netz nicht darauf trainiert ist. Produziert werden diese Unterschiede jedenfalls nicht erst im Gehirn.
@Balanus / 28. September 2018 @ 11:57
Um festzustellen, dass ein Gegenstand, mit dem ich in Berührung komme, zu heiß ist, als es für meine Gesundheit gut ist? Wenn ich die Temperatur empfinde, zucke ich blitzschnell zurück; fehlt mir dieses Empfinden, tragen die entsprechenden Hautstellen u.U. schwere Schäden davon. Die natur hätte uns auch ohne ein Temperatur- und Schmerzempfinden ausstatten können, aber offensichtlich hat es sich bewährt – weshalb wir es haben.
Ein KNN simuliert weder die eine, noch die andere. An der Vernetzung bzw. Verschaltungsarchitektur liegt es nicht. Wäre es so, hätte man den Unterschied schon längst bemerkt.
Es werden doch aber auch keine Daten im Gehirn verarbeitet, das hilft also nicht wirklich weiter. Und zwar deshalb nicht:
Da liegt, wenn man so will, der “Fehler”.Vielleicht wird es so verständlicher: Nehmen Sie an, sie haben eine Menge zu einem Netz verbundener Neurone, und jedem dieser Neurone ordnen Sie einen Buchstaben zu. Dann verbinden Sie jeden Buchstaben mit jedem anderen. Nun wollen Sie, dass das Netz den Satz schreibt: “Der Blitz schlaegt in den Baum ein”, und jedes Neuron feuert bei seinem Buchstaben. Für diesen Satz muss das D-Neuron zweimal feuern, das B-Neuron ebenfalls zweimal , das E-Neuron viermal usw. Erkennen und verstehen können Sie den Satz aber erst, wenn Sie den Neuronen eine Regel vorgeben, die besagt, wann, an welcher Stelle sie feuern müssen und wann nicht und an wen (welches Neuron) dieses Signal weitergeleitet werden soll, damit auch die Reihenfolge stimmt.
Es kommt also nur insofern auf die Knoten (Neurone) an, als ohne sie der Satz nicht geschrieben werden könnte. Es kommt vielmehr auf die Regel an.
Ich weiß nicht, wie gut Sie die Forschung auf diesem Gebiet kennen, aber ich denke, Sie kennen den Begriff tripartite Synapse. Eine solche Synapse wird gebildet aus den Endplatten zweier Neurone bzw. Axon /Dendrit und einer Gliazelle oder Astrozyten. Diese sind an der Übertragung am synaptischen Spalt beteiligt, bilden aber auch ein eigenes Netzwerk. Und die derzeitige Vermutung geht dahin, dass Astrozyten für das Bewusstsein maßgeblich sind. Das würde heißen, das Bewusstwerden ist kein Output, sondern basiert auf einem eigenen Netzwerk auf rein chemischer Basis und greif an den synaptischen Verbindungen auf die “Kommunikation” der Neurone zu.
Und wenn Sie an das sogenannte Bindungsproblem denken bzw. an das synchrone Feuern , wen Neurone ein Neuronenensemble bilden – also sich darauf verständigt haben, an der Darstellung desselben Objekts beteiligt zu sein – , dann können Sie diese Synchronien durchaus auch “Muster” nennen.
Worin sehen Sie den Unterschied? Was die Nervenimpulse oder Aktionspotenziale angeht, sieht man denen nicht an, von welchem Sinnessystem sie kommen, auch wenn das von verschiedenen Zelltypen eine unterschiedliche Amplitude haben kann. Aber im Prinzip wandeln alle Rezeptorzellen der Sinnessysteme Wellenlängen in Aktionspotenziale um.
Eben das macht es ja für die Hirnforschung so schwierig, zu erkennen, wie das Gehirn arbeitet.
@ Trice 27. September 2018 12:03
Ich fürchte, werte „Trice“ Sie ignorieren grundlegende Prinzipien der Informationsverarbeitung.
Zitat Wiki: „…Information (von lateinisch in-formare ‚formen‘, ‚bilden‘, ‚gestalten‘, ‚ausbilden‘, ‚unterrichten‘, ‚darstellen‘, ‚sich etwas vorstellen‘)[1] ist eine Teilmenge an Wissen, die ein Absender einem Empfänger über ein bestimmtes Medium (in der Informationstheorie auch als „Informationskanal“ bezeichnet) in einer bestimmten Form (Signale, Code) vermitteln kann und die beim Empfänger in einem für diesen bedeutsamen Kontext zu einem ‚Wissenszuwachs‘[2] führt.“
Dies würde ganz banal. auch die sprachliche Kommunikation zwischen Menschen enthalten.
Diese Definition scheint zwar nicht absolut perfekt, ist aber doch recht brauchbar.
Information muss nicht unbedingt (sofort) „übertragen“ werden. Sie kann einfach nur gespeichert oder in einem internen System verarbeitet (z.B. Google) und sozusagen „auf Vorrat gehalten“ werden und vielleicht nur „irgend einmal“ (oder gar nicht) ausgegeben werden.
Sie behaupten: „Offen ist es (das Gehirn) ausschließlich für Energiedurchflüsse.“
Dies trifft nur teilweise zu. Der Energie ist jedoch Information „aufgedrückt“, man nennt dies „Modulation“. Genau die Modulation (Codierung) ist es, die in der Elektronik/Informatik aber auch bei den „Denkprozessen“, neben dem „Wissen“, von Bedeutung ist.
Die Energie hat nur „Trägerfunktion“, wie ein Blatt Papier.
Wissen ist besonders strukturierte Information.
In Information verarbeitenden Systemen treten „Zustände“ (die jeweils Information abbilden können) auf, die sich bei einer Aktivität laufend verändern können. Dies nennt man „Prozess“. Der Ort an dem dies geschieht, ist ganz allgemein, ein „Prozessor“.
Prozessor – Prozess – und Information stehen in systematischen Wechselwirkungen und sind heutzutage absolut grundlegend in der Technik (vom Kühlschrank, Auto, PC, TV, Handy….).
Technische Computer als auch das Gehirn „realisieren“ die Codierungstheorie und die Boolesche Algebra.
Beim Gehirn kommt zusätzlich hinzu, dass an elektrisch – chemischen Schnittstellen das Empfindungsphänomen auftreten kann.
Sie können als Systemanwender, z.B. bei einem Excel Arbeitsblatt, dies „prädikativ“ sehen, weil sie immer nur „fertige“ Zustände sehen wollen, nicht aber die dahinter stehenden „funktionellen“ Abläufe, die die Programmierer von Excel natürlich entwickeln mussten.
Im Gehirn können Sie immer nur die Bewusstseinszustände (normalerweise nicht aber die dahinterstehenden Prozesse) betrachten, was der Nutzer auch macht.
Wollen Sie es aber genauer erkunden, so sollten Sie die in den Strukturen ablaufenden Prozesse und die dahinter stehende Information (es wird auch viele Regeln geben, davon sogar einige grundlegende Regeln wie die Neuronenfunktion) beachten.
@Jaromir Konecny
(Sorry, ich habe Ihre Antworten spät entdeckt; habe nicht bedacht, dass Sie üblicherweise die Antwortfunktion nutzen)
@26. September 2018 @ 14:54
» Einfach gesagt bezieht sich das Wort “Vorkenntisse” auf das Wissen eines Menschen und eines künstlichen Netzes eben vor diesem einem Spiel und relativ dazu.«
Ok, danke, ich habe verstanden 🙂
@26. September 2018 @ 15:20
» Auch bei der Entladung strömen Ionen aus und in und durch die Zelle. Das alles ist Biochemie. Bitte um Entschuldigung, dass ich das hier sehr vereinfacht zusammengefasst habe. Diese Prozesse sind viel komplexer, trotzdem biochemisch. Was sonst? «
Da gibt es nichts zu entschuldigen, ich habe meine Einlassung offenbar missverständlich vorgetragen.
Was ich meinte, war, dass das biologische Substrat, das Biochemische eben, für die Unterscheidung kognitiver Leistungen nicht wesentlich ist. Die biochemischen Prozesse als solche sind immer die gleichen, ein Aktionspotential ist ein Aktionspotential, Transmitter sind Transmitter, egal, ob es ums Hören oder ums Sehen geht.
Wenn Sie nun schreiben:
dann ist das für sich genommen natürlich richtig (klar, was sonst), aber man könnte das, so halt meine Befürchtung, womöglich auch so verstehen, dass die Funktion der Neuronen bzw. deren Biochemie über das Bereit- und Herstellen des Substrats für die alles entscheidenden elektrophysiologischen Vorgänge wesentlich hinausgeht.
Aber vermutlich hat das ohnehin keiner falsch verstanden…
(Oder ich bin diesbezüglich einfach nicht auf dem aktuellen Stand der Hirnforschung…)
@Trice // 28. September 2018 @ 20:06
» Wozu braucht es ein Temperaturempfinden?
Um festzustellen, dass ein Gegenstand, mit dem ich in Berührung komme, zu heiß ist, als es für meine Gesundheit gut ist? «
Die Frage war eigentlich, wozu ein KNN ein Temperaturempfinden braucht—oder überhaupt irgendein Empfinden, oder Verständnis und dergleichen. Da gab es wohl ein kleines Missverständnis meinerseits.
» An der Vernetzung bzw. Verschaltungsarchitektur liegt es nicht. Wäre es so, hätte man den Unterschied [zwischen prädikativer und funktionaler Arbeitsweise] schon längst bemerkt.«
An den einzelnen Hirnzellen selbst oder am neuronalen Stoffwechsel kann es aber doch auch nicht liegen. Was liegt denn dann Ihrer Vermutung nach diesem Unterschied zugrunde, wenn es nicht die Struktur ist?
» Das würde heißen, das Bewusstwerden ist kein Output, sondern basiert auf einem eigenen Netzwerk auf rein chemischer Basis und greif an den synaptischen Verbindungen auf die “Kommunikation” der Neurone zu. «
Worauf das Bewusstsein konkret basiert, ist m. E. nicht wichtig für die Frage, ob das Bewusstwerden eines Sinneseindrucks als Output der hirninternen Prozesse verstanden werden kann. Gäbe es ein Bewusstsein als umschriebene Entität, dann wäre dieses Bewusstsein sozusagen der selektierende „Empfänger“ des neuronalen Outputs.
Bei Organismen ohne Bewusstsein wäre aber der erzeugte, wenn auch nicht bewusst erlebte, Sinneseindruck das Ergebnis der neuronalen Verarbeitung der Sinnesreize. Ob man das nun bereits Output nennen kann, oder erst das, was danach als motorische Aktion und Reaktion folgt, mag Geschmackssache sein.
» Worin sehen Sie den Unterschied? Was die Nervenimpulse oder Aktionspotenziale angeht, sieht man denen nicht an, von welchem Sinnessystem sie kommen, … «
Ich bin mir nicht sicher, ob ich die Frage verstanden habe. Der Anblick einer grünen Birne dürfte eine andere neuronale Aktivität (oder ein anderes neuronales Aktivitätsmuster) zur Folge haben, als der Anblick eines roten Apfels. Wäre es anders, könnten wir nicht Äpfel von Birnen unterscheiden.
@ Jaromir Konecny 26. September 2018 15:20
Antwort an @Balanus.
Es ist natürlich selbstverständlich dass die neuronale Biochemie auch die Grundlage aller Hirnaktivität, somit vor allem der elektrischen Ströme/Signale, die durch Neuronen und Neuronenverbände fließen ist und die die „eigentliche Musik“ machen.
Es ist letztlich so, dass die Anwender eines Laptop vielmehr interessiert wie kratzfest der Bildschirm ist, oder die Festigkeit des Gehäuse, der Scharniere, die Schnelligkeit oder natürlich der Stromverbrauch und der Akku. Alles ganz wichtige Sachverhalte für die sich Nutzer hauptsächlich interessieren.
Allerdings meine ich, dass man sich, besonders in diesem Forum, für den für viele noch rätselhaften Aspekt der Informationsverarbeitung im Gehirn interessiert. Wie es dazu kommt dass ein Computer Information verarbeitet und wie es sich im Vergleich mit dem Gehirn verhält, ob es womöglich Gemeinsamkeiten oder Ähnlichkeiten gibt?
Besonders für „Balanus“, ich vermute er ist Biologe, sind die biologischen Aspekte wohl selbstverständlich und er interessiert sich für den Aspekt der Informationsverarbeitung.
Sowohl technische Computer als auch das Gehirn „realisieren“ die Codierungstheorie und die Boolesche Algebra.
Die Sensorik setzt die jeweils anliegende Information in elektrische Impulse um, codiert sie dabei, und die Motorik liefert letztlich den Output. Die Neuronen entsprechen annähernd UND Gatter und erledigen sozusagen ganz grundsätzlich die Informationsverknüpfung im Sinne der Booleschen Schaltalgebra.
Mittels eines Effekts den Mathematiker „Faltung“ nennen, wird die einlangende Information zunächst (mittels Neuronen) aufgespalten und die dabei entstehenden (räumlich – zeitlichen) „Mikromusterabbildungen“ werden über verschiedene Hierarchiestufen zu „Mustern“, letztlich z.B. zum Muster (Objekt) „Katze“. ….
Lange komplexe Kettenanordnungen dieser „Neuronengatter“ bewirken eine Signalverarbeitung die letztlich eine realisierte Informationsverarbeitung ist.
In diesem Sinne hat W. McCulloch (als Neurologe) die Informationsverarbeitung erklärt.
E. Kandel hat die synaptische Wissensspeicherung (biochemisch) erklärt. Wie Martin Holzherr so treffend bemerkt hat, ist die Informationsspeicherung auch noch extrem Speicherplatz sparend und außerdem mit besten Zugriffseigenschaften versehen, wie sie eben Baumstrukturen eigen sind.
Ich möchte auch den „funktionalen Aspekt“ der Neuronen betonen. „Spiegelneurone“ sind nicht etwa winzige Spiegel, sondern ganz normale Neuronen. Sie wirken nur ähnlich wie ein Spiegel.
Lt. Wikipedia sind Spiegelneuronen ein Resonanzsystem im Gehirn, das Gefühle und Stimmungen anderer Menschen beim Empfänger zum Erklingen bringt. Das Einmalige an den Nervenzellen ist, dass sie bereits Signale aussenden, wenn jemand eine Handlung nur beobachtet.
Es ist hier alles extrem stark zusammengefasst, kommt nur den Aspekten der „reinen Informationsverarbeitung“ nahe, berücksichtigt nicht die biologischen Aspekte ohne die „nichts geht“.
@ Balanus 30. September 2018 11:46
Zitat: „» Worin sehen Sie den Unterschied? Was die Nervenimpulse oder Aktionspotenziale angeht, sieht man denen nicht an, von welchem Sinnessystem sie kommen, … «
Ich bin mir nicht sicher, ob ich die Frage verstanden habe. Der Anblick einer grünen Birne dürfte eine andere neuronale Aktivität (oder ein anderes neuronales Aktivitätsmuster) zur Folge haben, als der Anblick eines roten Apfels. Wäre es anders, könnten wir nicht Äpfel von Birnen unterscheiden.“
Dies ist in der Tat eine gute Frage.
Ich hoffe ich kann sie Ihnen als Nachtrag zu meinem vorigen Text beantworten.
Der Unterschied liegt darin, dass die „elektrische Signalkaskade“ strukturell (also meistens im schon früher durch Lernen entstandenen neuronalen Netz verläuft) entweder von rot (Apfel) oder grün (Birne) abbildenden Farbpunkten der Netzhaut ausgeht. Beim Kleinkind werden die Strukturen gebildet, danach nur mehr erweitert. Bei anderen Kombinationen von Farbpunkten (Mikromuster) werden andere Objekte abgebildet. Selbstverständlich werden auch andere „Mustermerkmale“ (z.B. Krümmungen) außer nur Farben abgebildet.
Wie in meinem letzten Text aufgezeigt, läuft es bei der Signalverarbeitung auf eine Signalverknüpfung auf einer Gatterstruktur auch im neuronalen System, letztlich wie früher in elektronischen Systemen, hinaus.
Mittels eines Effekts den Mathematiker „Faltung“ nennen, wird die einlangende Information zunächst (mittels Neuronen) aufgespalten und die dabei entstehenden (räumlich – zeitlichen) „Mikromusterabbildungen“ werden über verschiedene Hierarchiestufen zu „Mustern“ verknüpft, letztlich z.B. zum Muster (Objekt) „Apfel“ oder „Birne“.
In weiteren Hierarchiestufen können diese Objekte, genau so wie die Inputmuster auf vorher gelernten „Strukturen“, weiter verarbeitet werden. Am Bewusstsein zur „Abbildung“ kommen, oder ein Output generiert werden. Die Objekte wie „Apfel“ können auch über andere gelernte Muster (z.B. „Hunger“) „referenziert“ werden, ohne dass tatsächlich ein Apfel gesehen wird.
Die Nervenimpulse oder Aktionspotenziale gehen sehr wohl von einer bestimmten Quelle aus, man kann sie derzeit nur nicht, z.B. optisch, verfolgen.
Dieser Beitrag von Jaromir Konecny läuft ja unter dem Blog-Thema GEHIRN & KI und die Firma DeepMind mit ihrem Mitbegründer Demis Hassabis widmet sich tatsächlich in vielen seiner Publikationen und Forschungen genau dem Verbindenden von Künstlichen Neuronalen Netzen/MaschinenLernen und Vorgängen die man im Gehirn entweder beobachtet hat oder dort vermutet.
Der Artikel Neuroscience-Inspired Artificial Intelligence ist quasi eine tour d’horizon über den Transfer von Wissen und Erkenntnis gewonnen in der Hirnforschung zu Anwendungen in der Künstlichen Intelligenz. Schon zu Beginn liest man da: Deep Learning und Bestärkungslernen (Reinforcement Learning) wurzeln beide in Ideen der Neurowissenschaften.
Aufmerksamkeit im Hirn und in der KI
Später wird auf aufmerksamgesteuertes Lernen eingegangen, das heute in der künstslichen Intelligenz eine wichtige Rolle spielt, aber zuerst in der Hirnforschung gefunden wurde. In der künstlichen Intelligenz begann man bei der Verarbeitung von Bildern mit künstlichen neuronalen Netzen, die jeden Teil des Gesamtbildes gleich behandelten und baute dann Fokussierungen der Aufmerksamkeit auf “wichtige” Teilbilder ein, was es ermöglichte, für die zu lösende Aufgabe irrelevante Objekte zu ignorieren und das erst noch mit geringerem Rechenaufwand und besseren Resultaten.
Episodisches Gedächtnis: Erinnerungen als Hilfe für das Lernen
Auch die verschiedenen Gedächtnisbereiche , die man in Hirnen fand wurde in der KI nachgebildet. So zum Beispiel das episodische Gedächtnis, welches Erlebtes schnell abrufbar so speichert, dass es über Assoziationen wieder abgerufen werden kann. Zitat: Ein jüngster Durchbruch in der KI war die erfolgreiche Integration von RL (Reinforcement Learning) mit Deep Learning (Mnih et al., 2015, Silver et al., 2016). So zeigt beispielsweise das Deep Q-Network (DQN) ein Expertenspiel zu Atari 2600 Videospielen, indem es lernt, einen Vektor von Bildpunkten in eine Richtlinie zur Auswahl von Aktionen (z.B. Joystickbewegungen) zu transformieren. Ein wesentlicher Bestandteil von DQN ist “Experience Replay”, bei dem das Netzwerk eine Teilmenge der Trainingsdaten instanzbasiert speichert und dann offline “abspielt” und aus Erfolgen oder Misserfolgen der Vergangenheit neu lernt. Die Erfahrungswiedergabe ist entscheidend für die Maximierung der Dateneffizienz, vermeidet die destabilisierenden Effekte des Lernens aus aufeinander folgenden korrelierten Erfahrungen und ermöglicht es dem Netzwerk, auch in komplexen, hochstrukturierten sequentiellen Umgebungen wie Videospielen eine funktionierende Wertefunktion zu erlernen.
Neurdings werden für die Anwendung im Lernen über Versuch und Irrtum (Reinforcement Learning) auch Erinnerungssequenzen zusammen mit den erhaltenen Belohnungspunkten abgespeichert. Neue Erfahrungen werden dann auf Ähnlichkeit mit den Erinnerungen verglichen und bei genügend grosser Ähnlichkeit nach einer Anpassung übernommen. Damit wurde das Lernen über Versuch und Irrtum erheblich beschleunigt. Diese Form des Lernen benötigt nämlich ohne solche Hilfen extrem lange Trainingsphasen bis es auf Touren kommt.
Auch in Bezug auf das Arbeitsgedächtnis und das kontinuierliche Lernen (lebenslanges Lernen) wurde gemäss Hassabis in der Künstlichen Intelligenz sehr viele Anregungen aus Beobachtungen bei Hirnaktivitäten entnommen.
Insgesamt handelt es sich bei Neuroscience-Inspired Artificial Intelligence um eine Sicht von Hassabis und Mitautoren, welche Erkenntnisse aus Hirnforschung und Kognitionspsychologie in das junge Feld der Künstlichen Intelligenz eingeflossen sind.
Sehr dicht uns inspirierend geschrieben.
Martin Holzherr: “Der Artikel Neuroscience-Inspired Artificial Intelligence ist quasi eine tour d’horizon über den Transfer von Wissen und Erkenntnis gewonnen in der Hirnforschung zu Anwendungen in der Künstlichen Intelligenz. Schon zu Beginn liest man da: Deep Learning und Bestärkungslernen (Reinforcement Learning) wurzeln beide in Ideen der Neurowissenschaften.”
Jaromir: Vielen Dank für den wunderbaren Artikel. Den kannte ich komischerweise nicht, obwohl ich mich doch recht viel mit DeepMind beschäftige.
@ Balanus / 30. September 2018 @ 11:46
Ich hatte gemeint, diese Frage bereits beantwortet zu haben, als ich schrieb:”Nehmen Sie an, sie haben eine Menge zu einem Netz verbundener Neurone, und jedem dieser Neurone ordnen Sie einen Buchstaben zu. Dann verbinden Sie jeden Buchstaben mit jedem anderen. Nun wollen Sie, dass das Netz den Satz schreibt: “Der Blitz schlaegt in den Baum ein”, und jedes Neuron feuert bei seinem Buchstaben. Für diesen Satz muss das D-Neuron zweimal feuern, das B-Neuron ebenfalls zweimal , das E-Neuron viermal usw. Erkennen und verstehen können Sie den Satz aber erst, wenn Sie den Neuronen eine Regel vorgeben, die besagt, wann, an welcher Stelle sie feuern müssen und wann nicht und an wen (welches Neuron) dieses Signal weitergeleitet werden soll, damit auch die Reihenfolge stimmt.
Es kommt vielmehr auf die Regel an.
Und die von der jeweiligen Regel vorgegebene Reihenfolge, in der die Neurone nicht nur feuern, sondern mittels derer sie sich auch daraufhin verständigen, an der Repräsentation desselben Objekts beteiligt zu sein, diese Reihenfolge ist bei der prädikativen Variante eine andere, als bei der funktionalen. Am “Bindungsproblem” demonstriert: prädikativ: 1.Form, 2.Ort, 3. Farbe ; funktionale: 1. Form, 2. Farbe, 3. Ort. Ergebnis ist in beiden Fällen dasselbe: gemeinsam ergeben sie das Objekt, das man wahrnimmt. Auf der Wahrnehmungsebene scheint der Unterschied keine Rolle zu spielen, weshalb wir uns darauf verständigen können, dasselbe Objekt zu sehen. Wenn Sie das Objekt dagegen erkennen oder gar in seiner Funktion,seinem Zweck verstehen wollen, macht sich der Unterschied deutlich bemerkbar.
Übrigens ist es keine Vermutung: wir haben es experimentell nachweisen können.
Eben deshalb ist es wichtig, weil das Bewusstwerden dessen, was auf neuronaler Basis “konstruiert” wird, nicht der Output des Konstruktionsprozesses ist. Als Ouput enthalten sie stets nur wieder entweder Feedback- oder Feedforward-“Signale”.
Wie gerade geschrieben: Nein, ist es nicht. Was die Selektion betrifft, kommt dabei die Aufmerksamkeit ins Spiel und die Reizstärke.
Woran wollen Sie denn festmachen, ob Organismen Bewusstsein haben oder nicht, wenn Sie Bewusstsein nicht an etwas Konkretem festmachen können? Schmerz ist z. B. etwas, das bewusst, als eigener Schmerz, erlebt wird. Wie wollen Sie bestimmen, ob ein Fisch am Angelhaken leidet, oder eine Fliege, der man die Flügel ausreißt?
Mit dem Aktivitätsmuster bin ich einverstanden, wenn wir uns darauf einigen können, dass es sich dabei um das Schwingungsmuster handelt. Nur ist dieses synchrone Schwingen nicht auf die Farbe oder das Objekt zurückzuführen, sondern darauf, dass die Neurone, die an der Repräsentation beteiligt sind, sich darauf geeinigt haben, dass die Regel erfüllt ist.
@ Trice 28. September 2018 20:06
Zitat: „Ich weiß nicht, wie gut Sie die Forschung auf diesem Gebiet kennen, aber ich denke, Sie kennen den Begriff tripartite Synapse. Eine solche Synapse wird gebildet aus den Endplatten zweier Neurone bzw. Axon /Dendrit und einer Gliazelle oder Astrozyten. Diese sind an der Übertragung am synaptischen Spalt beteiligt, bilden aber auch ein eigenes Netzwerk. Und die derzeitige Vermutung geht dahin, dass Astrozyten für das Bewusstsein maßgeblich sind. Das würde heißen, das Bewusstwerden ist kein Output, sondern basiert auf einem eigenen Netzwerk auf rein chemischer Basis und greift an den synaptischen Verbindungen auf die “Kommunikation” der Neurone zu.“
Diese Aussage würde meiner vagen Vermutung bezüglich der Realisierung des „Empfindungsbewusstseins“ nahekommen, sofern tatsächlich auf die elektrische “Kommunikation” der Neurone zugegriffen würde.
Das „informelle Bewusstsein“, das Netz dass z.B. veranlasst den Satz zu schreiben: “Der Blitz schlägt in den Baum ein”, dürfte eher an Zwischen bzw. Endschichten “informell abgebildet” werden, wovon die steuernden Signale ausgehen. Die nachgeschalteten Verknüpfungen kann man sich nicht einfach „linear“ vorstellen, sondern im Prinzip “baumartig“, so dass nicht nur eine Dekodierung (welcher Buchstabe) sondern auch eine Sequenzierung (ein Buchstabe nach dem anderen) erfolgt.
Was Sie unter „Regel“ verstehen, dürften so etwas wie „Zuordnungsvorschriften“ wie sie bei Kodierungs/Dekodierungsprozessen (mittels Gatteranordnungen im Sinne von McCulloch) auftreten, sein. Das „Sequenzierungsproblem“ kann mittels besondere Gatterstrukturen die von einer Art von „Takt“ gesteuert werden, in der Elektronik und wohl auf ähnliche Weise auch in der Neurologie, relativ einfach gelöst werden.
Das „Bindungsproblem“ das Prof. Singer entdeckt hat, „passt“ vorzüglich zu McCullochs Gatterkonzept, weil Synchronitäten mittels Gatteranordnungen ausgewertet werde können. Physiker haben das „Bindungsproblem“ als grundlegend bestätigt und das Konzept z.B. im „Hirnschrittmacher“ (Parkinson, Epilepsie …) erfolgreich zur Anwendung gebracht.
Solange man das Empfindungsbewusstsein nicht sicher (wie z.B. oben vage angedeutet) zuordnen und die Aktivitäten sicher messen kann, kann man nur aus dem Verhalten Vermutungen anstellen ob z.B. ein Fisch oder eine Fliege Empfindungen hat. Ich würde meinen, zumindest alles „Tierische“ was sich geschlechtlich vermehrt und vor Gefahr fliehen will, hat ein Empfindungsbewusstsein.
Liebe Kommentatoren,
eigentlich habe ich mir vorgenommen, jeden Ihrer Kommentar zu beantworten, und so arbeite ich die Kommentare der Reihe nach chronologisch ab, wenn ich etwas Freizeit finde, was bei mir selten passiert. Chronologisch mache ich das, damit ich keinen Kommentatoren bevorzuge. Kommentare, die sich nicht direkt auf meinen Text beziehen, beantworte ich oft nicht.
Irgendwann muss ich aber wieder einen neuen Blogtext schreiben, und so schaffe ich’s einfach nicht, alle Kommentare abzuarbeiten.
Ich weiß, ich sollte mich disziplinieren und kürzere Blogtexte verfassen, damit für die Kommentare mehr Zeit bleibt, und das wird auch sicher bald passieren, nur waren die Themen für mich bis jetzt grundsätzlich und somit relativ “breit”.
Trotzdem freue ich mich sehr, dass die “Gehirn & KI”-Texte und ihre Themen hier von Ihnen so enthusiastisch, mit viel Spaß am Thema und fundiert diskutiert werden. Das zeigt nur, wie wichtig und interessant das Gebiet künstliche Intelligenz und künstliche neuronale Netze im Vergleich zur Hirnforschung sind.
Ich hoffe, Sie verzeihen mir, wenn einige Ihrer Kommentare von mir unbeantwortet bleiben und diskutieren lustvoll weiter. Zum Glück gibt es hier genug versierte Diskutanten. Ihre Kommentare zu lesen schaffe ich auf jeden Fall. 🙂
Auf meiner Facebookseite “Maschinenlernen” poste ich nahezu jeden Tag Neues zu künstlichen neuronalen Netzen und maschinellem Lernen – dort sind die Beiträge und die Kommentare viel kürzer, da es dort nicht so ins Philosophische geht wie hier. Eher werden im “Maschinenlernen” einzelne konkrete News aus der Welt der künstlichen Intelligenz verlinkt und gepostet. 🙂
Ich würde mich sehr freuen, wenn Sie meine “Maschinenlernen”-Seite besuchen und dort auch mitdiskutieren könnten. Bald schließe ich der Seite eine Facebookgruppe an.
Herzliche Grüße aus dem virtuellen Raum
Jaromir
Zitat Elektroniker: „Das „Bindungsproblem“ das Prof. Singer entdeckt hat, „passt“ vorzüglich zu McCullochs Gatterkonzept, weil Synchronitäten mittels Gatteranordnungen ausgewertet werde können. Physiker haben das „Bindungsproblem“ als grundlegend bestätigt und das Konzept z.B. im „Hirnschrittmacher“ (Parkinson, Epilepsie …) erfolgreich zur Anwendung gebracht.“
.
Ich erlaube mir hier nur eine Anmerkung am Rande: Prof. Wolf Singer hat nichts entdeckt und das Konzept der „Hirnschrittmacher“ zur Behandlung von Parkinson oder Epilepsie wurde nicht durch Physiker erfolgreich zur Anwendung gebracht, siehe z.B. folgende Studie: Parkinson-Behandlung mit Tiefenhirnstimulation (Hirnschrittmacher)
@Elektroniker /1. Oktober 2018 @ 21:50
So stellt man es sich jedenfalls vor, bzw. geht davon aus, dass die “Information” in diesen Schichten verschmiert ist.
Wenn ich Analogien verwende, dann tue ich das in dem Wissen, dass sie sehr grobschlächtig sind und nur ein ganz bestimmter Aspekt dem entspricht, was ich als analog empfinde. Sie sind also mit Vorsicht zu behandeln, wobei ich immer hoffe, dass das, worauf ich hinauswill, auch durchkommt.
Ich denke, es ist schon klar, dass das Netz keinen Satz schreibt, wenn, dann bin ich oder irgendein andere Mensch derjenige, die/der ihn schreibt. Denn …
…auch wenn die synaptischen Verbindungen tatsächlich strauchartig verzweigt sind, die Ähnlichkeit mit dem Beispiel endet da, wo man von einem Satz aus Wörtern und Buchstaben ausgeht. Denn so arbeitet das Gehirn nicht.
Mit Ordnung hat die Sache zu tun, das stimmt, aber nicht mit Zuordnung und nicht mit Vorschrift. Mit den Regeln kann man beschreiben, was passiert, aber interessanterweise ist es die Materie, die sich darauf einigen muss, wie sie die Regel erfüllt. Was die Zuordnung betrifft, wird die von einem Gesetz vorgegeben, und dabei geht es nur um Zeitfolgen, also Vergangenheit, Gegenwart, Zukunft.
@Trice // 1. Oktober 2018 @ 14:50
» Es kommt vielmehr auf die Regel an. «
Aber diese „Regel“ muss doch in der Struktur oder in den Eigenschaften der beteiligten Neuronen irgendwie verankert sein. Wie sonst könnte die „funktionale“ Arbeitsweise eines Gehirns auf einer anderen Regel (oder anderen Regeln) basieren als bei der „prädikativen“ Variante. So, wie den Geschlechtern ja auch unterschiedliche physische Strukturen zugrunde liegen.
Deshalb liegt es nahe, anzunehmen, dass die jeweils beteiligten Neuronen doch gewisse unterschiedliche Eigenschaften besitzen müssen, wenn sie sich bei dem einen so und bei der anderen anders auf etwas „einigen“ können, so dass am Ende „die Regel erfüllt ist“.
Bekanntlich gleicht kein Gehirn absolut dem anderen. Die Spanne der verschiedenen Fähigkeiten und Begabungen ist immens. Diese Verschiedenheit lässt sich meines Erachtens am besten durch eine unterschiedliche Feinstruktur der Gehirne erklären (etwa bei der Empfindlichkeit oder Anzahl der Neuronen, dem Ausmaß der Verknüpfungen, was auch immer).
Was aber aus meiner Sicht überhaupt nicht geht, ist zu sagen, dass zwei hypothetische Gehirne, die strukturell vollkommen gleich sind, dennoch eine unterschiedliche Performance (funktional/prädikativ) aufweisen können.
Das heißt, wenn es tatsächlich einen fundamentalen Unterschied zwischen den prädikativ und funktional arbeitenden Gehirnen gibt, derart, dass man sogar von zwei mentalen Geschlechtern reden könnte, dann müsste man dementsprechend (im Prinzip) auch unterschiedliche KNN konstruieren können, die entweder nach der einen oder nach der anderen Variante funktionieren. Es sei denn, dass spezifische Eigenschaften der Neuronen der Knackpunkt sind und diese nicht nachgebildet oder simuliert werden können.
(Soweit fürs erste… vielleicht lege ich noch nach)
@ Balanus 3. Oktober 2018 14:13
Ihrer Sicht, werter “Balanus”, stimme ich durchwegs fast schon begeistert zu.
Würde „Trice“ formulieren „n“ Regeln, sich nicht festlegen auf eine bestimmte Anzahl, wäre die Aussage eine Tautologie, immer richtig. Praktisch alles geschieht nach Regeln. Aber man möchte die Regeln zumindest annähernd kennen. Nur dann gibt es Sinn, selbst wenn man nicht alle Regeln vollständig kennt.
Der Lösung des ADHS Problems könnte man vielleicht mittels CT näher kommen.
Man hat z.B. nachgewiesen dass die besondere Fähigkeit von Spitzengeigern darauf beruht, dass bestimmte Feinstrukturen im Gehirn die die Fingerfertigkeit steuern, besonders stark ausgeprägt sind, im Vergleich mit Durchschnittsmenschen.
Ähnliches hat man mit Kellnern versucht die sich viel merken müssen. Kann allerdings nicht sagen ob etwas herausgekommen ist. Es hängt von der Auflösung der CT Geräte ab und von der Größe uns Art der beteiligten Neuronen.
@Elektroniker // 3. Oktober 2018 @ 18:26
Freut mich, dass Sie die Dinge ähnlich sehen wie ich, dann kann es so falsch ja nicht sein 😉
Am 30. September 2018 @ 16:25 haben Sie geschrieben:
» Die Nervenimpulse oder Aktionspotenziale gehen sehr wohl von einer bestimmten Quelle aus, man kann sie derzeit nur nicht, z.B. optisch, verfolgen.«
Dazu fiel mir noch ein, dass man ja auch ohne Beteiligung der Netzhaut Bilder sehen kann, insbesondere beim Träumen. Manche hören gelegentlich auch Stimmen, ohne dass jemand etwas sagt. In diesen Fällen ist die Wahrnehmung kein Resultat einer von außen kommenden Signal- oder Informationsverarbeitung, sondern wird systemintern generiert.
Könnte dereinst ein hochentwickeltes KNN so etwas im Prinzip auch leisten? „Power On“ und es beginnt im Netz zu arbeiten, ohne dass es einen speziellen Input gibt, lediglich ein Speicher, auf den das Netz „nach Belieben“ zugreifen kann.
@Balanus / 3. Oktober 2018 @ 14:13
Sie ist ja auch verankert, nur nicht in der Struktur oder den Eigenschaften der Neurone, sondern in der Verschaltungsarchitektur des Gehirns. Das ist doch schon seit Jahren bekannt. Wolf Singer schrieb schon 1997,”Dies weist darauf hin, daß in der Hirnrindepluripotente Verarbeitungsalgorithmen realisiert sind, die für eine Vielzahl verschiedener Funktionen verwendet werden können und deren Iteration allein zur Emergenz qualitativ neuer Leistungen führen kann.” Nicht anders habe ich es beschrieben, außer dassich nicht von Verarbeitungsalgorithmen,sondern von Regeln spreche.
Warum sollte das nahe liegen? Noch einmal Singer: ” (…) ergeben sich auf allen Verarbeitungsstufen kombinatorische Probleme, deren Grundstruktur immer die gleiche bleibt.” Nichts anderes ist mit “einigen” gemeint
Also erst einmal sind es reale und keine hypothetischen Gehirne, zweitens “vollkommen gleich” sind keine zwei Gehirne, es gibt immer individuelle Unterschiede, schon deshalb, weil wir alle unterschiedliche Eigenschaften und Fähigkeiten haben, unterschiedliche Erfahrungen machen usw. und deshalb auch ständig im Gehirn neue Verbindungen entstehen und andere abgebaut werden.
Woran man den Unterschied zwischen einem funktionalen und einem prädikativen Gehirn bisher festmachen kann, ist der unterschiedliche Dopaminstoffwechsel, also die Gehirnchemie. Das würde nach meiner Auffassung heißen: eine interne Kommunikation und “Verständigung” auf der Basis einer anderen Regelvariante bedingt einen anderen neurochemischen Stoffwechsel.
Naja, der Knackpunkt dürfte die Chemie sein. Ob man das irgendwie nachbilden kann, weiß ich nicht. Andererseits lässt sich der Unterschied inzwischen auch im EEG sichtbar machen: Im Gegensatz zu dem EEG-Bild bei prädikativen Personen, bei denen man zu Beginn der Ableitung eine kontinuierliche Alpha-Grundaktivität feststellen kann, wechselt bei funktionalen Personen das Vigilanzniveau zu Beginn alle zwei bis drei Sekunden. Der Grund dafür könnte im o.g. Stoffwechsel liegen: Dopamin wird bei funktionalen Personen am synaptischen Spalt deutlich schneller in die präsynaptische Endplatte zurücktransportiert.
Wie gesagt, etwas komplexer ist es halt schon. Weshalb ich denke, dass man solche Fragen erst einmal gelöst haben sollte, bevor man von Bewusstsein oder Intelligenz bei KNNen sprechen kann.
(Soweit fürs erste… vielleicht lege ich noch nach)
Ok
@ Balanus 4. Oktober 2018 21:25
Zitat: „Dazu fiel mir noch ein, dass man ja auch ohne Beteiligung der Netzhaut Bilder sehen kann, insbesondere beim Träumen. Manche hören gelegentlich auch Stimmen, ohne dass jemand etwas sagt. In diesen Fällen ist die Wahrnehmung kein Resultat einer von außen kommenden Signal- oder Informationsverarbeitung, sondern wird systemintern generiert.“
„Traumbilder“ dürften in „Bewusstseinsschichten“ generiert werden, ähnlich wie reale Bilder (vom Input). Allerdings nicht vom realen Input ausgehend, sondern z.B. auch im technischen Sinne von „Störimpulsen“ stammend. Es könnten „Restladungen“ in Neuronen sein, die doch noch bei etwas veränderten chemischen Verhältnissen in der Nacht, oder wegen Störimpulsen (wenn auch nur kleine Störimpulse das Triggern von Neuronen auslösen können) neue Denkprozesse die über die „Bewusstseinsanzeigestrukturen“ führen, generieren. Die Restladungen könnten von am Tag vorher stattfindenden Denkprozessen stammen. Dies würde begründen, warum „Fragmente“ von den Denkprozessen vom Vortag in den Träumen „vorkommen“. Eine (fehlerhafte) Einspeisung (Koppelung) von (einzelnen) Signalen kann Signalkaskaden auslösen und auch zu absurden Denkprozessen führen.
So etwas ähnliches wie „Bewusstseinsanzeigestrukturen“ grid cells (engl., etwa ‚Koordinaten-Zellen‘ oder ‚Raster-Zellen‘) hat Maybrit Moser im Hippocampus und im entorhinalen Cortex, identifiziert. Über Ratten ins Gehirn eingepflanzte Mikroelektroden konnte sie nach Auswertung der Signale gut voraussagen welche Futterstelle in einem Labyrinth das Versuchstier auswählen wird. Sie soll übrigens aus ihrem im Büro stehenden Lautsprecher, allein aus den Signalgeräuschen der Ableitungen, bereits erkannt haben wie sich das Tier entschieden hat, bevor es seinem Weg im Labyrinth antrat und noch vor der systematischen Auswertung im Computer.
Was hier als (informelles) Bewusstsein bezeichnet wird, hat eine gewisse Ähnlichkeit mit Akkustrukturen (Datensammler) in der Informatik. Sie sind sozusagen der „Mittelpunkt“ der Informationsverarbeitung. Früher (als die Systeme noch „einfach“ waren) haben sich Techniker mit einem 2. Computer und passenden Schnittstellen, hauptsächlich beim Akku „aufgeschaltet“ um sozusagen mit dem 2. Computer (und passender Software) den 1. (z.B. defekten Computer) sozusagen „beim Denken zuzuschauen“ und Fehler zu ermitteln. Den 1. Computer wurden Prüfsignale eingespeist.
Zitat: „Könnte dereinst ein hochentwickeltes KNN so etwas im Prinzip auch leisten? „Power On“ und es beginnt im Netz zu arbeiten, ohne dass es einen speziellen Input gibt, lediglich ein Speicher, auf den das Netz „nach Belieben“ zugreifen kann.“
Derartiges ist bei Computersystemen völlig selbstverständlich. Wenn ein Computer keinen Input vom Nutzer erhält „beschäftigt“ sich das System sozusagen „mit sich selbst“. Er „prüft“ sich selbst auf Integrität, oder beschäftigt sich mit seiner internen Organisation, er nutzt sogar das Internet.
Balanus, Trice
Zitat: „Sie ist ja auch verankert, nur nicht in der Struktur oder den Eigenschaften der Neurone, sondern in der Verschaltungsarchitektur des Gehirns.“
Ich meine, da liegt ein semantisches Problem vor.
Unter „Struktur oder den Eigenschaften der Neurone“ ist nicht nur die Struktur eines einzelnen Neuron gemeint, sondern auch die Struktur des Neuronenverbandes bis hinauf zur Verschaltungsarchitektur des Gehirns.
Für die Wissensabbildung sind hauptsächlich die synaptischen Verknüpfungen zuständig.
Zwei hypothetische Gehirne können philosophisch gesehen völlig gleich sein, aber so gut wie niemals in der Realität.
Dass es Wechselwirkungen zwischen den elektrischen Prozessen mit den chemischen Prozessen in neuronalen Systemen gibt erscheint klar, allerdings besteht hier offenbar noch großer Forschungsbedarf.
Bewusstsein oder Intelligenz können mehr oder weniger genau in der Technik „nachgebildet“ werden. Je mehr darüber bekannt ist, desto besser wird die „Nachbildung“.
@Elektroniker
Wo steht das bzw. wer behauptet das? Und falls Sie die tripartite Synapse meinen – auch da wüsste ich nicht, wie es zu eine “Wissensabbildung” kommen sollte.
Vielleicht sollten wir erst einmal unterscheiden zwischen chemischen und elektrischen Synapsen (gap junctions). Über letztere laufen Signale schneller ab und können in beide Richtungen übertragen werden. Chemische Synapsen dagegen haben in den Endplatten Vesikel, in denen die Botenstoffe enthalten sind, die am synaptischen Spalt ausgeschüttet werden, wenn das elektrische Signal am Axon entlang die Endplatte erreicht. Das Signal wird dann mittels Botenstoffen zur postsynaptischen Platte übertragen, wo es als elektrisches Signal zum Zellkern läuft – diese Übertragung ist aber keine Wechselwirkung. Das ist relativ gut untersucht.
@ Trice 5. Oktober 2018 19:41
Zitat: „Für die Wissensabbildung sind hauptsächlich die synaptischen Verknüpfungen zuständig.
Wo steht das bzw. wer behauptet das? Und falls Sie die tripartite Synapse meinen – auch da wüsste ich nicht, wie es zu eine “Wissensabbildung” kommen sollte.“
Abgesehen davon dass es „synaptische Verknüpfungen“ sind und genau genommen nicht „die synaptischen Verknüpfungen“ die eine „Wissensabbildung“ bewirken, halte ich dies für korrekt.
Dies behauptet E. Kandel (wurde im Jahr 2000 mit dem Nobelpreis für Physiologie oder Medizin ausgezeichnet) und er hat es im Prinzip nachgewiesen und auch erklärt.
Ich kann zwar die Chemie hinter den Prozessen höchstens grob verstehen, aber dass die Wissensabbildung mittels derartiger Strukturen erfolgt, ist für Elektroniker/Informatiker völlig plausibel.
In der Informatik bezeichnet man derartige Strukturen als „Bäume“ und es erscheint zweckmäßig diesen Begriff in die Neurologie zu übertragen. Im Internet gibt es einfache Erklärungen zu „Wissen“, „Baumstruktur“ (beschreibt hierarchische Zusammenhänge) usw.
Mittels „Baumstrukturen“ könnten Sie das was sie unter „Regeln“ umschreiben, genauer formulieren und auch Antworten auf Ihre offenen Fragen finden.
Es sind höchst effiziente Strukturen die in der Informatik absolut grundlegend und alltäglich sind. „Wissen“ wird letztlich in der Informatik auf „baumartigen Strukturen“ abgebildet. Außerdem haben derartige Strukturen erstklassige und einfach zu realisierende Eigenschaften wie z.B. einfache Strukturerweiterung bei Wissenszuwachs (neue Neuronen und freie Dendriten werden eingebunden, bestehende Verbindungen „verstärkt“) und beste Zugriffseigenschaften. Es dürfte weitgehend unbestritten sein, dass die Neuronenverbände allein schon optisch erkennbar, derart strukturiert sind und auch dass sie sich bei offensichtlichem Wissenszuwachs erweitern.
Ich vertrete weiters die Sichtweise von McCulloch der mit seinem „Gatterkonzept“, die Prädikatenlogik, die Grundlage für die Informationsverarbeitung (Boolsche Algebra) in der Elektronik/Informatik ist, auf neuronale Systeme überträgt und damit die Informationsverarbeitung im neuronalen System nachvollziehbar macht.
Dass es Wechselwirkungen zwischen den elektrischen Prozessen mit den chemischen Prozessen in neuronalen Systemen gibt ist eine Vermutung von mir.
Es geht nicht nur um die Vorgänge die Sie im Detail beschrieben haben. Kombinationen elektrischer Signale bewirken letztlich Empfindungen und dürften sogar organische Krankheitsprozesse auslösen (Psychosomatik) können.
@Elektroniker: Wissensabbildung
Kandel habe ich gelesen, dort aber nichts Deratiges gefunden. Im “Journal of Physiology” schrieb er nur: ” Der Umstand, das die verbindungen zwischen nervenzellen über eine halbe Stunde durch eine Versuchsanleitung verstärkt werden können, die darauf ausgelegt ist, ein behavioristisches Konditionierungsparadigma zu stimulieren, ässt darauf schließen , dass die begleitenden veränderungen in der syaptischen Stärke möglicherweise einfachen Formen der Informationsspeicherung zugrunde liegen.”
Von Wissensabbildung steht da nichts. Was das behavioristische Konditionierungsparadigma angeht habe ich nebenan im Blog von Stephan Schleim am Beispiel eines KNN beschrieben, wie genau das funktioniert. Die verschiedenen Arten von Netzen (assoziative, autoassoziative,kompetitive usw.) sowie das operante und klassische Konditionieren eines Netzes beschreibt Frank Rösler in “Psychophysiologie der Kognition” sehr ausführlich. Von Wissensabbildung findet sich auch bei ihm nichts, wohl aber ein Kapitel “Wie wird Information repräsentiert?”:
“Es ist offensichtlich nicht so sehr ein spezifischer Ort an einer eng umschriebenen Stelle der Großhirnrinde, an dem ein bestimmter Inhalt reaktiviert wird. Vielmehr gibt es beim Gedächtnisabruf immer ein großflächiges, weit ausgedehntes Aktivierungsmuster.” Diese Muster überlappen sich zu einem großen Teil und Untersuchungen haben ergeben, dass es sich beim Aufruf eines Inhalts um eine Mischung aus langfristigen gedächtniseinträgen und kurzfristigem Behalten handelt, die in der fMRT sichtbar gemacht werden kann. Allerdings wird dabei die Abhängigkeit des Signals vom Sauerstoffgehalt der roten Blutkörperchen gemessen.
Nichts gegen Kandel, aber inzwischen ist die Forschung am Gehirn doch schon etwas weiter.
Was nicht daran hindern sollte, sich auf dem laufenden Stand zu halten, ;-).
Das liegt nicht in meiner Entscheidung, :-). Aber wenn Sie sich einmal ausschnittweise eine neuronale Verschaltung angesehen haben, dann trifft “strauchartig” weitaus besser zz als “baumartig”.
Mit Sicherheit nicht, soviel ist schon klar. Wir haben es mal mit Prädikatenlogik versucht, aber sie erwies sich als ungeeignet. In der Mathematik versucht man derzeit, eine neue Mathematik zu entwickeln, da die bisherige – von der Arithmetik bis zur Kategorientheorie – nur analytisch ist und nur Objekte zu beschreiben vermag. Aber für Disziplinen wie Systemtheorie, DATA Science, Strukturtheorie, Informationswissenschaften, Process Science, Organisationswissenschaften und Wissenswissenschaften ist sie nicht geeignet. Im Unterschied zur Mathematik soll diese neue Mathematik sich mit synthetischen Urteilen befassen – ich bin gespannt, was die machen.
Momentan ist es eher so, dass ich offene Fragen beantwort 😉
@ Trice
Dass E. Kandel möglicherweise selbst die große grundsätzliche Bedeutung seiner Entdeckung nicht völlig klar war, ist gut möglich. Er erklärt den Lernprozess und die Entstehung des Kurzzeit/Langzeitgedächtnis. Obwohl McCulloch das „Auswerteprinzip“ von Information mittels „Gatteranordnungen“ bereits in den 1940 er Jahren entdeckt hat, dürfte dies Kandel nicht bekannt gewesen sein.
Aber dem Nobelpreiskomitee war dies offensichtlich bekannt.
Dies belegt die Pressemitteilung:
Zitat: „Den Nobelpreis des Jahres 2000 in Physiologie oder Medizin erhält:
….
Eric Kandel, Center for Neurobiology and Behavior, Columbia University, New York, wird belohnt für seine Entdeckung, wie die Effektivität der Synapsen verändert werden kann und mit welchen molekularen Mechanismen das erfolgt. Anhand des Nervensystems einer Meeresschnecke als Modell, hat er gezeigt, daß Veränderungen der Funktion der Synapsen zentral für Lern- und Erinnerungsvermögen sind. Für die Entstehung einer Form von Kurzzeitgedächtnis spielt die Phosphorylierung in der Synapse eine wichtige Rolle. Für die Entstehung eines Langzeitgedächtnisses ist außerdem die Neubildung von Proteinen erforderlich, die u.a. dazu führen, daß sich Form und Funktion der Synapse ändern.“
Wissen ist jedenfalls besonders strukturierte Information und wird nun einmal im (strukturierten) Gedächtnis strukturiert gespeichert. In den mir zugänglichen Publikationen wurde „Gedächtnisbildung“ mit „Wissen“ im Zusammenhang gebracht.
Zitat Trice: “Es ist offensichtlich nicht so sehr ein spezifischer Ort an einer eng umschriebenen Stelle der Großhirnrinde, an dem ein bestimmter Inhalt reaktiviert wird. Vielmehr gibt es beim Gedächtnisabruf immer ein großflächiges, weit ausgedehntes Aktivierungsmuster.” Diese Muster überlappen sich zu einem großen Teil und Untersuchungen haben ergeben, dass es sich beim Aufruf eines Inhalts um eine Mischung aus langfristigen Gedächtniseinträgen und kurzfristigem Behalten handelt, die in der fMRT sichtbar gemacht werden kann. Allerdings wird dabei die Abhängigkeit des Signals vom Sauerstoffgehalt der roten Blutkörperchen gemessen.“
Dem kann ich aus meiner Sicht zustimmen. Würde jedoch hinzufügen:
Die Aktivierungen, (z.B. bei der Auswertung) ergeben sich durch letztlich elektrische Signalflüsse durch die kaskadiert und hoch komplex angeordneten Neuronen.
Es verhält sich so ähnlich wie ehemals bei komplex und kaskadiert angeordneten Gatteranordnungen der Elektronik.
Mathematische Grundlage ist die Boolsche Algebra.
Ihren Einwand bezüglich der noch fehlenden Mathematik, sehe ich auch.
Die zeitlichen und statistischen Effekte (der redundanten) Speicherung und der Sachverhalt dass die „Neuronengatter“ ihre Funktion nicht präzise wie technische Gatter ausführen, kann vermutlich derzeit nicht ausreichend beschrieben werden.
Ein Neuron erfüllt eine „Gatterfunktion“, im Gegensatz zur Elektronik, sozusagen nur statistisch.
Ein Neuron triggert dann, wenn der Schwellwert erreicht wird, wenn auf möglichst vielen Eingängen (Dendriten) möglichst gleichzeitig Impulse eintreffen. Ich würde dies „qualifiziertes UND“ nennen.
In der Elektronik sind derartige „Gatterverknüpfungen“ nicht redundant und entsprechen exakt der Boolschen Algebra. Die Prozesse die in Prozessoren (von Neuman) ablaufen, werden mittels Programmiersprachen bestens beschrieben.
@ Elektroniker: Konzepterwerb
Es ist vielleicht nicht ganz klar geworden, dass ich vom menschlichen Gehirn und seiner Arbeitsweise spreche – zu künstlich intelligenten Wesen (KI) kann ich dagegen nichts sagen und
zu Netzwerken auch nur wenig.
Was das Gehirn betrifft sieht das ganz anders aus. Ich wäre auf die Unterscheidung zwischen einem prädikativ und einem funktional arbeitenden Gehirn vermutlich nicht gekommen, wenn ich nicht die Frage gestellt hätte, wie eigentlich das Wissen “ins Gehirn kommt”, bzw. wie der Konzepterwerb funktioniert.
Diese Frage hätte ich nicht gestellt, wenn mir nicht der Unterschied zwischen diesen beiden Gruppen aufgefallen wäre. Dem bin ich mit einer Reihe von Tests nachgegangen. In diesen Tests zeigte sich, dass bei funktionalen Personen kein Lerneffekt eintrat, wenn das Wissen in der falschen Reihenfolge präsentiert wurde. Das ging teilweise soweit, dass diese Personen, wen ihnen ein Bild präsentiert wurde, nichts erkennen konnten, auch wenn es sich um einfache Abbildungen handelte, die die Leute der anderen Gruppe spontan erkannten; dass sie einfache Sätze, mitunter sogar Wörter nicht verstanden und deshalb nicht in der Lage ware, sie zu wiederholen. Änderte ich die Reihenfolge , in der ih das, was gelernt werden sollte, änderte, klappte es auf Anhieb – dann hatten allerdings die Personen der anderen Gruppe Schwierigkeiten.
Das war der Grund, weshalb ich anfing, mich mit Hirnforschung zu beschäftigen, um herauszufinden, wie verläuft der Prozess des Wahrnehmens, des Erkennens und des Verstehens im menschlichen Gehirn, und worin unterscheidet sich dieser Prozess bei den einen und bei den anderen, bzw. wie arbeitet das Gehirn der einen Gruppe im Unterschied zur anderen.
Mein größtes Problem dabei war, dass ich in Lehrbüchern, Fachbüchern, wissenschaftlichen Artikeln zwar jede Menge von dem lesen konnte, was Sie und Balanus hier schreiben, aus diesen Unmengen an Fakten aber nicht extrahieren konnte, was den Unterschied ausmachte – die Veränderung an den Synapsen finden bei der einen Gruppe ebenso statt wie bei der anderen, die Neuronen unterscheiden sich nicht, auch Verschaltungsarchitektur und Hirnstrukturen sind nicht signifikant anders – und trotzdem dieser gravierende Unterschied, der sich nur an der unterschiedlichen Reihenfolge, die man als Regel formulieren kann, festmachen lässt. Und ich habe mich immer wieder gefragt, worauf die Wissenschaftler da alle bloß gucken und was sie da teilweise in ihre Ergebnisse hineininterpretieren.
Trotzdem gab es in den Bergen von Literatur immer wieder etwas, wonach ich gesucht hatte und von dem ich wusste, es muss da irgendwo sein. Gut, ich hatte Hilfe, aber auch denen musste ich sagen, wonach ich suche und was mir fehlt. Aber irgendwann hatte ich es dann.
Es war dann gar nicht mehr so schwierig zu beschreiben, wie das Gehirn arbeitet, und wie wir zu unserem Wissen, zu den Inhalten unseres Gedächtnisses kommen und neues Wissen erwerben usw. Das lässt sich ganz gut im Modell darstellen, es wird allerdings zunehmend unübersichtlicher, je höher man in der Hierarchie kommt, aber die Grundstruktur blebt immer dieselbe.
Weitaus schwieriger war und ist, diese von Singer erwähnten Verarbeitungsalgorithmen in ein Regelwerk zu übersetzen – ein prädikatives und ein funktionales – , zumal die Mathematiker, mit denen ich zusammengearbeitet habe, mir nicht mehr weiterhelfen konnten.
Jedenfalls solange Sie alle sich auf die Netzwerke inklusive Synapsen konzentrieren, wird niemand herausfinden, wie ein menschliches Gehirn arbeitet. OK?
@ Trice
Zitat: “Dem bin ich mit einer Reihe von Tests nachgegangen. In diesen Tests zeigte sich, dass bei funktionalen Personen kein Lerneffekt eintrat, wenn das Wissen in der falschen Reihenfolge präsentiert wurde. Das ging teilweise soweit, dass diese Personen, wen ihnen ein Bild präsentiert wurde, nichts erkennen konnten, auch wenn es sich um einfache Abbildungen handelte, die die Leute der anderen Gruppe spontan erkannten; dass sie einfache Sätze, mitunter sogar Wörter nicht verstanden und deshalb nicht in der Lage waren, sie zu wiederholen. Änderte ich die Reihenfolge , in der ich das, was gelernt werden sollte, änderte, klappte es auf Anhieb – dann hatten allerdings die Personen der anderen Gruppe Schwierigkeiten.“
Derartige Phänomene interessieren mich.
Ich verstehe allerdings nicht, wie Sie ein Bild in der falschen Reihenfolge „eingeben“ können?
Wenn ein linearer Prozess falsch „ abgebildet“ würde, wäre das Verständnisproblem naheliegend.
Es gibt ein irgendwie ähnliches Phänomen, das „Balint Syndrom“. Es ging ursprünglich um eine Grundschullehrerin die einen Kopfschuss abbekam und danach z.B. einen am Tisch liegenden Füllhalter nicht wahrnehmen konnte, aber wenn man sie aufforderte eine Unterschrift zu leisten konnte sie das anstandslos mit dem Füller. Ursache dürfte die hoch komplexe redundante Informationsspeicherung sein, wobei es Ausfälle gibt wenn assoziative Verbindungen gestört werden, oder möglicherweise nicht vorhanden sind, was beim Balint Syndrom erforscht sein dürfte.
In der EDV gibt es das Problem, dass manche Menschen sehr gut z.B. mit Excel Tabellen umgehen können, aber sich beim funktionalen Programmieren mitunter sehr schwer tun.
Für diejenigen die das Gehirn letztlich für eine „Musterverarbeitungsmaschine“ halten, könnte das von Ihnen angesprochene Phänomen damit zusammenhängen, dass die Musterkomponenten die die „örtliche“, oder „zeitliche“ Musterkomponente abbilden unterschiedlich stark ausgeprägt sind.
Bei „prädikativen Typen“ dürften die örtlichen-, bei „funktionalen Typen die zeitlichen Musterkomponenten bevorzugt werden. Dies wäre letztlich ein Strukturproblem, so wie eben z.B. Berufsgeiger eine besonders ausgeprägte Feinsteuerung der Fingerfertigkeit besitzen.
Herr Holzherr hat einige Ansätze der Strukturbildung erklärt (Faltung) wie sie auch in natürliche neuronalen Netzen auftreten dürften.
@Trice // 6. Oktober 2018 @ 19:58
Ihre Antwort an @Elektroniker zum Konzepterwerb hat mir noch mal verdeutlicht, wie unterschiedlich wir bereits den Begriff „Arbeitsweise“ zu verstehen scheinen, soweit es um das Gehirn geht: Ich nämlich denke dabei zuvörderst an die elementaren organischen Prozesse und Strukturen, Sie offenbar an höhere kognitive Funktionen, wie sie im Begriffspaar „prädikativ/funktional“ zum Ausdruck kommen.
Ich habe kein Problem damit, mir vorzustellen, dass das Erkennen logischer und/oder kausaler Zusammenhänge bei Menschen derart unterschiedlich abläuft, dass man diese beiden Gruppen (prädikativ/funktional) bilden kann (auch wenn ich dazu tendiere, dass es dabei auch Überschneidungen oder Mischformen geben muss, aus biologischen Gründen).
Aber wenn es so ist und es diesen prädikativ/funktional-Unterschied tatsächlich gibt, dann muss es dafür einen Grund geben, und diesen Grund sehe ich eben in den basalen neuronalen Strukturen und Prozessen. Ob man diese nun kennt oder nicht, spielt zunächst mal keine Rolle, es muss sie einfach geben, wiederum aus sozusagen bio-logischen Gründen.
Einen Hinweis liefert ja bereits der Befund, dass es zwischen den besagten Gruppen offenbar einen Unterschied im Dopaminstoffwechsel gibt. Sie schreiben hierzu:
» [E]ine interne Kommunikation und “Verständigung” auf der Basis einer anderen Regelvariante bedingt einen anderen neurochemischen Stoffwechsel«
Nun rätsele ich noch darüber, was genau mit „bedingt“ gemeint ist: „bedingt“ im Sinne von „erfordert“, oder im Sinne von „bewirkt“?
Aus meiner Sicht müsste „erfordert“ gemeint sein: die Regelvariante „funktional“ setzt einen anderen neurochemischen Stoffwechsel voraus als die Variante „prädikativ“. Die Neurochemie bzw. Neurophysiologie würde demnach darüber entscheiden, ob ein Gehirn funktional oder prädikativ arbeitet (vereinfacht gesagt, es geht mir nur ums Prinzip, andere mögliche Faktoren/Bedingungen/Voraussetzungen lasse ich außen vor).
Nebenan auf Menschen-Bilder fragen Sie (5. Oktober 2018 @ 12:59):
» Warum meinen eigentlich alle, dass sich die Arbeitsweise des menschlichen Gehirns mal eben so auf ca. zwanzig Seiten und mit einem einzigen Experiment beschreiben und erklären lässt? «
Zwanzig Seiten, ja, die sollten genügen, um das Prinzip zu erläutern, ein einziges Experiment, nein, das würde nicht weiterhelfen.
Ich meine, es dürfen auch 2 x 20 Seiten sein (Teil 1 und Teil 2), wenn es der Sache bzw. dem Verständnis dient.
@Elektroniker: Reihenfolge
Sie präsentieren ja nicht nur ein Bild. Würden Sie einer x-beliebigen Zahl von Leuten nur ein Bild hinlegen, würden die einen vielleicht einen Blick darauf werfen und sich wieder einer anderen Sache widmen, einige würden es anschauen und vielleicht “schön” ,”uninteressant” oder “Na und?” finden wieder ander würden es wegwerfen, usw.
Also, im Normalfall präsentiert man ein Bild mit einer Aussage, die darauf zielt, eine Antwort zu erhalten. Das heißt, die Leute müssen Bild und Aussage in einen Zusammenhang bringen.
Die “normale” Reihenfolge ist also:
1. Präsentation des Bildes 2. Aussage zum Vorgehen oder Frage, 3. Antwort,
Funktioniert bei allen prädikativen Leuten, bei funktionalen nur, wenn die sich mit einem Trick behelfen. Für die muss die Reihenfolge lauten
1. Aussage zum Zweck , 2. Präsentation des Bildes, 3. Antwort
Wenn in 1. der Zweck nicht enthalten ist, hat die Person drei Möglichkeiten: entweder sie setzt willkürlich einen (sie rät), oder sie fragt, worum es geht, oder sie steht , sitzt einfach da und macht nichts. Wenn man dann nachfragt, stellt sich heraus, sie erkennt auf dem Bild nichts (heißt: sie sieht zwar etwas, aber das ergibt keinen Sinn), sie hat auch die Aussage oder Frage nicht verstanden.
Das Problem, das die Hirnforschung hat – und vermutlich auch die KI-Forschung: sie geht induktiv vor, d.h., sie versucht, von den Teilen zum Ganzen zu kommen.
Ich bin den umgekehrten Weg gegangen: vom Ganzen zu den Teilen.
@Balanus:
Ich denke an beides, weil eins nicht geht oder das andere: neuronale Strukturen und Prozesse und kognitive Funktionen – und ich denke daran, beides miteinander zu verbinden.
Neuronale, organische Strukturen und Prozesse sind sinn- und nutzlos, wenn es keine kognitiven Funktionen gibt, die auf sie zugreifen können. Und kognitive Funktionen sind sinnlos, wenn es keine neuronalen Strukturen und Prozesse gibt.
Mischformen kann es nicht geben, weil die “Verbindung” auf der Reihenfolge der Variablen einer Regel basiert, die bereits in der Verschaltungsarchitektur realisiert ist. ich kann mir auch nicht vorstellen, wie das funktionieren soll: ein Gehirn, das bei jedem einzelnen Prozess wählen soll, ob es nach dieser oder der anderen Variante vorgehen soll. Was es dagegen gibt, sind “Übersetzungen” vom Funktionalen ins Prädikative. Denn letzteres ist der Ablauf der Realität, und ein funktionales Gehirn muss sich dem anpassen knnen.
» [E]ine interne Kommunikation und “Verständigung” auf der Basis einer anderen Regelvariante bedingt einen anderen neurochemischen Stoffwechsel«
Sowohl als auch, deshalb habe ich ja auch “bedingt” geschrieben. Bewirkt kommt der Sache zwar näher, aber es hätte ja auch andere Lösungen für das Problem geben können.
Sie erfordert eine Lösung, mit der sie erfüllt werden kann. Wie diese aussieht, ist nicht festgelegt. Aber diese hat sich offenbar als erfolgreich erwiesen
Nein, das geht ja nun doch nicht, :-). Die Regel bzw. die beiden Varianten sind ja unendlich viel älter.
» Warum meinen eigentlich alle, dass sich die Arbeitsweise des menschlichen Gehirns mal eben so auf ca. zwanzig Seiten und mit einem einzigen Experiment beschreiben und erklären lässt? «
Nun, theoretisch geht es sogar noch kürzer:
Es existieren zwei in sich homogene menschliche Gehirne, die sich darin unterscheiden, dass ihre Arbeitsweise auf einem universalen Gesetz beruht, das zwei Varianten vorliegt. Die Gehirnprozesse beruhen dabei auf Regeln, die entweder der einen oder der anderen Variante unterliegen. Die Varianten nennen wir Prädikativ- und Funktionalgesetz. Das Prädikativgesetz lautet: Weil an Vergangenem(X) Gegenwärtiges (Y) ansetzt, deshalb wird Zukünftiges (Z) (nicht mehr) existieren. Das Funktionalgesetz lautet. Weil Zukünftiges (Z) im Vergangenem(X) vorkommt, deshalb setzt Gegenwärtiges (Y) an Zukünftigem an. Die Regeln beschreiben – in der Wenn, dann-Form – Abläufe und Erzeugungsprozesse, basierend auf entweder der prädikativen oder der funktionalen Variante.
Das wäre das Prinzip. Nur glaube ich nicht, dass eine solche Aussage auch nur ansatzweise verstanden würde.
@Balanus: Erklärungsprobleme
Dass dieses Prinzip, wenn man es so hinschreibt, nichts erklärt, dürfte evident sein. Wen es dennoch interessiert, der wird nachfragen: Wie kommt man überhaupt darauf, dass es zwei in sich homogene Gehirne geben könnte; woran machen Sie das fest; was ist das für ein Gesetz, was sind das für Regeln; was bedeuten die Aussagen; wieso können es nicht Denkstile sein, warum nur zwei Gehirne – ohnehin gleichen sich doch keine zwei Gehirne vollständig, usw.
Also muss man das ausführen, und das geht dann schon weit über das Prinzip hinaus, davon abgesehen, dass ich anfangs nicht mehr als die beiden Regeln hatte, aber kein Gesetz.
Wenn Sie an Singers Aussage der “pluripotenten Verarbeitungsalgorithmen” denken, die “für eine Vielzahl verschiedener Funktionen verwendet werden können und deren Iteration allein zur Emergenz qualitativ verschiedener Leistungen führen können”, dann betrifft das zwar die Regeln, aber es gibt von ihnen Variationen. Nichtsdestotrotz ist es das, was man – wenn man sie kennt – dann auch kann: sie mit den verschiedenen Funktionen in Verbindung bringen, und zeigen, wie diese Iteration funktioniert und wie dadurch, hören, sehen, fühlen möglich wird – sowohl auf prädikative als auch auf funktionale Weise. Ein Experiment hat man damit immer noch nicht, ganz abgesehen davon, dass man mit dem Experiment nur das Zutreffen der Regel belegen kann, aber keine Regel erhält.
Imgrunde macht man, wenn man einem KNN oder einer KI haufenweise Bilder im Internet präsentiert, nicht viel anderes: Aus der Regel kommt man nicht aus, die bleibt dieselbe. Das heißt, man baut die KI, schon dabei hält man sich an die universale Regel bzw. geht nach ihr vor, dann präsentiert man ihr Bilder, und dann fragt man das Ergebnis, die Antwort ab. Deshalb sind aber beide noch lange nicht dasselbe.
Auf meiner Facebook-Seite Maschinenlernen (hier klicken) machte ich mir heute etwas Gedanken über die Intuition. Nur sehr kurz. 🙂
@Trice // 8. Oktober 2018 @ 11:55
» Neuronale, organische Strukturen und Prozesse sind sinn- und nutzlos, wenn es keine kognitiven Funktionen gibt, die auf sie zugreifen können. «
Ich würde es anders formulieren: Höhere kognitive Funktionen setzen besondere neuronale, organische Strukturen und Prozesse voraus. Deshalb denke ich bei ‚Arbeitsweise‘ zuvörderst an die der Kognition zugrundeliegenden Prozesse und Strukturen.
» ich kann mir auch nicht vorstellen, wie das funktionieren soll: ein Gehirn, das bei jedem einzelnen Prozess wählen soll, ob es nach dieser oder der anderen Variante [prädikativ/funktional] vorgehen soll.«
Bei jedem einzelnen Prozess? Ich dachte, der Unterschied zwischen den beiden Varianten würde sich nur bei höheren kognitiven Funktionen zeigen (wie bei jenen Testaufgaben, von denen Schwank berichtet). Allem Anschein wäre demnach nur ein kleiner Bereich der kognitiven Funktionen betroffen, nämlich der, der für das Erkennen von Sach- und Kausalzusammenhängen zuständig ist, was im Weiteren dann auch für eine angemessene Prädiktion relevant ist.
Ich sage nicht, dass ein Individuum (oder Gehirn) zwischen den beiden Varianten hin- und herschalten kann, sondern meine, dass es jeweils verschieden starke Ausprägungen dieser Varianten geben könnte, womöglich auch in ein und demselben Individuum. Welche Arbeitsweise dann letztlich zum Zuge kommt, hängt von den Begleitumständen ab.
»____ Die Neurochemie bzw. Neurophysiologie würde demnach darüber entscheiden, ob ein Gehirn funktional oder prädikativ arbeitet (…).
Nein, das geht ja nun doch nicht, :-). Die Regel bzw. die beiden Varianten sind ja unendlich viel älter.«
Inwiefern ist das Alter der Regelvarianten von Relevanz für die Funktion von Organen?
Ihrer Theorie nach entscheidet es sich bereits bei der Befruchtung der Eizelle, ob sich ein funktional oder prädikativ arbeitendes Gehirn entwickeln wird. Alle Entwicklungsprozesse verlaufen regelkonform. Irgendwo im Entwicklungsgang müsste die Entwicklung des zentralen Nervensystems dann divergieren, so dass am Ende nur eine der beiden Varianten zum Tragen kommt. Bisher ist der Dopaminstoffwechsel der einzig bekannte Unterschied zwischen den beiden Varianten. Also ist die Entwicklung der Neurochemie ein (mit-)entscheidender Faktor dafür, welche Variante realisiert wird.
In einer Antwort an die Adresse von @Elektroniker haben Sie am Ende geschrieben:
» Das Problem, das die Hirnforschung hat – und vermutlich auch die KI-Forschung: sie geht induktiv vor, d.h., sie versucht, von den Teilen zum Ganzen zu kommen.
Ich bin den umgekehrten Weg gegangen: vom Ganzen zu den Teilen. «
Die Fragen, die wir an die Natur stellen, gehen fast immer von etwas Ganzem aus. Etwa wenn wir fragen, wie ein System funktioniert. So kommt man vom Ganzen zu den Teilen, die das System konstituieren — und selbst wiederum Systeme darstellen. Dieses Spiel kann man weitertreiben bis hin zu den elementarsten Teilchen, womit wir dann die Grenze unserer Erkenntnisfähigkeit erreicht hätten.
Bei der Konstruktion eines Systems kann man aber nicht anders vorgehen, als Teile zu einem Ganzen zusammenzufügen: Atome organisieren sich zu Molekülen, Moleküle zu Zellen, Zellen zu Organismen, Organismen zu Gesellschaften.
Diese Selbstorganisation kann natürlich nur im Rahmen der naturgegebenen Gesetzmäßigkeiten oder „Regeln“ ablaufen. Und dieser Ablauf kann nur von unten nach oben erfolgen, vom Einfachen zum Komplexen, von den Teilen zum Ganzen.
Das heißt, die KI-Forschung kann gar nicht anders, als zu versuchen, von den Teilen zum Ganzen zu gelangen, wenn sie verstehen und erklären will, wie das Ganze funktioniert.
Ich halte es für einen wichtigen Punkt, dass man eine Vorstellung davon hat, wie aus dem Neuroektoderm entweder ein funktional oder ein prädikativ arbeitendes Gehirn wird, wo und wann die Weichen dafür gestellt werden.
@Balanus / 11. Oktober 2018 @ 00:15
» Neuronale, organische Strukturen und Prozesse sind sinn- und nutzlos, wenn es keine kognitiven Funktionen gibt, die auf sie zugreifen können. «
Nein, das wäre nicht richtig: Gehirn (Neuronale Verschaltungsarchitektur) und Funktion bedingen sich wechselseitig, d.h., das Eine setzt das Andere voraus und umgekehrt. Ein Bekannter meinte einmal, das Cerebellum sei anfangs ohne Funktion gewesen, die sei erst entstanden, nachdem sich das Cerebellum entwickelt hätte. Das ist jedoch völlig unmöglich: bevor sich eine Struktur entwickelt, muss es eine Notwendigkeit für sie und ihre Funktion geben. Die Strukturen entwickeln sich also gemäß ihrer (kognitiven) Funktion, umgekehrt leistet die Funktion nur das, was die Struktur hergibt.
» ich kann mir auch nicht vorstellen, wie das funktionieren soll: ein Gehirn, das bei jedem einzelnen Prozess wählen soll, ob es nach dieser oder der anderen Variante [prädikativ/funktional] vorgehen soll.«
Ich habe es bisher vermieden, das erneut anzusprechen: Frau Schwank konnte als Mathematikdidaktikerin nie mehr behaupten als das, was sich innerhalb ihres Forschungsbereichs untersuchen lässt, sie ist keine Hirnforscherin und keine Psychologin. Diese Beschränkung habe ich nicht, weshalb ich weitergehen und den Unterschied bis auf Hirnebene und darüber hinaus zeigen konnte: indem ich auf zwei Regeln rekurrierte, die bedauerlicherweise nur die kognitiven Psychologen zu kennen scheinen.
Ich habe mit Mathematikern dazu diskutiert, die zwar nichts gegen meine modifizierten Regeln hatten, mir aber klarmachten, dass sie damit nichts anfangen können. Es hat lange gedauert, aber vor einiger Zeit sagte mir einer von ihnen, der sich sehr lange damit beschäftigt hat, ich müsse ein Gesetz postulieren, zu dem diese Regeln gehören. Wenn dieses Gesetz in zwei Varianten vorläge, wäre das ok, aber ich müsse dann außerdem sagen: Was ist das für ein Gesetz, welche Aussage macht das Gesetz und welche Aussage machen die Varianten. Und da ich schon früher gesagt habe, es handele sich bei den Regeln um Kausalität, was reichlich schwamig war, wurde es mit dieser Forderung einfacher: Kausalität ist ein Gesetz, das in zwei Varianten vorliegt und mit kausalen Regeln ausgeführt wird. Deshalb ja: jeder einzelne Prozess im Gehirn unterliegt dem Gesetz und einer seiner Regeln – daher die Aussage von Singer, dem das aufgefallen war. Ausführlich schreibt er:
“Das Gehirn des Menschen unterscheidet sich von den Gehirnen anderer Säugetiere lediglich durch die gewaltige Zunahme des Volumens der Großhirnrinde undder mit ihr in Beziehung stehendenStrukturen. Selbst die Binnenorganisation der Großhirnrinde wurde seit ihrem ersten Auftreten im wesentlichen beibehalten. Dies weist darauf hin, daß in der Hirnrinde pluripotente Verarbeitungslgorithmen realisiert sind, die für eine Vielzahl verschiedener Funktionen verwendet werden können, und deren Iteratin allein zur Emergenz qualitativ neuer Leistungen führen kann. (…) Wahrnehmen, dDnken, Erinnern, Sprachproduktion und Sprachverstehen, das Planen von Handlungsentwürfen und die Programmierung von Bewegungsabläufen erscheinen als recht unterschiedliche Leistungen und doch beruhen sie allesamt im wesentlichen auf Funktionen der Großhirnrinde. Die Analyse der histologischen Feinstruktur der Hirnrinde stützt die Hypothese, daß mit der Evolution dieses Netzwerkes von Nervenzellen ein Modus der Informationsverarbeitung erfunden wurde, der zur bewältigung unterschiedlicher Aufgaben taugt.” *
Nichts anderes behaupte ich – außer dass ich den Verarbeitungsalgorithmen einen Namen gebe: ich nenne sie kausale Regeln, die alle das gleiche Grundmuster aufweisen; dass bewegungsabläufe nicht programmiert werden, sondern ebenfalls diesen Regeln folgen; und dass diese Modus nicht erfunden wurde, er – die Kausalität – war schon da. Ockhams razor
🙂 Genau das sagte mir damals auch der Wissenschaftler, mit dem ich mehrere Jahre zusammengearbeitet habe,und er lachte, als ich sagte, um das zu bestätigen, müsste ich meine Seele verkaufen und das tue ich nicht. Aber nachdem ich mit den Regeln grob erklären konnte, dass es um die Arbeitsweise des Gehirns geht, hat er verstanden und zugestimmt.
»Nein, das geht ja nun doch nicht, :-). Die Regel bzw. die beiden Varianten sind ja unendlich viel älter.«
Kausalität als Gesetz in zwei Varianten gab es schon, bevor es Menschen gab.
Bis hierher: ja. Aber das verstehe ich nicht:
Nein, das stand doch schon mit der Befruchtung der Eizelle fest. Weshalb sollte im Entwicklungsprozess die Entscheidung noch einmal getroffen werden?
Nicht unbedingt: ADHS ist eine extreme Ausprägung der funktionalen Art, und ADHS ist genetisch bedingt.
So gehen Sie und Ihre Kollegen aber nicht vor, sondern so:
Doch, das kann man, indem man (wie bei einem Puzzle) erst einmal den Rahmen erstellt, um eine Vorstellung vom Ganzen zu haben. Und wenn man den Rahmen und mit ihm die Regeln für die Anordnung der Teile hat, dann kann man rückwärts zu immer kleineren Teilen gelangen, die alle nach denselben Regeln zu größeren Strukturen zusammengesetzt sind.
Der Ablauf selbst, ja. Aber wir müssen ja rekonstruieren, also erst einmal rückwärts von größeren Strukturen ausgehen, diese zerlegen, um auch diese wieder zu zerlegen, usw. Und ich habe dabei die Regeln und ihre Variablen zugrunde gelegt: Über die X-Variable kommt man in der Hierarchie nach oben über die Y-Variable nach unten.
Das kann ich nicht beurteilen, aber wenn man wissen will, wie ein menschliches Gehirn funktioniert, muss man umgekehrt vorgehen.
Die Vorstellung stimmt nicht: Ob ein Gehirn prädikativ oder funktional arbeitet, ist genetisch festgelegt. Der Ablauf der gesamten Entwicklung von befruchteter Eizelle bis zum fertigen Menschen folgt dagegen der prädikativen Variante, also dem Zeitpfeil.
*Wolf Singer (1997) : Der Beobachter im Gehirn. In: Meier, H. und Plog,D. (Hrsg.) Der Mensch und sein Gehirn. München: Piper . S.36
@Trice // Erklärungsprobleme
» Wen es dennoch interessiert, der wird nachfragen: Wie kommt man überhaupt darauf, dass es zwei in sich homogene Gehirne geben könnte; woran machen Sie das fest; was ist das für ein Gesetz, was sind das für Regeln; was bedeuten die Aussagen; …«
Was mir da noch in den Sinn kommt: Warum reichen die bisherigen Erklärungen nicht hin? Wenn z. B. zwei Individuen beim Betrachten des gleichen (Test-)Bildes oder Musters etwas anderes sehen oder erkennen, dann liegt es nahe anzunehmen, dass es gewisse Unterschiede in der neuronalen Informationsverarbeitung gibt, die begründet sind in unterschiedlichen neuronalen Vernetzungen und Schwellenwerten an den Synapsen, wobei auch die Hirnchemie (Neurotransmitter) beteiligt sein kann.
Diese Unterschiede sind natürlich gerade bei höheren kognitiven Funktionen äußerst diffizil, am leichtesten lässt sich wohl noch die Hirnchemie messtechnisch erfassen.
Eine solche Erklärung mag unvollständig oder gar falsch sein, aber sie funktioniert, ist sparsam und erscheint (mir) plausibel.
@Trice: Nachtrag
Ihre Antwort von 11:32 Uhr ist erst nach dem Posten bei mir erschienen, nur zur Information…
@Jaromir Konecny
Sie fragen auf Ihrer Facebook-Seite:
» Ist aber unsere Intuition nicht unbewusste Mustererkennung? «
So weit würde ich nicht gehen. Zur Intuition gehört unbewusste Mustererkennung, das ja, aber Intuition als solche erfordert wohl doch noch etwas mehr. Was genau, wäre noch zu klären…
@Balanus: Erklärungsprobleme und Nachtrag
Danke für den Nachtrag, Ihre Antwort hätte mich zwar im ersten Moment verwirrt, aber es geht ja aus ihr hervor, dass sie sich auf einen früheren Beitrag bezieht.
» Wen es dennoch interessiert, der wird nachfragen: Wie kommt man überhaupt darauf, dass es zwei in sich homogene Gehirne geben könnte; woran machen Sie das fest; was ist das für ein Gesetz, was sind das für Regeln; was bedeuten die Aussagen; …«
Sie hatten gemeint, zwanzig Seiten müssten reichen, wenn man nur das Prinzip beschreibt. Und ich schrieb, dann ginge es sogar noch kürzer, nämlich wenn ich nur das, und sonst nichts schreibe -womit niemand, wenn er nicht weiß, worum es überhaupt geht, etwas anfangen kann.
Wenn aber fünf oder mehr Individuen beim Betrachten des gleichen Bildes etwas anderes sehen, kann man, je nachdem wie und womit man misst, bei allen fünfen Unterschiede feststellen. Deshalb gibt es aber trotzdem nicht fünf in sich homogene Gehirne, die sich alle darin unterscheiden, dass ihre Arbeitsweise auf einem Gesetz beruht, das in fünf Varianten vorliegt (ganz abgesehen davon, dass ich 17 Teilnehmer bei diesem ersten Test hatte ).
Das ist die Frage. Denn es kommt wie gesagt darauf an, was und wie man untersucht. Für Dopamin sprach damals, dass es dicht im präfontalen Cortex, im Striatum und den Assoziationsbahnen zu den temporalen und parietalen Lappen vertreten ist. Und Produktionsort sind Kerngebiete im Mittelhirn. Das mesostriatale System wird als wesentlich u.a. für die Aufrechterhaltung der Aufmerksamkeit angesehen, also wurde diese Hirnregion im SPECT-Verfahren (Single photon emission computed tomography) untersucht, wo man denn auch eine erhöhte Dichte der striatären Dopamintransporter nachweisen konnte.
Wenn man allerdings Hirnaktivität misst, während die Probanden Aufgaben lösen, kommen andere Verfahren zum Einsatz, z. B. das EEG oder das quantitative EEG.
Schwank und Mölle stellten beispielsweise fest, dass beim prädikativen Denken die EEG-Komplexität im Vergleich zum funktionalen Denken und zur mentalen Entspannung abnimmt, und diese Reduktion im parietalen und rechten Cortex am stärksten ausgeprägt war, während sich beim funktionalen Denken eine dimensionale Reduktion im linken Cortex konzentrierte, die aber weniger klar, wenngleich signifkant war.
So einfach ist es eben doch nicht, 🙁
@Balanus: Unterschiede und Messtechniken
Die oben beschriebenen Unterschiede zur Dichte der Dopamintransporter wurden in Deutschland von Krause, Dresel und Krause durchgeführt. Als ich damals Frau Krause anrief und sagte, was ich herausgefunden hätte, meinte sie auch, dann ließen sich ihre Untersuchungen immer noch dazu verwenden, den Unterschied zwischen den beiden Gruppen herauszufinden, zumal die Untersuchungen der beiden anderen Teams in England und USA zum gleichen Ergebnis geführt hätten. Allerdings wurden diese Untersuchungen unter dem Aspekt durchgeführt, der Ursache einer psychischen Störung nachzugehen, und wenn man so will, haben diese Untersuchungen die Annahme bestätigt.
Es ist also nicht so, dass man sagen könnte, generell deute eine abweichende Hirnchemie darauf hin, dass es zwei Arten von Gehirnen gibt, die sich in der Arbeitsweise unterscheiden. Genauso gut lässt sich behaupten, es handele sich um eine Störung. Denn diese Unterschiede wirken sich im Verhalten aus, und da kommt es darauf an, welches Verhalten man als normal ansieht und wie man das andere beurteilt, und wo man die Linie zwischen normal und nicht normal ziehen will.
Bei solchen Untersuchungen kommt es entscheidend auf die Interpretation an, der Spielraum muss also möglichst so klein sein, dass er nicht mehrere Deutungen des Ergebnisses zulässt.
Wenn ich daher den Unterschied an der Arbeitsweise des Gehirns festmache und behaupte, diese beruhe auf Regeln, die in zwei Varianten vorliegen und ein Gehirn arbeite entweder nach der einen oder der anderen Variante, dann lässt sich das zum einen untersuchen, sofern ich Kriterien benennen kann, an denen sich der Unterschied feststellen lässt, und zum anderen schließt die “Berufung” auf Varianten einer Regel Mehrdeutigkeit aus: Wen beides auf Varianten derselben Regel bzw. desselben Gesetzes beruht, kann nicht eine Variante richtig und die andere falsch sein.
Zu den Kriterien gehört ann auch, festzustellen, welcher der beiden Leistungen Erkennen und Verstehen Priorität zukommt. Zwischen diesen beiden Leistungen liegt ein minimaler zeitlicher Unterschied und es sind verschiedene Hirnregionen, die an diesen Leistungen beteiligt sind. D.h., es müsste sich messen lassen, in welchen Hirnregionen sich eine erhöhte Aktivität zuerst zeigt.
Stichwort Intuition: Sie beruht auf Erfahrung bzw. der Summe gemachter Erfahrungen. Ich habe kein Problem damit, auch einer KI bzw. einem KNN Intuition zuzuerkennen (ich würde es dann allerdings anders nennen). Wenn ein solches Netz bzw. ein solches System bei der Lösung einer Aufgabe, deren Ziel es kennt, x-mal in einer bestimmten Weise vorgegangen ist, dann spricht nichts dagegen, dass es von dieser Weise abweichen und eine andere Vorgehensweise praktizieren kann, die schneller und effizienter zum Ziel führt. Letztlich entspricht der gesamte Vorgang ja einem IST-Soll-Verfahren: es wird permanent gemessen, wie weit man mit der Handlungsweise vom IST zum SOLL gekommen ist.
Gleiches gilt, wenn KNN unsichtbare Merkmale auf Bildern von Tumoren erkennen können – wobei definiert sein sollte, was man unter unsichtbar zu verstehen hat, z. B. Abweichungen in Nukleotidfolgen – und sie diese mit bestimmten Nukleotidfolgen in der DNA in Verbindung bringen können. Inwieweit man das als Intuition bezeichnen kann, hängt dann z. B. davon ab, worauf das KNN trainiert wurde, zu achten.
@Trice // Erklärungen
Die folgende Aussage ist in meinen Augen von zentraler Bedeutung:
» Ob ein Gehirn prädikativ oder funktional arbeitet, ist genetisch festgelegt. «
Denn „genetisch festgelegt“ bedeutet, dass irgendwann im Entwicklungsgang bestimmte Gene exprimiert werden, die letztlich dafür sorgen, dass sich die für die Funktion notwendigen Strukturen und Eigenschaften ausprägen können.
Worin sich prädikativ und funktional arbeitende Gehirne strukturell genau oder im Einzelnen unterscheiden, weiß man also nicht, allenfalls gibt es erste Hinweise. Aber dass es strukturelle Unterschiede geben muss, davon können wir ausgehen. Unterschiedliche Funktionen bedingen unterschiedliche Strukturen. „Bedingen“ im Sinne von „erfordern“.
Soweit, so gut. Für mich könnte die Geschichte hier enden, denn die Herkunft der genetischen Information für die beiden Varianten ist dem Prinzip nach ja klar.
Jetzt bleibt aus meiner Sicht nur noch, spezifische Kognitions-Tests zu entwickeln, um die beiden Varianten sicher zu identifizieren, und wenn man das erst mal kann, dann lassen sich auch die Gene identifizieren, die die Entwicklung dieser beiden Varianten steuern. Da diese Verschiedenheit die Menschheit in zwei mentale Gruppen teilt, sollte das eigentlich leicht möglich sein.
In diesem von mir skizzierten Szenario braucht es keine neuen Regelvarianten, die bekannten physikalischen, chemischen und biologischen Gesetzmäßigen reichen völlig hin, die regelgerechte Entwicklung der beiden kognitiven Funktionstypen (grob) zu erklären.
Was wirklich schwierig zu erklären und zu begründen ist, scheint mir die Sache mit der Kausalität und ihren zwei Varianten zu sein. Zumindest, soweit es die Naturwissenschaften betrifft. Philosophisch mag das anders aussehen. Denn welche Ereignisse in der gesetzmäßigen oder regelhaften Abfolge zahlloser Einzelereignisse letztlich in einen sogenannten Kausalzusammenhang gestellt werden, bleibt ja weitestgehend dem Betrachter überlassen.
—
Noch zu etwas anderem, ich hatte geschrieben: „Bei der Konstruktion eines Systems kann man aber nicht anders vorgehen, als Teile zu einem Ganzen zusammenzufügen“, und hatte dann die Selbstorganisation bestimmter Systeme ins Spiel gebracht.
Sie meinten, man könne doch anders vorgehen, nämlich
»indem man (wie bei einem Puzzle) erst einmal den Rahmen erstellt, um eine Vorstellung vom Ganzen zu haben. Und wenn man den Rahmen und mit ihm die Regeln für die Anordnung der Teile hat, dann kann man rückwärts zu immer kleineren Teilen gelangen, die alle nach denselben Regeln zu größeren Strukturen zusammengesetzt sind.«
Mal abgesehen vom Rahmen und der Puzzleanalogie: dass man vom Ganzen ausgehend zu den Teilen gelangt, war ja meine Rede. Das Ganze ist schließlich das System, dessen Funktionsweise aufgeklärt werden soll. Mein Punkt war aber, dass bei der Konstruktion (Bau, Herstellung, Anfertigung) eines Systems *umgekehrt* vorgegangen werden muss, von den Teilen zu dem Ganzen.
Natürlich muss es bei Organismen und z. B. Maschinen einem Bauplan geben, der festlegt, welche Teile wie zusammenzufügen sind (bei Organismen ist der „Bauplan“ bekanntlich Teil des Genoms). Insofern ist vorneherein mehr oder weniger klar, wie das Ganze am Ende auszusehen hat.
Bei Systemen, von denen wir selbst ein Teil sind oder dessen Funktionsweise wir aufgrund ihrer Komplexität nicht überblicken können, sieht die Sache etwas anders aus.
@Balanus
» Ob ein Gehirn prädikativ oder funktional arbeitet, ist genetisch festgelegt. «
Dann will ich mal hoffen, dass Biologen und Mediziner dasselbe verstehen mit “genetisch festgelegt”. Denn zunächst einmal sind es die Mediziner – der Mainstream – die davon ausgehen, dass ADHS genetisch bedingt ist, und die dazu forschen – und die suchen nach Genen, die ihre Annahme stützen, es handele sich um eine Krankheit. Da Schwank und ich mit einer Studie nachweisen konnten, dass Menschen mit ADHS zur funktionalen Art gehören, sollte das “genetisch bedingt” generell für die Gruppe funktional denkender Menschen zutreffen – denn beides, das Denken und das Verhalten, gehören zusammen.
Ja.
Und unterschiedliche Strukturen bedingen unterschiedliche Funktionen, “bedingen” im Sinne von “bewirken” – und vice versa. Denn auch die Strukturen ändern sich, wenn die Funktionen sich aus Gründen der Anpassung verändern müssen.
Das habe ich auch einmal gemeint, aber so ist es nicht. Denn es müssen ja Kriterien genannt werden, anhand derer sicher entschieden werden kann. Das ist schon deshalb schwierig, weil viele (funktionale) Leute im Laufe ihrer Entwicklung gelernt haben, worauf sie achten sollen. Einer meiner ersten Tests war die Aufgabe, Kugelschreiber und Bleistift miteinander zu vergleichen. Dazu hatte ich zwei Gruppen gebildet: bei der einen Gruppe lagen Stifte beider Sorten die ganze Zeit auf dem Tisch, waren Anschauungsmaterial; bei der zweiten Gruppe habe ich sie nach der Hälfte der vorgesehenen Zeit weggeräumt. In dieser Gruppe hörte eine probandin sofort auf, zu schreiben, sie hatte auch bis dahin nur drei Sätze zu Papier gebracht, nicht ohne sich unentwegt mit Blick auf die Stifte zu “vergewissern”. Diese Sätze entsprachen exakt denen der prädikativen Personen, waren also Gegenstandsbeschreibungen. Die Frau erzählte im anschließenden Gespräch, sie sei als Kind ständig geschlagen worden, wenn sie etwas nicht verstanden habe. Deshalb habe sie aufgehört zu schreiben, als ich die Stifte weggenommen hatte: sie habe befürchtet, etwas falsch zu machen.
Menschliches Verhalten spielt also immer mit.
Geeigneter sind Tests wie “Plus ist über dem Stern”,mit dem das “Erkennen” gegen das “Verstehen” abgeglichen werden kann.
Und das stimmt nicht:
Denn wie wollen Sie bestimmen, ob es sich bei den physikalischen, chemischen und biologischen Befunden um Gesetzmäßigkeiten handelt, oder ob sich diese nur bei den mehrheitlich erhobenen Daten finden, es sich bei den anderen dagegen um Abweichungen dieser “Gesetzmäßigkeiten” handelt? Zumal ja auch erst einmal geklärt sein muss, wann etwas als “gesetzmäßig” zu gelten hat.
Denn selbst wenn sich diese Gene finden lassen, ist damit noch lange nicht gesagt, dass sie nicht als “fehlerhaft” bewertet werden können.
Sie müssen also schon tiefer einsteigen, um zu erklären, wie es zu diesen zwei Varianten kommt, was sie bewirkt, verursacht – oder auch: erfordert
Dabei betrifft es die aber in sehr viel stärkerem Maß. Fast die gesamte Naturwissenschaft ist geprägt von der prädikativen Perspektive. Die wenigen Male, in der die funktionale Sicht durchbrach – Copernicus, Darwin, Einstein -, hat jedes Mal einen fundamentalen Richtungswechsel bewirkt, der dann in die prädikative Sicht eingeordnet werden musste.
—
Da stimmen wir überein und darin auch:
Hier aber haben Sie etwas erwähnt, das Sie bisher nicht genannt haben,:
Das war nämlich, was ich damals gesagt hatte, als ich auf das Regelwerk stieß, von dem ich noch nicht wusste, dass es sich um Kausalität handelt: Das ist der Bauplan!
(Woraufhin ich sofort einen Schuß vor den Bug bekam: das dürfe ich keinesfalls behaupten, denn es gäbe niemanden, der einen solchen Plan entworfen haben könnte.)
Nein, das Genom ist nur ein Teil des gesamten Bauplans. Ich erinnere mich, als Venter damals behauptete, er habe das Genom als erster entschlüsselt (hatte er nicht) und später dann andere nachfolgten, die umfassender gearbeitet hatten, hieß es, die Sequenzierung sei noch keine Entschlüsselung …
… und auch das stimmt so nicht. Stimmen würde es eher, wenn man z. B. die gesamte DNA-Struktur eines Menschen Stück für Stück nachbaut, und aus ihr würde sich dann ein Mensch entwickeln. Aber dazu müsste man wissen, wie der dahinter stehende Bauplan aussieht, der etwas darüber aussagt, was mit jedem einzelnen Schritt “bewirkt” werden soll, damit am Ende das Ganze funktioniert. Es reicht nicht, zu sagen: erst das, dann das und dann das.
Nur dann, wenn man sich darin verliert. Der Soziologe Helmut Willke beschrieb das problem einmal in seiner Einführung in die Systemtheorie*, dass es zu den notorischen Klagen bei Einführungsveranstaltungen gehöre, die ST – Lektüre als schwierig, kompliziert, unverständlich abstrakt und frustrierend zu empfinden, weil” Einzelne systemtheoretische Problemaspekte (z.B. Grenze/ Struktur/ Prozess; Struktur/Funktion/ System; Handlung, /Erwartung/ System) so stark ineinander verwoben und voneinander abhängig [sind], dass sie im Grunde simultan dargestellt werden müssten. Das ist mit den Mitteln der geschriebene Sprache nicht möglich.”
Und es ist dem prädikativen Denken auch nicht möglich, sie simultan zu denken. Das war sowohl Schwank als auch mir aufgefallen. Es entspricht aber dem funktionalen Denken (weshalb es ja auch als aufmerksamkeitsgestört gilt: man richtet seine Aufmerksamkeit nur auf den eigentlichen Gegenstand, nicht auf diverse Dinge gleichzeitig).
*Helmut Willke (2006) Systemtheorie I: Grundlagen. Stuttgart: UTB Lucius & Lucius.S. 12
@ Balanus: kleine Korrektur
davor:
“Und es ist dem prädikativen Denken auch nicht möglich, sie simultan zu denken. Das war sowohl Schwank als auch mir aufgefallen. Es entspricht aber dem funktionalen Denken (weshalb es ja auch als aufmerksamkeitsgestört gilt: man richtet seine Aufmerksamkeit nur auf den eigentlichen Gegenstand, nicht auf diverse Dinge gleichzeitig).”
hatte ich vergessen, das “italic”-Ende zu setzen, 🙁
@Trice
» Denn auch die Strukturen ändern sich, wenn die Funktionen sich aus Gründen der Anpassung verändern müssen. «
„Form follows funktion“, heißt es bei den Designern. In der Natur ist es allerdings umgekehrt—und zwar nur umgekehrt, ein „vice versa“ gibt es nicht.
Natürlich erfordert eine neue Funktion eine andere, neue Struktur. Aber diese neue Struktur kann nicht von der neuen Funktion bewirkt werden, weil es die ja erst gibt, wenn sich die Struktur entsprechend geändert hat. In der realen, physikalischen Welt ist die Funktion von der Struktur abhängig, und nicht umgekehrt.
Wenn eine Funktionsänderung (aus Gründen der Anpassung) erfolgen soll, dann müssen sich zunächst die Strukturen ändern, damit die neue Funktion zum Tragen kommen kann. Erst mit der neuen Struktur kommt die neue Funktion. Die zukünftige neue Funktion kann nicht in der Gegenwart Strukturänderungen bewirken.
Wenn es eine oder mehrere Ausnahmen von der Regel geben sollte, dann lassen Sie es mich bitte wissen.
» …wie wollen Sie bestimmen, ob es sich bei den physikalischen, chemischen und biologischen Befunden um Gesetzmäßigkeiten handelt, ….«
Es ging mir um etwas anderes. Befunde als solche sind selbst keine Gesetzmäßigkeiten, aber sie basieren auf solchen, wie alles, was in der realen Welt geschieht. Was immer auch beobachtet werden kann, es muss mit diesen Gesetzmäßigkeiten vereinbar sein, sonst haben wir ein Erklärungsproblem.
» Denn selbst wenn sich diese Gene finden lassen, ist damit noch lange nicht gesagt, dass sie nicht als “fehlerhaft” bewertet werden können.
Sie müssen also schon tiefer einsteigen, um zu erklären, wie es zu diesen zwei Varianten kommt, was sie bewirkt, verursacht – oder auch: erfordert«
Wenn Genvarianten die Zeiten überdauert haben, darf man annehmen, dass diese für die Spezies von Vorteil sind. Sofern, und das kommt durchaus auch vor, sofern das betreffende Gen nicht an andere lebenswichtige Gene gekoppelt ist und allein darum von Generation zu Generation mitgeschleppt wird. Insoweit braucht es keine darüber hinausgehende (philosophische) Erklärungsversuche.
» Fast die gesamte Naturwissenschaft ist geprägt von der prädikativen Perspektive. «
Das mag ja sein, aber auch wenn es mit Blick auf das menschliche Gehirn zwei grundlegende Varianten geben sollte, folgt daraus ja noch lange nicht, dass es auch zwei Varianten der Kausalität geben müsse. Vielleicht nehmen Menschen Kausalzusammenhänge verschieden wahr oder können unterschiedlich gut funktionale Zusammenhänge erkennen, aber solche Wahrnehmungen und Denkprozesse sind nicht mit dem gesetzesmäßigen oder regelhaften Verlauf der raumzeitlichen Naturereignisse gleichzusetzen.
» Nein, das Genom ist nur ein Teil des gesamten Bauplans.«
Doch doch, mehr gibt es nicht. Die gesamte Information über die Gestalt des sich entwickelnden Organismus‘ steckt (verborgen) im Genom.
Wenn man die DNA des Menschen Stück für Stück austauschen könnte gegen eine identische künstliche Kopie (etwa in den Keimzellen), dann würde sich (nach Verschmelzung der Kerne) daraus ein Mensch entwickeln. Entscheidend wäre bei diesem „Experiment“, dass die Funktion der Chromosomen (und der übrigen Zelle) erhalten bleibt. Ein bloßer DNA-Strang ohne das ganze drum herum reicht natürlich nicht. Aber die gesamte Information über die Abfolge der einzelnen Entwicklungsschritte bis hin zum reifen Organismus steckt in der DNA, im Genom.
Kurzum, es reicht tatsächlich zu sagen: „erst das, dann das und dann das“. Der Zeitpfeil, der dem Gang der Geschichte und Ereignisse eine Richtung gibt, weist unerbittlich in Richtung Zukunft. Und zwar auch dann, wenn zielstrebig ein Bauplan für eine Maschine oder ein Bauwerk umgesetzt wird, der zweite Schritt folgt immer auf den ersten, umgekehrt funktioniert das nicht.
Dass die einzelnen Schritte davon abhängen, was am Ende dabei herauskommen soll, das ist eben das, was der Designer meint, wenn er sagt: „Form follows function“. Pläne als solche bewirken nichts in der physikalischen, kausalen Welt.
@Balanus
Schönes Beispiel zum Unterschied zwischen prädikativem und funktionalem Denken, 🙂
Sie haben etwas außer Acht gelassen und ich habe vergessen es zu erwähnen: Struktur und Funktion machen nur Sinn, wenn es eine Umwelt gibt, an die sich ein Organismus anpassen muss. Veränderungen in der Umwelt erfordern nicht nur eine Veränderung der Struktur, die nicht sinnvoll wäre, wenn sie nicht auf die Funktion zugeschnitten wäre, die den Organismus dazu befähigen soll, adäquat auf die Veränderung zu reagieren. Wir können natürlich trefflich darüber streiten, ob erst die strukturelle Anpassung erfolgt sein muss, damit eine entsprechende Funktion folgen kann. Ich denke, aus funktionaler Sicht, dass schlicht und ergreifend der Anpassungsdruck dazu führt, dass die Struktur der Funktion folgt, jedenfalls dann, wenn die Anpassung erfolgreich sein soll. Weniger erfolgreiche Strukturen haben dann kaum Überlebenschancen.
Mit Ausnahmen hat es also nichts zu tun, nur mit Anpassung – und insofern gibt es auch ein vice versa: Struktur ohne Funktion macht genauso wenig Sinn wie Funktion ohne Struktur.
Und das wollte ich gern geklärt haben.
Da sind wir uns einig, aber ich denke doch, dass es darum auch nicht ging.
» Denn selbst wenn sich diese Gene finden lassen, ist damit noch lange nicht gesagt, dass sie nicht als “fehlerhaft” bewertet werden können.
Sie müssen also schon tiefer einsteigen, um zu erklären, wie es zu diesen zwei Varianten kommt, was sie bewirkt, verursacht – oder auch: erfordert«
Da machen Sie sich die Sache aber zu einfach. Bestes Beispiel ist ADHS. Aus meiner Sicht ist diese andere Art für unsere Spezies von Vorteil – es gibt sogar Vertreter des Mainstreams, die zugeben, dass diese Art Vorteile hat, nur seien die nicht von herausragender Bedeutung -, und eben deshalb wird sie als Krankheit bzw. Störung bezeichnet, auch wenn sich bisher keine Ursache hat finden lassen. Mit anderen Worten: es reicht keineswegs aus, nur die genetische Komponente ins Spiel zu bringen, um zu behaupten, es sei eine andere eigenständige,der als normal geltenden komplementäre Art.
Oder, in den Worten des Wissenschaftlers mit dem ich anschließend mehrere Jahre lang zusammengearbeitet habe:
“Was konstituiert „zwei eigenständige Gehirne“? Verschiedene Gehirnstrukturen? Auf welchem Auflösungsniveau? Unterschiede in Transmitterquantitäten? Dann haben also auch Depressive ein „eigenständiges Gehirn“. Unterschiede in Denk- und Gedächtnisprozessen? Dann haben alle Menschen ein „eigenständiges Gehirn“…. Ich denke wir müssen darüber weiter streiten ;-))) …….was ja Erkenntnisgewinn bringt.”
Tja, das haben wir dann getan, und er war erst überzeugt, dann aber restlos, als ich sagen konnte, was sie konstituiert sei die Arbeitsweise, die auf einer Regel beruht, die in zwei Varianten vorliegt, der prädikativen und der funktionalen.
Schwierig, gell? Aber das Problem war halt, dass die Leute auch mit dieser obigen Erklärung noch nicht zufrieden waren, sondern wissen wollten, was denn das für eine Regel in zwei Varianten sei, nach der menschliche Gehirne arbeiten. Und ich wusste es nicht, habe aber gemeint, na, es wird doch in den Wissenschaften, der Mathematik, der Physik, Leute geben, die diese Regeln kennen. Aber außer bei den Psychologen, die sie zur kognitiven Modellierung verwenden, gab es halt niemanden – und sowohl für die wie für mich war klar, dass diese basalen Regeln nur eine Variation von etwas ganz anderem, Größeren sein mussten – zumal ich sie ja auch noch variieren musste, um größere Prozesse im Gehirn beschreiben zu können.
Ich schrieb es ja schon mehrfach: Es war ein Mathematiker, der mich darauf brachte, indem er fragte, warum ich Kausalität eigentlich immer beschreibe, als sei sie eine Regel. Woraufhin ich mir die Regeln unter diesem Aspekt noch einmal anschaute – und ja: die prädikative Regelvariante war ganz eindeutig die Beschreibung einer Ursache-Wirkungs-Beziehung: erst das (etwas, das schon da ist), dann das (etwas, das darauf einwirkt) und dann das (was daraus als Wirkung hervorgeht). Nur die funktionale Variante passte irgendwie nicht. Erfreulicherweise hatte ich zu diesem Zeitpunkt aber schon ein paar Jahre mit einer Physikerin zusammengearbeitet, von der ich auch etwas über Quantenmechanik gelernt habe – und da passte es dann.
Sie sagte allerdings, wie Chrys, dass Kausalität in der Physik keine Rolle mehr spiele – was nicht stimmt, Herr Päs und verschiedene seiner Kollegen sehen das anders.
Gehen Sie doch mal einen großen Schritt zurück und betrachten das Ganze aus einer höheren Warte…
Ja, das ist die weitaus bessere Warte. Und nun sehen Sie Kausalität einfach mal von dieser Warte aus und versuchen Sie, es als ein fundamentales Gesetz (in zwei Varianten – für Makro- und Mikrokosmos) zu sehen, das eben für alles gilt, für menschliche Gehirne und deren Arbeitsweise ebenso wie für banale Alltagsgeschehen oder die Struktur der Raumzeit, usw. Sozusagen der Bauplan für dieses Universum.
Und der ist alles andere als einfach: ein grundlegendes Gesetz, in zwei Varianten, die ebenfalls Gesetze mit eigener Aussage sind, plus einem Regelwerk, bestehend aus jeweils drei Klassen von Regeln, und einer Vielzahl an prädikativen und funktionalen Regeln. Aber alle – Gesetze und Regeln – haben dasselbe Grundmuster.
» Nein, das Genom ist nur ein Teil des gesamten Bauplans.«
Und das Genom als Bauplan folgt wiederum dem Gesetz der Kausalität als übergeordnetem Bauplan.
Und jeder dieser Entwicklungsschritte folgt einer Regel der Kausalität
ja, denn so lautet – grob vereinfacht – die prädikative Regel für einen solchen Vorgang.
Nein, in unserer Realität funktioniert es tatsächlich nicht anderes, denn der Zeitpfeil ist Teil des Bauplans – weshalb auch ein funktional arbeitendes Gehirn nicht um eine “Übersetzung” in diese für den Makrokosmos geltende prädikative Variante herumkommt.
Nicht nur der Designer, auch ein funktional denkender Mensch. Denn das ist, was die funktionale Variante fordert: Das Verhalten hängt vom Ziel ab, nicht von dem, was als Anfangsbedingungen gegeben ist.
@Balanus: Genom
Sie schreiben:
Mich hatte daran etwas gestört, weshalb ich bei Ernst Peter Fischer noch einmal nachgelesen habe, genauer: in seinem Büchlein “Das Genom”. Darin schreibt er: “Das Genom stellt also nach der zitierten Definition die Anzahl aller Gene dar, und diese Menge befindet sich konkret in einer Zelle. Nun gibt es Lebensformen – wie etwa Bakterien -, die aus nur einer Zelle bestehen. (…) Dies sieht etwas anders aus bei Mäusen, Menschen und anderen komplexen Hervorbringungen der Evolution.Sie bestehen aus Billionen Zellen, und jede dieser Zellen (von wenigen Ausnahmen abgesehen) führt ihre eigene Erbanlage – ihr eigenes Genom – mit sich. Ein Mensch verfügt also genau genommen nicht über ein Genom, sondern über viele Billionen Expemplare davon. (…)Wer sic nun die Frage stellt, ob sich in den zahlreichen unterschiedlichen Zelltypen (Nervenzellen, Blutzellen, Hautzellen und viele mehr) auch entsprechend unterschiedliche Genome finden, darf auf keine einfache Antwort hoffen. (…) In vielen Fällen werden im Laufe der Entwicklung, wenn sich unterschiedliche Zelltypen herausschälen, mehrere Abschnitte des Genoms (ganze Gene oder mehr) umgruppiert, verschoben und neu zusammengefügt. Und bei zahlreichen Zellteilungen tauchen im Laufe eines langen Lebens immer wieder Varianten (Mutationen) auf, die vorher nicht vorhanden waren.”
Ich habe dies so ausführlich zitiert – nicht, weil ich denke, Sie wüssten das nicht, sondern weil, wenn die gesamte Information über die Gestalt eines sich entwickelnden Organismus` in den jeweiligen Genomen steckt, die sich dann jeweils unabhängig voneinander entwickeln und verändern – wie, stellen Sie sich vor, sollte das ablaufen können, ohne vollständig aus dem Ruder zu laufen, wenn es nicht eine Art Regelung gäbe, die einen Rahmen vorgibt, innerhalb dessen das alles abläuft, der aber nicht überschritten werden kann?
@Trice
» Sie haben etwas außer Acht gelassen und ich habe vergessen es zu erwähnen: Struktur und Funktion machen nur Sinn, wenn es eine Umwelt gibt, an die sich ein Organismus anpassen muss.«
Ich habe da nichts außer Acht gelassen, ich habe bloß kein Beispiel für solche Anpassungen gebracht. Im Pflanzenreich: Eine Pflanze passt sich der nährstoffarmen Umwelt Böden an, indem sie klein bleibt. Tierreich: Der Polarfuchs passt sein Fell den Jahreszeiten an. Das sind also zwei Beispiele für eine Form- bzw. Funktionsänderung aus Gründen der Anpassung.
Die evolutionär entstandene Angepasstheit an die jeweilige Umwelt, die Sie offenbar vor Augen hatten, ist etwas anderes. Da können wir Darwin folgen, der hat das Grundprinzip des evolutionären Wandels hinreichend gut erkannt: Zufallsänderungen in der Struktur, die nicht zum frühzeitigen Tod führen und/oder irgendwie nützlich sind, bleiben erhalten und können über Generationen hinweg zu dramatischen Formänderungen führen, wobei es dann auch zu Funktionsänderungen kommen kann (siehe z. B. die Entstehungsgeschichte der Gehörknöchelchen).
» Ich denke, aus funktionaler Sicht, dass schlicht und ergreifend der Anpassungsdruck dazu führt, dass die Struktur der Funktion folgt, jedenfalls dann, wenn die Anpassung erfolgreich sein soll. «
So funktioniert das „schlicht und ergreifend“ aber nicht. Welcher „Anpassungsdruck“ könnte denn über Jahrmillionen von Jahren hinweg für die Entstehung unserer Gehörknöchelchen gesorgt haben, oder für die Evolution der Flugfähigkeit bei Säugetieren?
Nein, Zufallsänderungen im Genom sorgen für strukturelle Vielfalt (Variationen) in der Population, und da sich nicht alle Individuen reproduzieren können (schon aus Platzgründen nicht), bleiben manche strukturellen Änderungen, die funktional brauchbar sind, erhalten.
Mir scheint, die funktionale Sicht auf das Evolutionsgeschehen (und überhaupt) ist weitgehend identisch mit einer teleologischen Sichtweise auf das Weltgeschehen. Wozu entwickelten sich Augen? Um Sehen zu ermöglichen: Erst (sieht man) die Funktion, dann die Struktur.
Dazu passt:
»Denn das ist, was die funktionale Variante fordert: Das Verhalten hängt vom Ziel ab, nicht von dem, was als Anfangsbedingungen gegeben ist.«
Tatsächlich scheint es mir aber so zu sein, dass jegliches zielstrebige Verhalten von beidem abhängt, nämlich den gegenwärtigen Anfangsbedingungen und dem, was als Ziel anvisiert wird. Verhalten und Handlungen sind in aller Regel zweckbestimmt, schon immer gewesen, bei allen Menschen, egal, nach welcher Variante das Gehirn jeweils arbeitet.
»Ernst Peter Fischer […] : … Ein Mensch verfügt also genau genommen nicht über ein Genom, sondern über viele Billionen Expemplare davon.«
Ich möchte es lieber etwas weniger genau nehmen: Bei einem vielzelligen Organismus bezeichnet das Genom die Gesamtheit der in den Zellkernen enthaltenen genetischen Information. Die vielen Billionen zellulären „Genome“ stammen ja alle von nur einem Genom ab, nämlich dem in der Zygote.
»…… wie, stellen Sie sich vor, sollte das [die Ontogenese] ablaufen können, ohne vollständig aus dem Ruder zu laufen, wenn es nicht eine Art Regelung gäbe, die einen Rahmen vorgibt, innerhalb dessen das alles abläuft, der aber nicht überschritten werden kann? «
Selbstregulatorisch läuft das alles ab: Regulatorgene und Regulatorproteine sorgen dafür, dass alles seinen geregelten Gang geht. Wenn die Regulation versagt, dann kann die Sache auch schon mal aus dem Ruder laufen, wie etwa bei Krebs. Wobei die Regulationsmechanismen im Wesentlichen auf den physikochemischen Eigenschaften der Proteine und sonstigen Moleküle im wässrigen Milieu der Zelle beruhen.
Nun könnte man ja sagen, diese physikochemischen Eigenschaften der Elemente und Moleküle folgen der funktionalen Variante der Kausalität, aber was wäre damit gewonnen, wenn wir nicht zugleich zeigen können, wie das alles zusammenhängt, wie die funktionale Variante der Kausalität die quantenmechanischen Eigenschaften der Elemente bestimmt?
@Balanus: Kausalität, Natur, Evolution
Ich fange diesmal von hinten an, um mich nach vorn zu arbeiten ;-), vielleicht wird dann verständlicher, was ich meine. Sie schreiben:
Mich hat zunächst verwirrt, dass Sie schreiben, die funktionale Variante der Kausalität bestimme die quantenmechanischen Eigenschaften der Elemente. So etwas bestimmt sie nicht.
Wenn unsere Verfassung sagt, die Würde des Menschen sei unantastbar, dann setzt diese Aussage bereits voraus, dass der Mensch eine Würde hat, eine, die nicht erst mit dem Gesetz, der Verfassung, als Eigenschaft des Menschen bestimmt wird oder werden muss. Bestimmt wird nur, dass sie unantastbar ist. Auch die Kausalität und ihre Varianten bestimmen bzw. legen nur Bedingungen fest, die unabänderlich gelten. Die quantenmechanischen, individuellen, arttypischen oder wie auch immer Eigenschaften der Elemente und Objekte müssen nur zu diesen Bedingungen passen. D. h., folgen können sie nur, wenn ihre Eigenschaften mit dem übereinstimmen, was die Variante mit ihrer Aussage vorgibt. Im Übrigen wird, wenn es um Eigenschaften geht, von den Regeln festgelegt, was zusammenpassen muss.
»…… wie, stellen Sie sich vor, sollte das [die Ontogenese] ablaufen können, ohne vollständig aus dem Ruder zu laufen, wenn es nicht eine Art Regelung gäbe, die einen Rahmen vorgibt, innerhalb dessen das alles abläuft, der aber nicht überschritten werden kann? «
Sie meinen aber doch nicht, Selbstregulation sei absolut beliebig, willkürlich – oder?
Also, Selbstregulation beruht auf Regelkreisen, und Regelung ist eine Steuerung, die sich fortlaufend an der Messung ihres Erfolges orientiert, also Ist- und Soll-Zustand vergleicht und den Prozess danach ausrichtet. So!, und genau damit haben Sie die Komponenten der Regel bzw. der Variante, die eben diesen Vorgang beschreibt: Istzustand(Anfangsbedingungen) – Prozess (Weg zum Ziel) – Sollzustand (Ziel). Und wenn Sie ganz genau hinschauen, werden Sie feststellen, dass es sich dabei um einen kausalen Vorgang handelt. Darum geht es, um die grundlegende, gesetzmäßige und regelhafte Beschreibung solcher Vorgänge mit Hlfe einer Regel bzw. eines Gesetzes, und um nichts anderes.
Selbst dann verläuft der Vorgang immer noch regelgemäß, nur dass eine der drei Komponenten, der Prozess, offenbar fehlerhaft verläuft, also positiv rückgekoppelt, weshalb man diesen Prozess, unterteilen und dabei wieder der Regel folgen müsste, um herauszufinden, wo der Fehler liegt. Da es sich um einen Wachstumsprozess handelt, könnte z.B. an einer Stelle ein „Stop“-Element nicht funktionieren, das heißt, der Prozess kommt an kein Ende, sondern wiederholt sich iterativ. Die Frage wäre allerdings auch, wo an welcher der Anfangsbedingungen, er ansetzt…
Sehen Sie, das meine ich, wenn ich sage: prädikativ. Es sind immer spezifische Gegebenheiten,von denen ausgegangen wird, selbst wenn es um die Beschreibung eines Ganzen geht. Aber Kausalität ist unspezifisch, sowohl als Gesetz, als auch bei den Varianten und selbst bei den Regeln – auch sie spezifizieren nur die Kriterien für das, was mit ihnen beschrieben werden soll.
Aber es ging ja um die Frage, ob es ausreicht, zu sagen, die gesamte Information stecke im Genom. Sie schrieben, die Information über die Abfolge der Entwicklungsschritte bis hin zum fertigen Organismus stecke im Genom – der einzelnen Zellen wie auch der Zygote. Was Sie dabei im Blick haben, sind wieder die spezifischen Einzelheiten, an der Sie die beschreibung festmachen. Mich aber interessiert nur der Vorgang als solches, weil ich wissen will, wie die einzelnen Schritte aufeinander folgen – egal um welche Art von Vorgang es sich handelt: ich muss wissen, was alle solchen Vorgänge miteinander gemein haben, wenn ich eine allgemeine Regel, ein allgemein gültiges Gesetz formulieren will, unabhängig vom jeweiligen Gegenstand. Das heißt, ob Zygote, Eizelle, gesamter Organismus: was ist all diesen Prozessen gemeinsam? Antwort: die Abfolge bzw. die Reihenfolge der Komponenten bzw. Variablen. Und die ist, wie bei der Selbstregulation, von der Variante vorgegeben – und im Makrokosmos ist es die prädikative Variante.
Ja, was denn sonst? Was ich mit dem Selbstregulationsprozess, dem Regelkreis beschrieben habe, ist die prädikative Variante – und selbst ein aus dem Ruder gelaufener Wachstumsprozess kommt irgendwann zu einem Ende, einem „Ziel“, spätestens dann, wenn der Organismus stirbt. Der Unterschied zwischen prädikativer und funktionaler Variante ist nicht das Fehlen oder Vorkommen eines Ziels, sondern nur der „Ort“, an dem es vorkommt: am Ende, so dass darauf hingearbeitet wird (prädikativ, mit genauer Beachtung der Merkmale der Anfangsbedingungen, um an ihnen anzusetzen) , oder bereits in den Anfangsbedingungen, so dass davon ausgehend gearbeitet wird (mit Beobachtung der Wirkungen, die mit dem Handeln ausgelöst werden).
Bei überschaubaren Vorgängen ist das Ziel vorhersehbar, auch für prädikative Menschen, bei komplexen ist es das nicht, weshalb nicht gesichert ist, dass das anvisierte Ziel auch erreicht wird. Zum Problem wird dann, dass ein solcher Vorgang auch dann durchgezogen wird, weil die Erfahrung benötigt wird, die man erst erwirbt, wenn man definitiv nicht ankommt – sondern sich immer weiter davon entfernt, weshalb aber meist nicht gefragt wird, ob man das falsche Ziel angepeilt hat, weshalb man den Vorgang wiederholt, indem man die Vorgehensweise wechselt. Und kritisch wird es, wenn das anvisierte Ziel eine Illusion ist, die nie erreicht werden kann – u.a., weil sie dem Gesetz der Kausalität widerspricht, bzw. negiert, dass es zwei Varianten gibt, die einander entgegengesetzt sind, mal polar, mal komplementär, mal kontradiktorisch (antagonistisch) – man aber trotzdem weitermachen muss.
Ok, das ist aber auch nicht relevant, sondern …
Ich hoffe, wir kommen der Sache nun näher…
» Ich denke, aus funktionaler Sicht, dass schlicht und ergreifend der Anpassungsdruck dazu führt, dass die Struktur der Funktion folgt, jedenfalls dann, wenn die Anpassung erfolgreich sein soll. «
Sorry, aber falscher Gedankengang: Erstens sorgen schon die beiden Varianten für den Druck, indem sie vorschreiben, dass alle Vorgänge, in unserer Realität der prädikativen Variante folgen müssen – vom Ist- zum Sollzustand – , und zweitens sind beide Varianten unspezifisch: das schließt alle Arten von Entwicklungsmöglichkeiten ein, festgelegt ist nur, dass von den Ausgangsbedingungen, wenn sie einmal gegeben sind und sich als erfolgreich erwiesen haben, immer wieder ausgegangen werden muss, um den Prozess am Laufen zu halten. Das folgt dann häufig Wegen, wie sie von der Chaostheorie beschrieben werden, lässt also auch Zufallsänderungen zu. Für den Druck sorgt also schon die fortlaufende Veränderung der Umweltbedingungen: wer stehen bleibt, um sie abzuwarten, hat schon verloren. Und deshalb:
(Nicht: Nein, sondern): Eben deshalb – weil Gesetz, Varianten und Regeln unspezifisch sind, aber nicht willkürlich oder beliebig – und weil die Umweltbedingungen sich permanent ändern. Die Notwendigkeit für die Ausführung einer Funktion, die das Überleben sichert, bedingt deshalb die Entwicklung verschiedener Strukturen, von denen diejenige, die sich für diese Ausführung am erfolgreichsten erweist, auch durchsetzt – ohne dass die nicht ganz so erfolgreichen deshalb radikal eliminiert werden müssen. Das bedeutet: auch wenn die Entwicklung von Organismen dem Zeitpfeil folgt, arbeitet die Natur nach der funktionalen Variante, wobei sie als Ziel mehrere Möglichkeiten offeriert und für den Weg dorthin mehrere Optionen anbietet.
Lassen Sie einmal die „Sichtweise“ weg, denn um die geht es nur insofern, als sie auf der funktionalen Variante beruht. Und die sagt nur, dass das, was sich am Ende ergeben soll, bereits in den Bedingungen des Anfangs vorkommen muss (ein Heureka z. B. ist nichts anderes als dieser Moment einer Anfangsbedingung, der bereits das Ziel enthält). Die teleologische Sichtweise verdankt sich also der funktionalen Variante.
Im Makrokosmos gilt aber die prädikative, die dem Zeitpfeil folgt. Andererseits ist die funktionale Variante die umfassendere, weshalb es in den meisten Fällen gelingt, auch mit dieser Denkart in der Realität zurechtzukommen.
Zum gesunden Menschenverstand liest man im arxiv-Artikel Machine Common Sense Concept Paper einige gute Überlegungen. Man erhält aber auch einen hoffentlich repräsentativen Eindruck von den bisher verfolgten Ansätzen (wie wetwa Cyc.
Eine interessante Überlegung über den Ursprung des gesunden Menschenverstandes postuliert, dass der gesunde Menschenverstand in unserer Handlungserfahrung „geerdet“ sei, dass wir bei vielen Problemen eine Art Handlungssimulation vornähmen(Zitat): Eine der kritischsten – wenn nicht die kritischste – Begrenzung war der Mangel an flexiblen, wahrnehmungsgemäß geerdeten Konzeptdarstellungen, wie sie in der menschlichen Kognition vorkommen. Es gibt signifikante Hinweise aus der Kognitionspsychologie und den Neurowissenschaften zur Unterstützung der Theorie der geerdeten Kognition[25][26], die argumentiert, dass Konzepte im menschlichen Gehirn auf wahrnehmungsmotorischen Erinnerungen und Erfahrungen basieren. Wenn Sie zum Beispiel an das Konzept einer Tür denken, wird sich Ihr Verstand wahrscheinlich eine Tür vorstellen, die Sie oft öffnen, einschließlich einer leichten Aktivierung der Neuronen in Ihrem Arm, die diese Tür öffnen. Diese Erdung beinhaltet perzeptiv-motorische Simulationen, mit denen die Aktion zum Öffnen der Tür geplant und ausgeführt wird. Wenn man an eine abstrakte Metapher denkt, wie z.B. “wenn sich eine Tür schließt, öffnet sich eine andere”, wird eine Spur dieser perzeptiv-motorischen Erfahrung aktiviert und ermöglicht es einem, die Bedeutung dieser abstrakten Idee zu verstehen. Diese Theorie argumentiert auch, dass ein Großteil des menschlichen gesunden Menschenverstands durch mentale Simulation unter Verwendung dieser wahrnehmungsmotorischen Konzepte entsteht. Wenn Sie zum Beispiel gefragt werden: “Passt ein Elefant durch die Türöffnung?”, wird Ihr Verstand wahrscheinlich eine schnelle Wahrnehmungssimulation durchführen, um die Frage zu beantworten.
Martin Hozherr: “Zum gesunden Menschenverstand liest man im arxiv-Artikel Machine Common Sense Concept Paper einige gute Überlegungen. Man erhält aber auch einen hoffentlich repräsentativen Eindruck von den bisher verfolgten Ansätzen (wie wetwa Cyc. …
… Es gibt signifikante Hinweise aus der Kognitionspsychologie und den Neurowissenschaften zur Unterstützung der Theorie der geerdeten Kognition[25][26], die argumentiert, dass Konzepte im menschlichen Gehirn auf wahrnehmungsmotorischen Erinnerungen und Erfahrungen basieren. Wenn Sie zum Beispiel an das Konzept einer Tür denken, wird sich Ihr Verstand wahrscheinlich eine Tür vorstellen, die Sie oft öffnen, einschließlich einer leichten Aktivierung der Neuronen in Ihrem Arm, die diese Tür öffnen. Diese Erdung beinhaltet perzeptiv-motorische Simulationen, mit denen die Aktion zum Öffnen der Tür geplant und ausgeführt wird.”
Jaromir: Danke!
Das ist wohl richtig. Auch ich glaube: Ohne unser “Embodiment” würde es keinen gesunden Menschenverstand geben.
Jaromir: Wenn ich’s richtig verstanden habe, will man bei dem StartUp, über das in dem hier verlinkten Artikel berichtet wird, selbstfahrenden Autos den gesunden Menschenverstand mit probalistischen Algorithmen beibringen. Das bin ich sehr skeptisch:
https://medium.com/mit-technology-review/finally-a-driverless-car-with-some-common-sense-11200f64c0b6
@Martin Holzherr
Das trifft zu, aber…
…das nicht. Um ein Konzept zu erwerben, muss es kategorisiert werden. Konzeptuelle Kategorisierung funktioniert aber nicht so wie oben beschrieben.
@Trice // Kausalität(en)
Ich muss noch einmal auf etwas zurückkommen, was weiter oben gesagt wurde:
» Die Gehirnprozesse beruhen dabei auf Regeln, die entweder der einen oder der anderen Variante unterliegen. Die Varianten nennen wir Prädikativ- und Funktionalgesetz. «
Wenn ich mich nicht täusche, dann geht es hier um die Varianten der Kausalität. Und mit den „Gehirnprozessen“ sollten eigentlich die neurophysiologischen Aktivitäten gemeint sein—im Gegensatz zu den dabei stattfindenden Denkprozessen, den Gedanken.
Den daran anschließenden Ausführungen habe ich entnommen, dass die prädikative Regelvariante makroskopische Ursache-Wirkungs-Beziehungen beschreibt, während die funktionale Variante auf der Quantenebene zum Tragen kommt.
Das ist das eine. Das andere ist nun die prädikative bzw. funktionale Arbeitsweise des Gehirns. Diese beiden Varianten haben offenbar den Anstoß gegeben für die Überlegungen, die zu den beiden Varianten der Kausalität geführt haben.
Zurück zu den „Gehirnprozessen“: Die Regeln, auf denen sie beruhen (sollen), unterliegen also entweder der prädikativen oder der funktionalen Variante, die Sie als Prädikativ- bzw. Funktionalgesetz bezeichnet haben. Die Beschreibung dieser Gesetze legt nun nahe, dass mit „Gehirnprozesse“ wohl doch nicht die physiologischen Prozesse gemeint sind, sondern die damit einhergehenden Gedanken, Überlegungen, Vorstellungen. Denn das Funktionalgesetz lautet: „Weil Zukünftiges (Z) im Vergangenem(X) vorkommt, deshalb setzt Gegenwärtiges (Y) an Zukünftigem an“, womit m. E. klar ist, dass wir es hier mit einem gedanklichen Konstrukt zu tun haben.
Das „Funktionalgesetz“ beschreibt demnach nicht die funktionale Variante der Kausalität, wie man zunächst vielleicht meinen könnte, sondern die Art und Weise, wie bestimmte Aufgaben und Probleme angegangen und gelöst werden können.
So erklärt es sich, dass das funktionale Denken an Strukturen abläuft, die der prädikativen Variante der Kausalität unterliegen.
Wenn das nun so ist, wie ich es mir zusammenreime: wozu brauchen wir dann überhaupt eine funktionale Variante der Kausalität? Zumal auf der Quantenebene, wo sie gelten soll, ohnehin akausale Phänomene das Salz in der Suppe sind.
@Trice // 18. Oktober 2018 @ 10:47
Im Zusammenhang mit der selbstregulatorisch ablaufenden Ontogenese hatte ich geschrieben, dass, wenn die Regulation versagt, die Sache auch schon mal aus dem Ruder laufen kann, wie etwa bei Krebs.
Sie daraufhin:
» Selbst dann verläuft der Vorgang immer noch regelgemäß, nur dass eine der drei Komponenten [der Regel bzw. Variante], der Prozess, offenbar fehlerhaft verläuft, also positiv rückgekoppelt, weshalb man diesen Prozess, unterteilen und dabei wieder der Regel folgen müsste, um herauszufinden, wo der Fehler liegt.«
Auf die Rede vom „Fehler“ kommen Sie vermutlich deshalb, weil Sie als Beobachter den „Sollzustand“, also den fertigen („gesunden“) Organismus, vor Augen haben. Man kann das aber auch ganz anders sehen. Ich zitiere mal Anna Müllner von nebenan:
„Krebszellen sind Überlebenskünstler. Den programmierten Zelltod haben sie mit einem müden Lächeln überwunden.“
» Mich aber interessiert nur der Vorgang als solches, weil ich wissen will, wie die einzelnen Schritte aufeinander folgen – egal um welche Art von Vorgang es sich handelt: ich muss wissen, was alle solchen Vorgänge miteinander gemein haben, wenn ich eine allgemeine Regel, ein allgemein gültiges Gesetz formulieren will, unabhängig vom jeweiligen Gegenstand. «
Das wäre dann die Suche nach dem kleinsten gemeinsamen Nenner aller Naturvorgänge, die als kausal zusammenhängend gesehen werden können. Kann man machen, aber bringt das für das Verständnis der natürlichen Abläufe?
Zum Evolutionsprozess, ich hatte als Beispiel die Entstehungsgeschichte der Gehörknöchelchen gebracht, um die These vom „Anpassungsdruck“ als „treibende Kraft“ für strukturelle Änderungen zu erschüttern:
» Sorry, aber falscher Gedankengang: Erstens sorgen schon die beiden Varianten für den Druck, indem sie vorschreiben, dass alle Vorgänge, in unserer Realität der prädikativen Variante folgen müssen – vom Ist- zum Sollzustand – , und zweitens sind beide Varianten unspezifisch: das schließt alle Arten von Entwicklungsmöglichkeiten ein, festgelegt ist nur, dass von den Ausgangsbedingungen, wenn sie einmal gegeben sind und sich als erfolgreich erwiesen haben, immer wieder ausgegangen werden muss, um den Prozess am Laufen zu halten. Das folgt dann häufig Wegen, wie sie von der Chaostheorie beschrieben werden, lässt also auch Zufallsänderungen zu. Für den Druck sorgt also schon die fortlaufende Veränderung der Umweltbedingungen: wer stehen bleibt, um sie abzuwarten, hat schon verloren. «
Was Sie hier schildern, hat aber nichts mit einem wie auch immer gearteten „Anpassungsdruck“ zu tun. Es ist doch einfach so, dass die Nachkommen keine perfekten Kopien ihrer Altvorderen sind, der Rest ergibt sich praktisch von allein, vor allem, weil die Ressourcen begrenzt sind (H. sapiens ist diesbezüglich etwas atypisch).
Eine extrem dramatische Veränderung der Umweltbedingungen liegt z. B. vor, wenn wir mittels eines Antibiotikums die Umwelt unseres Mikrobioms verändern. Individuen, die die Attacke überstehen, können dann der Startpunkt für einen dem Antibiotikum „angepassten“ Bakterienstamm sein. So einfach kann “Anpassung” funktionieren: Es überleben die, die schon vor der Umweltänderung strukturell anders waren als die anderen: Erst die Struktur, dann die nützliche Funktion oder Eigenschaft.
» Die Notwendigkeit für die Ausführung einer Funktion, die das Überleben sichert, bedingt deshalb die Entwicklung verschiedener Strukturen, von denen diejenige, die sich für diese Ausführung am erfolgreichsten erweist, auch durchsetzt – ohne dass die nicht ganz so erfolgreichen deshalb radikal eliminiert werden müssen. …«
Ja, so würde wohl ein Designer rückblickend die Entstehungsgeschichte einer funktionellen Struktur schildern. Im Falle der Evolution wäre dann die Natur der Designer bzw. ein komplettes Designbüro:
» … Das bedeutet: auch wenn die Entwicklung von Organismen dem Zeitpfeil folgt, arbeitet die Natur nach der funktionalen Variante, wobei sie als Ziel mehrere Möglichkeiten offeriert und für den Weg dorthin mehrere Optionen anbietet. «
Wenn für den einzelnen Organismus in jeder Generation die prädikative Variante der Kausalität maßgebend ist, dann muss sie es auch für die Gesamtheit aller Organismen über Generationen hinweg sein, nicht zuletzt schon deshalb, weil Organismen makroskopische Objekte sind.
Das Funktionale bei der ganzen Geschichte beruht offenkundig auf dem Umstand, dass das Lebendig-sein an funktionelle Strukturen gebunden ist: Weil in lebenden Systemen die meisten Strukturen eine Funktion besitzen (müssen), arbeitet der lebende Teil der Natur „funktional“. So gesehen könnte ich Ihrer Aussage zustimmen.
Wenn ich z. B. von einer Vorlage einen Haufen Kopien anfertige, davon zwei brauchbare auswähle und wiederum einen Haufen Kopien anfertige, zwei auswähle, kopiere, und immer so weiter, dann haben wir es einerseits mit einem rein kausalen Vorgang zu tun (prädikativ), andererseits aber auch mit einem Auswahlverfahren, das auf bestimmten Kriterien beruht und wo das einfache Ursache-Wirkungs-Schema nicht mehr greift.
Im genannten Beispiel ist der selektierende Geist des Menschen für den funktionalen Aspekt der Geschichte verantwortlich. Aber wie verhält es sich in der Natur? Das war doch die große Leistung Darwins, dass er den Geist aus der Stammesgeschichte vertrieben hat. Mir scheint, Sie wollen ihn wieder zurückholen…
@ Balanus / Kausalität und Gesetz
Sie täuschen sich nicht, :-). Kausalität ist das Universalgesetz, u.a. mit der Aussage, dass die Welt, das Universum, die Natur usw. gegensätzlich angelegt ist. Deshalb gibt es zwei Varianten, deren Aussagen einander entgegengesetzt sind.
Vorsicht! Im Allgemeinen wird bei neurophysiologischen Prozessen unterschieden zwischen Signalübertragung (Elektrophysiologie) und Sinnesphysiologie. Ich unterscheide zwischen Funktionsweise (Signalübertragung und Sinnesphysiologie) und Arbeitsweise (Vorgang zum Konzepterwerb.
Nein: Denkprozesse verdanken sich der Arbeitsweise, beruhen aber auf der Funktionsweise – was sie nur können, wenn sie ebenfalls auf den Varianten und Regeln der Kausalität beruhen.
Ja.
Vor allem da, ja. Da sie aber die umfassendere Weltbeschreibung ist, tritt sie auch im makrokosmischen Bereich auf, dort aber nur unter bestimmten Bedingungen. Das heißt, der zeitliche Ablauf der Vorgänge im Makrokosmos (seiner Funktionsweise) unterliegt nach wie vor der prädikativen Variante, aber bestimmten Verhaltensweisen und Denkprozessen kann aber, wie eine Art Plan, die funktionale Variante zugrunde liegen.
So ist es.
Gehirnprozesse meint beides, Funktions- und Arbeitsweise.
:-),irgendwie musste ich es ja sprachlich formulieren.
Darüber habe ich ja mit zwei Freunden gestritten, einem Mathematiker und einem Philosophen. Beide wollten, dass ich von Kausalität als einem Urteil statt von einem Gesetz spreche, mit der Begründung: das Bewusstsein sei das Primäre, ohne Bewusstsein könnent wir nicht von der Welt wissen und keine Aussagen über sie machen. Unsere Aussagen über die Welt aber seien Urteile, was auch für die Formulierung der Naturgesetze gilt. Unsere Urteile aber seien analytisch, während Kausalität, so wie ich sie formuliere, ein synthetisches Urteil sei, und zwar ein synthetisches á priori.
Ich habe mich aber dennoch für Gesetz statt Urteil entschieden, weil im allgemeinen Sprachgebrauch der Begriff Urteil entweder juristisch oder darunter so etwas wie eine Meinung verstanden wird
Das Funktionalgesetz ist die funktionale Variante der Kausalität, und mit ihm lassen sich z. B. quantenmechanische Vorgänge sehr klar und einfach beschreiben – im Unterschied zu makrokosmischen.
Wenn ich mir den Aufbau des Gehirns anschaue, unterliegt der eher der funktionalen als der prädikativen Variante. Die Signalübertragung unterliegt, vom zeitlichen Ablauf her, der prädikativen Variante die Arbeitsweise kann entweder prädikativ oder funktional sein.
Nun, ich hoffe, es ist klarer geworden, dass es eben nicht so ist. Was die vermeintliche Akausalität betrifft, liegt ihr vermutlich die antiquierte Vorstellung einer Ursache-Wirkungs-Beziehung zugrunde. Denn auch im Bereich der Quantenmechanik gilt Kausalität, nur eben in Form der funktionalen Variante.
Herr Päs hat vor einiger Zeit zur Theorie von Ambjoern, Jurkiewicz und Loll verlinkt, der kausalen dynamischen Triangulation , mit der die Struktur der Raumzeit beschrieben wird – auch im mikrokosmischen Bereich. In dem Bericht heißt es: “In kleinstem Maßstab erscheint die Raumzeit nicht glatt, sondern als selbstähnliches Fraktal.” Genau das erhält man mit der Grundregel der funktionalen Variante der Kausalität.
@Balanus
@ Balanus: Universum, Evolution und Kausalität:
Tut mir Leid, dass die Version oben kursiv ausgefallen ist, ich hoffe, dass diese Version lesbarer ist (die Vorschau-Funktion funktioniert nicht, 🙁 )
Nein, ich habe von “offenbar fehlerhaft” geschrieben, weil Sie schrieben, dass die Regulation versagt, und ich daraus geschlossen habe, dass Sie in diesem Versagen einen Fehler sehen. Aus menschlicher Sicht kann man das insofern auch als Fehler sehen, weil der Organismus daran erkrankt und sterben kann. Weshalb ich überlegt habe, wie man vorgehen sollte, um den Punkt zu finden, an dem der Verlauf sich veränderte.
Nicht ganz – denn wenn der Organismus stirbt, ist auch ihr Ende gekommen. Spannender daran ist, was ich noch geschrieben habe nämlich dass es sich um positive Rückkopplung handelt, also um einen Prozess, bei dem eine Größe auf sich selbst zurückwirkt und sich dadurch verstärkt. Solche Prozesse verlaufen zunächst relativ langsam und linear bzw. mäßig ansteigend. Aber an einem bestimmten Punkt steigt die Wachstumskurve exponenziell an. In realen Systemen sind das Ausgangssignal, die Anfangs- oder Ausgangsbedingungen immer begrenzt und ein System reagiert deshalb auch sehr empfindlich auf die Veränderung dieser Bedingungen. Das heißt, das Wachstum wird begrenzt durch begrenzte Energieressourcen, durch weitere nichtlineare Einflüsse und letztlich durch seine Zerstörung.
Aber auch solche Vorgänge lassen sich kausal bzw. mit einer kausalen Regel beschreiben.
Um den kleinsten gemeinsamen Nenner geht es nicht, sondern um Kausalität und die Beschreibung von Vorgängen mittels kausaler Regeln. Und das bringt sehr viel, z. B. das Verständnis dafür, wie menschliche Gehirne arbeiten, wie Wissen erworben wird usw.
Vielleicht verstehen wir ja nicht dasselbe unter diesem Begriff. Nach meinem Verständnis übt die permanente Veränderung der Umwelt bereits einen Druck auf Organismen aus, sich zum Zweck des Überlebens an diese anzupassen. Ich habe bestimmt schon mehrfach geschrieben, dass die Regeln der Kausalität unspezifisch sind, das heißt:
…die Altvorderen liefern mit den Ausgangsbedingungen das Vergangene, aber da einerseits der Druck zur Anpassung an sich ändernde Bedingungen gegeben ist und andererseits im Makrokosmos das Zukünftige noch nicht feststeht, müssen im Gegenwärtigen verschiedene Optionen offen gehalten werden, indem genetische Veränderungen auftreten, von denen sich einige als erfolgreicher erweisen als andere.
Nein, von allein ergibt sich gar nichts. Der Physiker Thomas Fischbacher sagte vor einigen Jahren in seinem Vortrag “Der Zeitpfeil. Vom Wesen der Asymmetrie zwischen Vergangenheit und Zukunft”:
“Es gibt Beobachtungen, die so tief in unserer Alltagserfahrung verwurzelt sind, dass es als grosse Leistung angesehen werden muss, überhaupt erst den Gedanken formulieren zu können, dass es sich hierbei nicht um Selbstverständlichkeiten handelt und die Welt im Prinzip auch anders funktionieren könnte. Ein Beispiel wäre sicherlich die Tatsache, dass wir in einer dreidimensionalen Welt leben. Viel fundamentaler noch ist die Beobachtung, dass die Nichtgegenwart in ‘Vergangenheit’ und ‘Zukunft’ zerfällt, die für uns auf sehr verschiedene Weise in Erscheinung treten… usw.”
Das Folgende habe ich nicht verstanden, was vermutlich daran liegt, dass nach wie vor nicht deutlich wurde, wovon ich ausgehe.
Also von vorn:
Über den Beginn des Universums wissen wir nichts. Geht man vom Urknall aus, so liegt der “Zeitpunkt”, an dem die Physik zur Beschreibung ansetze kann bei 10 hoch minus dreiundvierzig Sekunden. Ich habe Zeitpunkt apostrophiert, weil es (bis) zu diesem keine Zeit gab. Aber es gab Materie und Energie zusammengedrückt auf einem unvorstellbarer winzigen Maß. Nach Spencer Brown war dieses plötzliche Auftreten von etwas Materiellem eine Unterscheidung – und in der Systemtheorie beginnt ein System mit seiner Unterscheidung bzw. es ist die Unterscheidung. Und etwa zu dem genannten Zeitpunkt gab es noch etwas anderes: Kausalität als Universalgesetz, das konstitutiv für das entstehende Universum war. Dieses Gesetz lag und liegt bis heute in zwei Varianten vor, womit es wieder zu Unterscheidungen im Materiellen kam, Mikro- und Makrokosmos. Und zu jeder Variante gibt es ein Regelwerk, wobei die Regeln der Varianten sich unterscheiden und es vermutlich nach und nach mehr Regeln wurden, weil die Entwicklung der beiden Systeme dies erforderlich macht.
Seitdem – davon gehe ich aus – unterliegt alles, was in diesem Universum, dieser Natur, dieser Welt abläuft und entsteht, sich entwickelt und vergeht diesen Gesetzen und ihren Regeln, auch wenn wir es bisher nicht bemerkt oder verstanden haben.
Die zweite Unterscheidung in zwei Varianten ist nicht so gravierend wie die erste, mit der wir von allem abgeschnitten sind, was “vorher” und “außerhalb” gewesen ist bzw. ist, denn zumindest mit der funktionalen kann in die prädikative übergegangen werden. Schließlich gibt es ja auch einen Übergang vom Mikro- zum Makrokosmos.
Das macht es bei der Beschreibung diverser Phänomene aber nicht unbedingt einfacher, zu trennen, unter welchen Bedingungen und wann plötzlich im prädikativen Makrokosmos die funktionale Variante zum Tragen kommt.
Jedenfalls ist es unter diesen Umständen ausgesprochen schwierig, darauf zu antworten:
…denn auch wenn im Makrokosmos die prädikative Variante gilt, gibt es Phänomene, die der funktionalen folgen, während simultan auf einer anderen Ebene Abläufe weiterhin der prädikative folgen.
So ist auch das:
nicht zu beantworten, weil es auf den Beobachter ankommt. Denn genauso gut kann gesagt werden:
Die Struktur ist nutzlos, wenn sie für die Funktion als Überlebensantwort auf die Veränderung ungeeignet ist. Weshalb es Zufall ist, wenn unter den Strukturen, die sich entwickelt haben, diejenige ist, die zur notwendigen Funktion passt.
Damit wird die Evolution oder die Natur aber noch lange nicht zum Designer
Aber wenn ich jetzt schon einmal deutlich machen konnte, dass das hier:
…viel zu kurz greift, obwohl mich das freut:
dann bin ich zufrieden.
Und auch das sollte jetzt eigentlich klar sein, nämlich dass das, was ich meine …
…mit Kausalität nur noch am Rande zu tun hat.
Und ich habe mit der Kausalität als einem Universalgesetz in zwei Varianten den Schöpfergott überflüssig gemacht. Den werde ich bestimmt nicht zurückholen, um ihn der Evolution zu verpassen. Diese Hypothese wird endgültig nicht mehr gebraucht.
@Balanus: Zur Frage:
Das sollte ich wohl nachtragen: Sie schrieben:
Die Frage stellt sich nicht – und ich denke, da liegt auch das Verständnisproblem. Michael Esfeld sagte, die Debatte drehe sich um die Frage, ob Kausalität ein fundamentaler Zug der Welt sei oder von noch fundamentaleren Merkmalen hergeleitet sei.
So, wie ich es sehe, ist Kausalität die Weltordnung – die Vorgabe für den Aufbau und die Abläufe in dieser Welt. Wenn wir diese Ordnung kennen, ist das der Schlüssel zum Verständnis des Universums, der Natur, inklusive des menschlichen Gehirns.
@Trice // 22. Oktober 2018 @ 14:03
» Ich unterscheide zwischen Funktionsweise (Signalübertragung und Sinnesphysiologie) und Arbeitsweise (Vorgang zum Konzepterwerb. «
Ich merke, dass ich bislang den Begriff „Arbeitsweise“ in Bezug auf das Gehirn ziemlich unreflektiert übernommen habe. Ich habe mir darunter einfach nur vorgestellt, dass es die Art und Weise ist, wie nach einem sensorischen Input die Signale auf Basis neurophysiologischer Prozesse zu Wahrnehmungsqualitäten „verarbeitet“ werden. Arbeitsweise also schlicht als das Ergebnis einer komplexen Verschaltungsarchitektur.
Denn wenn bei einem bestimmten Testbild manche spontan ein statisches Muster, andere aber die Momentaufnahme eines dynamischen Vorgangs sehen, dann muss in den jeweiligen Gehirnen irgendwo die Informationsverarbeitung verschieden sein. Wie sonst könnte ein und dasselbe Bild verschieden wahrgenommen werden?
Wenn z. B. ein Mensch sich keine Gesichter merken kann, dann arbeitet dessen Gehirn deutlich anders als das eines „Super-Recognizer‘s“. Ebenso arbeitet das Gehirn eines Synästhetikers anders als das eines Normalos (natürlich nur in den betreffenden Bereichen).
Ebenso verhält es sich beim Lösen von Problemen: Die unterschiedlichen Vorgehensweisen beim Lösen von Problemen und Aufgaben sind aus meiner Sicht Ausdruck der unterschiedlichen Arbeitsweisen der Gehirne und damit auch der unterschiedlichen Verschaltungsarchitektur.
» Das heißt, der zeitliche Ablauf der Vorgänge im Makrokosmos (seiner Funktionsweise) unterliegt nach wie vor der prädikativen Variante, aber bestimmten Verhaltensweisen und Denkprozessen kann aber, wie eine Art Plan, die funktionale Variante zugrunde liegen.«.
Bei Verhaltensweisen und Denkprozessen bewegen wir uns aber auf einer anderen Beschreibungsebene als bei biophysikalischen, kausalen Prozessen. Bei Denkprozessen kann die Zukunft (bzw. die Vorstellung einer Zukunft) die „Ursache“ einer Handlung sein, so dass es scheint, als sei die Zukunft in der Gegenwart kausal wirksam. Das mann m. E. aber keine spezielle „Variante“ einer allgemeinen, grundlegenden Kausalität sein, sondern bloß eine andere Art, Kausalität zu beschreiben.
» :-), irgendwie musste ich es [das Funktionalgesetz] ja sprachlich formulieren. «.
Das meinte ich nicht mit „gedanklichem Konstrukt“, da habe ich mich nicht klar ausgedrückt. Gemeint war, dass das Funktionalgesetz, so wie Sie es formulieren, sich auf Gedanken, Vorstellungen, eben gedankliche Konstrukte bezieht, und nicht, wie es mir beim Prädikativgesetz der Fall zu sein scheint, auf physikalische Vorgänge in der Natur, die beobachterunabhängig sind.
Davon abgesehen haben der Mathematiker und Philosoph schon einen wichtigen Punkt, wenn sie auf die subjektive Wahrnehmung von gesetzmäßigen Regelhaftigkeiten bei der Abfolge von Ereignissen verweisen, also darauf, was wir als Ursache und was als Wirkung ansehen wollen.
» Die Signalübertragung unterliegt, vom zeitlichen Ablauf her, der prädikativen Variante die Arbeitsweise kann entweder prädikativ oder funktional sein. «.
Ja, weil die Arbeitsweise eben eine abgeleitete Größe ist, die auf der Verschaltungsarchitektur und den neurophysiologischen Prozessen basiert. Zugespitzt formuliert: Weil die Arbeitsweise selbst eine Funktion der zugrundeliegenden biophysikalischen Prozesse ist, kann man sie als „funktional“ beschreiben, wenn sie bestimmte Kriterien erfüllt. Auf jeden Fall befinden wir uns beim Begriff „Arbeitsweise“ weit oberhalb der Beschreibungsebene von physikalischen Vorgängen, seien sie kausal (durch Energieübertragung charakterisiert) oder akausal, wie etwa beim Quantensprung.
» Was die vermeintliche Akausalität betrifft, liegt ihr vermutlich die antiquierte Vorstellung einer Ursache-Wirkungs-Beziehung zugrunde. Denn auch im Bereich der Quantenmechanik gilt Kausalität, nur eben in Form der funktionalen Variante. «.
Dem Begriff Akausalität liegt in der Tat die Vorstellung einer Ursache-Wirkungs-Beziehung zugrunde (gemäß Ihrem Ansatz die prädikative Variante einer allumfassenden Kausalität). ‚Akausal‘ nenne ich Ereignisse, deren spontanes Auftreten weder prädikativ noch funktional erklärt und nicht berechnet werden kann. Was bei bestimmten quantenmechanischen Ereignissen regelmäßig der Fall ist.
Bei mir hakt es nach wie vor an der Stelle, wo bei der Kausalität die Zukunft quasi als Ursache ins Spiel kommt. Weil damit ein Wechsel auf eine höhere (geistige) Beschreibungsebene verbunden ist, gleichzeitig aber behauptet wird, dass diese funktionale Kausalitätsvariante ebenso für die allerunterste Beschreibungsebene gilt.
(Mit Ihrer Antwort von 16:54 [und der Nachbemerkung] habe ich mich noch nicht befasst, kommt aber noch…:-)
@Balanus / 24. Oktober 2018 @ 14:34
Das hat aber nichts mit der Arbeitsweise, so wie ich sie verstehe, zu tun. Wenn ich zwischen Funktions- und Arbeitsweise des Gehirns unterscheide, meine ich Folgendes:
Die Funktionsweise ist bei allen Menschen dieselbe: Rezeptorsysteme wandeln Wellenlängen in Aktionspotenziale um, diese laufen an den Axonen entlang, über Ausstülpungen der Axone und zur Endplatte, werden am synaptischen Spalt chemisch zu empfangenden Zellen transportiert (bei elektrischen Synapsen ist das noch etwas anders). Im Soma der empfangenden Zelle wird der Wert der eingehenden Signale verrechnet und wenn der Schwellenwert der Zelle in etwa erreicht ist, feuert die Zelle, und das Signal läuft weiter. Komplizierter wird das Ganze durch Vorwärts- und Rückwärts-Verbindungen, divergente und konvergente Schaltstellen usw. Dies ist wie gesagt, bei allen menschlichen Gehirnen so, trotz individueller Unterschiede, z. B. was die Häufigkeit genutzter Signalwege angeht, die Verschaltung der Systeme untereinander usw.
Die Arbeitsweise meint dagegen die Art und Weise, in der sich diese Signalübertragung vollzieht. Wenn Sie sich das visuelle System anschauen, dann befinden sich die Systeme zur „Verarbeitung“ von Form und Farbe beide auf dem ventralen Pfad, parallel, aber auf verschiedenen „Leitungswegen“, Ort und Bewegung aber werden auf dem parietalen Pfad verarbeitet. Dazwischen befindet sich der Assoziationscortex. Von daher läge nahe, wenn diese Merkmale zu einem Objekt zusammengebracht werden sollen, dass zunächst Signale der Form und der Farbe zusammengebraucht werden, da sie nebeneinander liegen, und dann die Orts – und Bewegungsmerkmale hinzukommen. Das trifft aber nicht zu, sondern für alle drei Systeme gilt, dass sie in jedem Gehirn über den Assoziationscortex miteinander verschaltet sind und über diesen zwischen ihnen die Signale vor- und zurücklaufen. Und ausgerechnet beim prädikativen Gehirn ist es so, dass die Reihenfolge in der Signale zusammengeführt werden, beim Formsystem beginnt, dann die des Orts- und Bewegungssystems und schließlich die das Farbsystems anschließen, und sie erst dann zur gemeinsamen Meldung führen, am selben Objekt beteiligt zu sein. Beim funktionalen ist diese Reihenfolge eine andere, da folgen auf Form- Farbsignale und dann erst kommen Ortssignale. Wenn man das „Verständigungs-Hin-und-Her“ mit einem Stift nachziehen könnte, ergibt sich ein anderes Reihenfolgemuster(einer meiner Söhne hat sich damals, als man Telefonnummern och nicht speichern konnte, nicht Nummern seiner Freunde gemerkt, sondern das Muster der Reihenfolge, in der er die Zahlen antippte. Das ging schneller, nur hatte er darüber die Nummern seiner Freunde vergessen).
Das sind „Störungen“, die auf verschiedenen Hirnebenen liegen. Am Erkennen von Gesichtern sind fronto-orbitale Systeme beteiligt. Feedback-Verbindungen sind im Übrigen viel zahlreicher als Feedforward-Verbindungen, d.h., auch wenn auf der primäre Stufe (Wahrnehmung) ein „Zusammenschluss“ (eine Meldung) erfolgt ist, laufen Signale aus dem frontalen Cortex zu diesen primären Systemen zurück, wie eine Rückversicherung. Und wenn in dem Teil des Temporallappens, der für Gesichter zuständig ist, eine Schädigung vorliegt, kommt es nicht zur gemeinsamen Meldung der Neuronenverbände, die das (Wieder-)Erkennen signalisiert.
Synästhesie ist noch etwas anderes, da wurden Verbindungen zwischen verschiedenen Primärsystemen nicht gekappt, was normalerweise sehr frühzeitig in der Entwicklung des Gehirns geschieht. Aber auch diese Verbindungen sind nicht willkürlich – ich bin keine “starke“ Synästhetikerin, d.h., ich sehe nur Vokale farbig und die Zahlen von 1 bis 10. Aber ich fand es witzig, als ich von einer Untersuchung las, in der ein(e) Synästhetiker(in) angab, die Zahl 3 sei gelb und 5 sei hellblau – so sehe ich die nämlich auch. Ob sich das generalisieren lässt, weiß ich nicht.
Das trifft so nicht zu, denn das hat Frau Schwank untersucht. Die Vorgehensweisen beim Lösen von Aufgaben können gewechselt werden, z. B. wenn man feststellt, eine andere bringt schneller zum Ziel. Die Arbeitsweise des Gehirns kann dagegen nicht gewechselt werden, die ist stabil, ist aber von der Verschaltungsarchitektur unabhängig.
Ja.
Nein, zunächst einmal ist Zukunft Zukunft, nie etwas anderes. In einer Ursache-Wirkungs-Beziehung liegt die Wirkung in der Zukunft, ist also das Zukünftige. Beim prädikativen Denken ist immer klar, dass das Ziel etwas ist, das in der Zukunft liegt und auf das man hinarbeitet. Beim funktionalen Denken wird dieses Zukünftige, also was sich in der Realität erst ergeben soll, jedoch vorweggenommen, indem es mit der Ursache verknüpft wird, um daran den Handlungsweg festzumachen. Das ist, was das Funktionalgesetz, die funktionale Variante, besagt: das Handeln in der Gegenwart, muss an dieser vorweggenommenen Wirkung, am vorweggenommenen Zweck ansetzen, nicht, wie beim prädikativen Denken, an dem bereits Gegebenen.
Nein, so ist es nicht, :-). Was den Unterschied ausmacht ist, dass prädikativ denkende Menschen zum Ziel hin denken, und funktionale vom Ziel bzw. vom Zweck her denken. Und letzteres funktioniert anders als ersteres. Eine Logopädin beschrieb einmal das funktionale Denkverhalten als Störung: Sie fragte ein funktionales ADHS-Kind, das zu ihr zur Therapie kam: „Wer sitzt in der Klasse neben dir?“ und bekam zur Antwort: „Du, der Junge kann ganz toll schreiben.“ Sie wiederholte die Frage und erhielt diesmal die Antwort: „Der Junge ist immer sauer, weil.. der Tisch der hat doch so eine Mitte, nicht längs, sondern so, wie der Tisch breit ist. Und der Junge ist immer sauer, wenn ich mit dem Arm über die Mitte komme.“ Die Therapeutin wertete die Antworten als mangelhafte Verarbeitung ihrer Frage, in Unkenntnis der wirklichen Sachlage. Sie fragte: Wer sitzt in der Klasse neben dir? Das, wonach sie offenbar fragt, liegt also als ungewiss in der Zukunft. Nur: was will sie denn eigentlich wissen? Vermutlich den Namen des Banknachbarn oder ob es ein Junge oder ein Mädchen ist. Danach hat sie aber nicht gefragt, sie fragte nicht: Wie heißt das Kind, das neben dir sitzt oder Sitzt du neben einem Jungen oder einem Mädchen? Ihre Frage war also sehr unpräzise, da sie mehrere Antworten zuließ – was der Frau sichtlich nicht klar war.
Das funktionale Kind, das vom Zweck her denkt, – obwohl es das nicht weiß – muss deshalb der Frage einen Zweck unterstellen, weil es an ihm seine Antwort festmacht. Die sie den Zweck nicht genannt hat, muss es ihn setzen. Also, was könnte sie wissen wollen, wenn sie nach dem Banknachbarn fragt? Ihr den Namen zu nennen, ergibt keinen Sinn, denn was will sie mit dem Namen eines Jungen oder Mädchen anfangen, das sie gar nicht kennt? Andererseits, das Kind ist bei ihr in Therapie, weil es etwas nicht kann (die Umgebungssituation wird immer in die Antwort, in das Handeln mit einbezogen); sie fragt nach dem Namen des Banknachbarn – was kann der, was es selber nicht kann?: „Der Junge kann ganz toll schreiben“. Als sie nachfragt, ist klar, dass diese Antwort falsch war, also, um was könnte es sonst gehen? – Störungen des Sozialverhaltens gehören zum ADHS- Spektrum, deshalb „der Junge ist sauer..“
Dieses Vorgehen heißt, vom Ziel oder Zweck her denken und handeln: Vorweg zu nehmen, was sich ergeben soll und daran das Handeln, Antworten usw. festzumachen..
Das habe ich in der nachfolgenden Antwort versucht, deutlicher zu machen: Das Funktionalgesetz bezieht sich auf den Mikrokosmos als Teil unserer Welt, und damit auch auf physikalische Vorgänge. Im Makrokosmos gilt aber die prädikative Variante und auch ein funktionales Denken kommt, wenn es dort auftritt, da nicht aus: Wäre das Kind nicht in unserer Realität und in der Therapie, sondern wie ein Elektron in einer Wahrscheinlichkeitswolke, dann hätte es alle möglichen Antworten, die von A(der Frage) nach B (der richtigen Antwort) führen, simultan gegeben. Diese “Wahrscheinlichkeitswolke” verdankt sich der funktionalen Variante, mit der das Zukünftige, die “Wirkung” im Vergangenen, dem bereits Gegebenen, auftreten muss, damit Gegenwärtiges als Handeln an dieser Wirkung ansetzen kann. Nur haben quantenmechanische Objekte keine Vergangenheit, weshalb darin auch nichts Zukünftiges auftreten kann, so dass beides, Vergangenheit und Zukunft, nur Möglichkeiten sind, die erst, wenn man hinguckt, also misst, real werden. Es ist schade, dass man sich auf eine vierdimensionale Raumzeit geeinigt hat, was mit der RT und der Realität offenbar vereinbar ist, aber mit der Quantenmechanik nicht. Da ist es notwendig, jeder der drei räumlichen Dimensionen je einen Zeitmodus zuzuordnen. Denn wenn dann mit der funktionalen Variante Zukünftiges im Vergangenen vorkommen, sie in eins zusammenfallen, fallen auch erste und dritte Dimension “zusammen”, weshalb es auch keinen bestimmbaren “Ort” geben kann, an dem man ein Teilchen antreffen kann. Es bleibt dann nur so etwas “Fraktales”, und Gegenwart als kurzes Aufpoppen, das sogleich wieder zerfällt.
Den hatten sie, auch wenn es nicht um Ursache und Wirkung ging, sondern um „das Ding an sich“. Es ging um den Punkt, dass wir nicht erkennen können, wie die Welt wirklich ist, weil wir sie immer durch die Brille unseres Bewusstseins sehen. Deshalb fragte Kant auch einmal, ob uns synthetische Urteile à priori überhaupt möglich seien. Wenn also Kausalität ein synthetisches Urteil à priori ist, dann sollten sich zumindest die Philosophen freuen. Trotzdem nenne ich es lieber “Gesetz”
Von Arbeitsweise spreche ich nur im Zusammenhang mit dem Gehirn, deshalb liegt sie aber nicht oberhalb der Beschreibungsebene von physikalischen Vorgängen, sondern bezieht sich auf deren zeitlichen Ablauf.
Den Begriff Quantensprung gibt es m. W. nicht mehr, weil auch dieser Vorgang als kontinuierlich beschrieben werden kann.
Nicht ! gemäß meines Ansatzes! Die prädikative Variante ist keine allumfassende Kausalität, sondern eine der beiden Varianten der Kausalität. Die funktionale ist nur die umfassendere Beschreibung der Vorgänge und Abläufe in der Welt – der Natur und dem Universum, denn was sie aussagt, tritt auch im Makrokosmos auf. Dagegen gibt es im Mikrokosmos keine Vorgänge oder Ereignisse, die prädikativ beschrieben werden könnten.
Das trifft nicht zu, wie ich oben zu erklären versucht habe, sondern beruht auf der Unkenntnis der Kausalität als Weltbeschreibung. Bisher wird in der funktionalen Variante nicht erkannt, dass es sich um Kausalität handelt, weil unter Kausalität immer noch nur die Ursache-Wirkungs-Beziehung verstanden wird, die dem Zeitpfeil folgt. Wenn man die funktionale Variante aber kennt, dann ist es kein Problem, quantenmechanische Ereignisse zu verstehen und in ihnen die Kausalität als funktionale Variante zu erkennen.
Da ich aber gesagt habe, dass die Zukunft nicht als Ursache vorkommt, sondern immer Wirkung bleibt, dürfte das eigentlich kein Problem mehr sein, oder?
Und da ich auch schon wiederholt gesagt bzw. geschrieben habe, dass Ursache-Wirkungs-Beziehungen nur ein Spezialfall der Kausalität sind, den es nur mit der prädikativen, aber nicht mit der funktionalen Variante gibt, ist das ohnehin ausgeschlossen.
@Trice // 22. Oktober 2018 @ 16:54
» Nein, ich habe von “offenbar fehlerhaft” geschrieben, weil Sie schrieben, dass die Regulation versagt, und ich daraus geschlossen habe, dass Sie in diesem Versagen einen Fehler sehen. «.
Der Punkt war, dass ohne Regulation eine Entwicklung „aus dem Ruder laufen“ kann (Ihre Worte). Und dass diese Formulierung einen Beobachter impliziert, der eine Vorstellung davon hat, wie es im geregelten Normalfall eigentlich sein sollte. Wir Beobachter kennen das Ziel und den Zweck der ganzen Unternehmung und neigen dazu, dieses zukünftige Ziel und diesen Zweck auch im blinden Naturgeschehen zu verorten (Funktionalgesetz: „Gegenwart setzt an der Zukunft an“).
» Um den kleinsten gemeinsamen Nenner geht es nicht, sondern um Kausalität und die Beschreibung von Vorgängen mittels kausaler Regeln. «.
Wenn eine kausale Regel für alle möglichen kausalen Vorgänge im Mikro- oder Makrokosmos gelten soll, dann muss sie schon sehr allgemein gehalten sein. Die Alternative wäre, mehrere Regeln zu formulieren, um den unterschiedlichen Naturvorgängen gerecht zu werden.
» Vielleicht verstehen wir ja nicht dasselbe unter diesem Begriff [„Anpassungsdruck“]. Nach meinem Verständnis übt die permanente Veränderung der Umwelt bereits einen Druck auf Organismen aus, sich zum Zweck des Überlebens an diese anzupassen. «.
Wer oder was soll denn „überleben“, das Individuum oder die Spezies? Die allermeisten Arten haben nicht überlebt, das Überleben ist offenbar die Ausnahme. Für das individuelle (Über-)Leben wäre ein evolutionärer Anpassungsdruck ohnehin nicht von Bedeutung.
Ich bestreite ja nicht, dass eine Spezies, die auf eine bestimmte Umwelt „angepasst“ und darum auf sie angewiesen ist, ein Problem hat, wenn diese Umwelt sich wesentlich und schnell ändert. Wenn Auswanderung nicht möglich ist und nicht zufällig überlebensfähige Varianten in der Population vorhanden sind, besteht die Gefahr des Aussterbens. Bei unseren Altvorderen ist es halt immer gut gegangen.
» Nein, von allein ergibt sich gar nichts. Der Physiker Thomas Fischbacher sagte vor einigen Jahren…«.
Ich dachte, wir würden darin übereinstimmen, dass der Evolutionsprozess im Wesentlichen selbstregulatorisch abläuft, also quasi von alleine. Wenn die Nachkommen keine perfekten Kopien der Altvorderen sind und nur ein Teil von ihnen überleben und sich fortpflanzen kann, dann geschieht unweigerlich Evolution, sofern gewisse Randbedingungen gegeben sind. Das hat Darwin erkannt, wir sollten nicht dahinter zurückfallen.
» Über den Beginn des Universums wissen wir nichts. Geht man vom Urknall aus, …«.
Mit dem „Auftreten von etwas Materiellem“ gab es nicht nur „eine Unterscheidung“, sondern es gab auch Wechselbeziehungen zwischen den materiellen Teilchen—womit die Bedingungen für gesetzmäßige (oder kausale) Zusammenhänge gegeben waren. Was den Fortgang dieser Entstehungsgeschichte anbelangt, also auch die Entstehung makrokosmischer Strukturen aus den mikrokosmischen heraus, da folge ich den gängigen kosmologischen bottom-up Erklärungen.
» Seitdem – davon gehe ich aus – unterliegt alles, was in diesem Universum, dieser Natur, dieser Welt abläuft und entsteht, sich entwickelt und vergeht diesen Gesetzen und ihren Regeln, auch wenn wir es bisher nicht bemerkt oder verstanden haben. «.
Ich gehe auch davon aus, dass alles mit rechten Dingen zugeht. Und ich gehe aus von der prinzipiellen Erklärbarkeit aller Phänomene aus Ursachen und Motiven.
» …denn auch wenn im Makrokosmos die prädikative Variante gilt, gibt es Phänomene, die der funktionalen folgen, während simultan auf einer anderen Ebene Abläufe weiterhin der prädikative folgen. «.
Auf einer anderen Ebene? Der Zeitpfeil zeigt doch auf allen denkbaren Ebenen in die gleiche Richtung und determiniert so die Reihenfolge der kausal verbundenen Ereignisse und Phänomene im Makrokosmos. An welche Phänomene denken Sie denn, die diesem Zeitpfeil nicht strikt folgen und somit einer funktionalen Kausalitätsvariante gehorchen könnten? Weder bei der Onto- noch bei der Phylogenese gibt es solche Phänomene, und auch nicht bei biophysikalischen Prozessen im Nervensystem oder sonstwo.
Dass wir in der Beschreibung der kausalen Zusammenhänge die Reihenfolge der Ereignisse vertauschen können, tut nichts zur Sache, entscheidend ist, aus meiner Sicht, dass die Abfolge der realen (konkreten), raumzeitlichen Ereignisse nicht umkehrbar ist.
» Denn genauso gut kann gesagt werden:
Die Struktur ist nutzlos, wenn sie für die Funktion als Überlebensantwort auf die Veränderung ungeeignet ist. «.
Dass es Strukturen mit und solche ohne (wesentliche) Funktion(en) gibt, hatten wir bereits geklärt. Wichtig war in diesem Zusammenhang, dass die Entwicklung der funktionellen Strukturen sich in kausalen Ketten vollzieht. Das finale Ziel solcher Entwicklungsprozesse an den Anfang zu stellen, und sei es auch nur gedanklich, widerspricht dem tatsächlichen Verlauf des kausalen Geschehens.
Das gilt sowohl für individuelle Entwicklungsprozesse als auch für evolutionäre Entstehungsgeschichten. Federn z. B. hat es sicherlich schon gegeben, bevor sie zum Fliegen gebraucht wurden. Eine solche Funktionsänderung (von denen es viele gibt) kann logischerweise nur an bereits vorhandenen Strukturen erfolgen.
@Balanus / 25. Oktober 2018 @ 22:40
» Nein, ich habe von “offenbar fehlerhaft” geschrieben, weil Sie schrieben, dass die Regulation versagt, und ich daraus geschlossen habe, dass Sie in diesem Versagen einen Fehler sehen. «.
Das “Wir” trifft so nicht zu. Zutreffend ist allenfalls, dass “wir” den Mechanismus kennen, also das Ist-Soll-Prinzip. Wie das aber im Einzelfall aussieht, hängt von der Fähigkeit ab, das Allgemeine im Besonderen wiedererkennen zu können.
So blind ist das Naturgeschehen nicht, sonst wäre es völlig unmöglich, in derart willkürlichen und beliebigen Vorgängen irgendwelche Gesetzmäßigkeiten zu erkennen. Für blind kann man es nur dann halten, wenn man nicht weiß, dass es das Funktionalgesetz gibt, welches fordert, dass man Zukünftiges in das Vorhandene (Vergangenheit habende) hineinbringt und daran ansetzt.
» Um den kleinsten gemeinsamen Nenner geht es nicht, sondern um Kausalität und die Beschreibung von Vorgängen mittels kausaler Regeln. «.
Was meinen Sie, das ich mache? Deshalb sage ich ja, dass es ein Kausalitätsgesetz gibt, welches nur besagt, dass es den Gegensatz gibt und die Größenordnung von der Zeitfolge abhängt. Die Forderung nach dem Gegensatz wird bereits mit den Varianten, dem prädikativ- und dem Funktionalgesetz realisiert, die sowohl den konträren als auch den kontradiktorischen Gegensatz in sich vereinen. Und jede Variante fordert mit der Abfolge ihrer Variablen eine bestimmte Zeitfolge, die jede im Bereich einer bestimmten Größenordnung gilt. Und zu beiden Varianten gibt es ein Regelwerk mit drei Klassen von Regeln – einer, die nur die Grundregel enthält, einer Klasse der Abläufe und einer Klasse der Erzeugung. Daran arbeite ich momentan.
Sowohl als auch …
… Darum geht es aber nicht*, sondern darum, wie es Joachim Hoffmann ** schrieb: “Die Biologie kennt letztlich allein den Zweck der Selbsterhaltung. Reizverarbeitung dient nicht der Erkenntnis, sondern dem Überleben. Organismen verarbeiten Reize (…), um das ihnen mögliche Verhalten für den Erhalt ihrer Existenz und die befriedigung ihrer bedürfnisse einzusetzen. Das gelingt ihnen nur dann, wenn sie die Konsequenzen ihres Verhaltens vorhersehen können.”
Dass sie dennoch aussterben, steht dem nicht entgegen, denn das Kausalitätsgesetz besagt schließlich: Es gibt den Gegensatz.
Ich weiß nicht – wenn ich mir so anschaue, wie viele Homo-Arten es gegeben hat, …und so ganz gerade wird die Linie ja wohl auch nicht sein, oder?
» Nein, von allein ergibt sich gar nichts. Der Physiker Thomas Fischbacher sagte vor einigen Jahren…«.
Das tun wir auch nicht, im Gegenteil: wir bestätigen ihn (noch zu Ihrer Bemerkung in einer früheren Antwort: Darwin hat nicht den Geist, sondern einen Schöpfergott aus der Biologie und den Lebenswissenschaften ausgetrieben. Bei Geist fällt mir immer Goethe ein: ” Wer will was Lebendigs erkennen und beschreiben, Sucht erst den Geist heraus zu treiben, Dann hat er die Teile in seiner Hand, Fehlt leider! nur das geistige Band.”), wenn wir im Kausalitätsgesetz samt seinen Regeln das geistige Band sehen.
» Über den Beginn des Universums wissen wir nichts. Geht man vom Urknall aus, …«.
Mit dem Begriff Unterscheidung ist nach George Spencer Brown die Markierung zwischen einem Innen, das markiert ist, und einem Außen, das unmarkiert bleibt, gemeint. Unterscheidung als System meint demnach so viel wie: “System |NichtSystem “, und Spencer Brown schrieb in “Laws of Form”: ” Wir nehmen die Idee der Unterscheidung und die Idee der Bezeichnung als gegeben an, und dass wir keine Bezeichnung vornehmen können, ohne eine Unterscheidung zu treffen. Wir nehmen daher die Form der Unterscheidung für die Form.” Der Moment des Entstehen des Universums als Unterscheidung, ist daher die Unterscheidung zwischen dem, was wir bezeichnen können und dem, was wir nicht bezeichnen können. Ein Beobachter von Außen hätte also gar nicht mitbekommen, dass plötzlich an keinem Ort und zu keiner Zeit ein Universum seinen Anfang nimmt, denn es gibt noch keinen Ort und noch keine Zeit.
Nach allem, was die Physik derzeit “weiß” (sofern man von Wissen sprechen kann), gab es zu Beginn eine Sigularität, die zu einem großen Teil aus heute nicht mehr bekannten Teilchen bestand. Es gab die vier Kräfte, die man heute mit einer ToE zu vereinigen sucht, und mit der Ausdehnung und Abkühlung fror zuerst die Schwerkraft aus, danach die anderen Kräfte. Und erst danach entstanden die heute bekannten Teilchen: Elektronen, Positronen, Quarks, Antiquarks, Neutrinos, Vorläufer der Photonen und Gluonen (die Träger der starken Wechselwirkung sind). Dann folgt eine Phase, in der sich Teilchen und Antiteilchen annihilieren, sie treten auf, vernichten sich, verschwinden, treten auf, vernichten sich… usw. Diese Prozesse hätten sich ad ultimo fortsetzen können. Taten sie aber nicht, weil jede Unterscheidung als System sich die Gesetze, nach denen es seine internen Prozesse organisiert, selbst gibt. Das heißt: Wechselwirkungen gab es noch nicht, aber es gab nun ein Gesetz, das Bedingungen nannte. Und so dominierte schließlich ein Quark-Gluonen-Plasma, mit dem das Universum seinen Anfang nahm.
Na, wie wollen Sie denn von Ursachen ausgehen, wenn es keine Ursachen gibt und auch nichts, das sie präjudiziert?
» …denn auch wenn im Makrokosmos die prädikative Variante gilt, gibt es Phänomene, die der funktionalen folgen, während simultan auf einer anderen Ebene Abläufe weiterhin der prädikative folgen. «.
Richtig: im Makrokosmos. Das Phänomen, von dem ich spreche, ist die Arbeitsweise eines funktionalen Gehirns. Sie liegt auf einer anderen Ebene als die Funktionsweise. Die Funktionsweise beruht bei allen menschlichen Gehirnen auf der prädikativen Variante, die Arbeitsweise aber nur bei etwa 2/3 bis 3/4 aller Menschen. Beim anderen Viertel bis Drittel beruht sie auf der funktionalen Variante, die für den Mikrokosmos gilt.
An welche Phänomene denken Sie denn, die diesem Zeitpfeil nicht strikt folgen und somit einer funktionalen Kausalitätsvariante gehorchen könnten? Weder bei der Onto- noch bei der Phylogenese gibt es solche Phänomene, und auch nicht bei biophysikalischen Prozessen im Nervensystem oder sonstwo.
@ Balanus:
Also, es tut mir leid und es ärgert mich, dass es schon wieder ein solches Durcheinander mit der Markierung von Zitaten und neuem Text gegeben hat – ich habe noch einmal nachgeschaut: ich habe beim Setzen des “quote”-buttons keinen Fehler gemacht. Aber da die Vorschau nicht funktioniert, konnte ich den Text nicht überprüfen.
Vielleicht liegt es daran, dass ich meine älteren Texte nicht als Zitate markiert habe, weil sie bereits durch Apostrophe gekennzeichnet waren.
Ich werde wohl auch dazu übergehen müssen, Zitate zu apostrophieren, satt den button zu verwenden.
@Trice
Sieht für mich so aus, als bezieht sich die prädikative Variante auf bereits Vorhandenes. Es entsteht nicht Neues, im Sinne höherer Komplexität. Eine nur neue Anordnung von bereits Vorhandenem ist in diesem Sinne nichts Neues.
Die funktionale Variante dagegen erlaubt das Entstehen von Neuem. Ich würde das vergleichen mit einer Art Diskussion, bei der das Ergebnis noch nicht feststeht, man weiß noch nicht wie man auf vielleicht veränderte Umgebungsbedingungen reagieren soll.
Kurz gesagt, es gibt den Prozess/Kommunikation/Verhaltenskoordination. Und es gibt das Ergebnis des Prozesses.
Demnach würde ‘funktional’ den ganzen Prozess Beschreiben, während ‘prädikativ’ sich allein auf die Resultate bezieht.
@Enno: prädikativ vs. funktional
» Demnach würde ‘funktional’ den ganzen Prozess Beschreiben, während ‘prädikativ’ sich allein auf die Resultate bezieht.«
Das ist ein interessanter Gesichtspunkt, darüber muss ich erst einmal nachdenken.
Zunächst ist es so, dass die beiden Begriffe sich auf die Theorie der Mathematikdidaktikerin Inge Schwank beziehen. In ihrer Erstveröffentlichung schrieb sie: “There exist two different cognitive structures in which the thinking processes are expressed: One structure ist built up by predicates (relations) and the other one is built up by functions (operations).”*
Der Begriff “kognitive Struktur” stammt aus der Psychologie und wurde eingeführt von Jean Piaget, der davon ausging, dass wir Menschen zunächst solche internen (erkennenden) Strukturen ausbilden müssen, um die Welt und ihre Dinge zu erfassen und sie kategorisieren zu können. Heute zählt man kognitive Strukturen zu den Schemata.
Ich bin dreizehn Jahre nach Schwank zu einer identischen Entdeckung gelangt, aber auf andere Weise und unabhängig von ihr. Zudem hatte ich den Vorteil, diese Unterscheidung zweier Arten bereits zu kennen, allerdings unter ganz anderen Voraussetzungen: Was Schwank als funktionale Art logischen Denkens beschreibt, wird in unserer Gesellschaft als Aufmerksamkeitsdefizit-Hyperaktivitätsstörung (ADHS) bezeichnet – eine “Störung” der Informationsverarbeitungsprozesse, die als genetisch bedingt gilt. Dadurch habe ich den Unterschied fundamentaler angesetzt: ich habe ihn nicht an kognitiven Strukturen festgemacht, sondern an der geregelten Arbeitsweise des menschlichen Gehirns.
Von daher greift es zu kurz, die beiden Arten auf die von Ihnen genannten Unterschiede zu reduzieren (auch wenn es ein interessanter Aspekt ist). Denn in beiden Fällen geht es um die Beschreibung der zugrunde liegenden Struktur unserer Informationsverarbeitungs- und Denk-Prozesse und die daraus resultierende Form der Einheiten unseres Wissens. Für die praktische Umsetzung würde die Herausarbeitung der Unterschiede genügen. Aber auch dafür ist notwendig zu wissen, woran ich arbeite: Die Kenntnis der Gesetze und die Struktur der Regeln, auf denen die beiden Arten von Prozessen beruhen.
Das es sich um etwas in dieser Größenordnung (Kausalität) handelt, damit habe ich nicht gerechnet – obwohl es nahe lag: wir sind schließlich auch nur Teil dieser Welt / dieses Universums, unterliegen ihren Gesetzen wie alles, was es in dieser Welt, diesem Universum gibt – von Anfang bis Ende.
*Inge Schwank (1986): Cognitive Structures of Algorithmic Thinking. In: “Proceedings of the 10th Conference for Psychology of Mathematics Education. University of London. p. 199
Trice // 25. Oktober 2018 @ 11:21
Vorab: Es folgen zwei Postings, die beide etwas länglich geraten sind. Falls Sie noch die Kraft haben, darauf zu antworten: Sie können sich gerne auf einige wenige, zentrale Punkte beschränken (mir fällt das Ihnen gegenüber ja eher schwer… ;-)).
„Funktionsweise“ vs. „Arbeitsweise“ des Gehirns:
Nach Ihren Erklärungen sieht die Sache für mich nun folgendermaßen aus:
Es handelt sich, wie ich oben schon angesprochen hatte, tatsächlich um zwei unterschiedliche Ebenen bzw. Beschreibungsebenen: Die eine (Funktionsweise) ist die Ebene der physikalischen bzw. neurophysiologischen und biochemischen Vorgänge, die andere (Arbeitsweise) betrifft die Reihenfolge, in welcher diejenigen Neuronen aktiviert werden, die an der jeweiligen Signal- bzw. Informationsverarbeitung beteiligt sind.
Diese unterschiedliche Reihenfolge, die darüber entscheiden soll, ob ein Gehirn prädikativ oder funktional arbeitet, impliziert m. E. eine unterschiedliche Verschaltung der Neuronen (diese kann auch aus unterschiedlichen Eigenschaften der Neuronen resultieren, etwa über die Verteilung der hemmenden und aktivierenden Synapsen, Empfindlichkeit, Biochemie).
Da Sie eine unterschiedliche Verschaltung der Neuronen oben verneint haben, eine unterschiedliche Reihenfolge der neuronalen Aktivierungen aber bejahen, stellt sich mir wieder die Frage, worauf die unterschiedlichen Arbeitsweisen denn sonst zurückzuführen sind, was die neurobiologischen Grundlagen hierfür sind.
Davon ab, meinetwegen können wir den Begriff „Arbeitsweise“ auf die prädikative bzw. funktionale Form beschränken, weil es hierbei um eine angeborene grundlegende Art der Arbeitsweise gehen soll, die von „Störungen“ oder „Abweichungen“ (Inselbegabungen, Synästhesie), die wohl bei beiden Hirnvarianten vorkommen können, abzugrenzen sind.
Aber dass aus einer solcherart gegebenen Arbeitsweise Ihrer Ansicht nach keine bestimmte „Vorgehensweise“ (mein Begriff) beim Lösen von Problemen folgt, das wiederum ist mir unverständlich.
Prädikatives vs. funktionales Denken
» Beim funktionalen Denken wird dieses Zukünftige, also was sich in der Realität erst ergeben soll, jedoch vorweggenommen, indem es mit der Ursache verknüpft wird, um daran den Handlungsweg festzumachen. «.
Das meinte ich, als ich schrieb: »Bei Denkprozessen kann die Zukunft (bzw. die Vorstellung einer Zukunft) die „Ursache“ einer Handlung sein, …«.
Es ist eine wesentliche Fähigkeit eines hochentwickelten Gehirns, sich etwas Zukünftiges vorstellen zu können. Ich wüsste gar nicht, wie ich—als Prädikativer—anders vorgehen könnte, wenn ich z. B. einen Nagel in Wand schlagen muss, um ein Bild aufhängen zu können, als eben so: Das Bild an der Wand ist das Zukünftige, Hammer und Nagel das Gegenwärtige, und das Hämmern ist die Tätigkeit, die letztlich zum Zukünftigen hinführt (wobei der Schlag mit dem Hammer die Ursache dafür ist, dass der Nagel in die Wand geht).
» Was den Unterschied ausmacht ist, dass prädikativ denkende Menschen zum Ziel hin denken, und funktionale vom Ziel bzw. vom Zweck her denken. «.
Ich vermute mal, dass ich (als Prädikativer) beim Bildaufhängen zum Ziel hin gedacht habe: Wenn das Bild an die Wand soll, dann brauche ich Hammer und Nagel. Sie (als Funktionale) denken dann vermutlich eher so: Das Bild hält nicht von selbst an der Wand, es fehlt dort ein Nagel, der das Bild halten kann, ich brauche etwas, womit ich den Nagel in die Wand befördern kann, usw. Natürlich nicht säuberlich nacheinander, sondern praktisch gleichzeitig und weitestgehend unbewusst (Heureka!).
Zu Ihrer Anekdote mit dem Kind bei der Logopädin eine Frage: Wie hätte denn ein prädikativ denkendes Kind auf die Frage: „Wer sitzt in der Klasse neben dir?“, geantwortet? Als Erwachsener würde man vielleicht nachfragen: Wie, wer? Was genau wollen Sie wissen? (Sofern es sich aus dem Kontext nicht erschließt).
» Den [Punkt] hatten sie [der Mathematiker und der Philosoph], auch wenn es nicht um Ursache und Wirkung ging, sondern um „das Ding an sich“. «.
Nun ja, es ging darum, wie uns die Dinge erscheinen (inklusive der Ursachen). Da kommen wir einfach nicht raus…
» Den Begriff Quantensprung gibt es m. W. nicht mehr, weil auch dieser Vorgang als kontinuierlich beschrieben werden kann. «.
Der Übergang von einem zum anderen Zustand kann eben nicht als kontinuierliche Veränderung beschrieben werden (auch wenn es so wäre). Aber darauf kommt es auch gar nicht an, sondern darauf, dass wir nicht vorhersehen können, wann ein solcher Übergang erfolgen wird. Wegen dieser Unbestimmtheit und weil man nicht die Bedingungen kennt, die zu einem bestimmten Zeitpunkt zu einer Zustandsänderung führen, nennt man diesen Vorgang akausal.
» Da ich aber gesagt habe, dass die Zukunft nicht als Ursache vorkommt, sondern immer Wirkung bleibt, dürfte das eigentlich kein Problem mehr sein, oder? «
Ich sagte, „quasi“ als Ursache kommt die Zukunft ins Spiel. Natürlich bleibt die Zukunft Zukunft, aber das Funktionalgesetz sagt nun mal, dass die Gegenwart an der Zukunft ansetzt. Die Gegenwart setzt also an etwas an, was irgendwann mal sein wird, ohne dass wir wissen, ob es überhaupt sein wird, es kann ja auch ganz anders kommen, schon allein wegen der notorischen Unbestimmtheit quantenmechanischer Phänomene.
Weiter geht es im nächsten Beitrag…
@Trice // 27. Oktober 2018 @ 14:30
» Was meinen Sie, das ich mache? «
Nun, Sie formulieren ein sehr allgemein gehaltenes Kausalitätsgesetz (was ich „kleinster Nenner“ nannte), das auf nur alle denkbaren Vorgänge passt, was allen Vorgängen gemein ist. Und dann geht es eben ins Detail, Sie formulieren diverse Varianten und Regeln, um den vielen unterschiedlichen Abläufen in Natur (außen) und Gehirn (innen) gerecht zu werden.
So etwas ist jemandem wie mir nur schwer plausibel zu machen, weil so jemand wie ich einfach keine Notwendigkeit sieht für solcherart Kausalgesetze, weil er die bekannten naturgegebenen Gesetzmäßigkeiten für hinreichend hält, um alle Naturphänomene, also auch die im Gehirn, beschreiben zu können, seien sie nun kausal oder akausal, determiniert oder indeterminiert.
Dazu zähle ich auch ausdrücklich die Reihenfolge, in der im Gehirn die Neuronen feuern, sich synchronisieren oder was auch immer, auf die Details kommt es hier nicht an. Feuernde Neuronen, auch rhythmisch im Ensemble, sind eindeutig genauso Teil des Makrokosmos, wie die Ausschüttung der Neurotransmitter an den Synapsen. Nicht Teil des Makrokosmos ist die Interpretation dieser Vorgänge, ihre Zerlegung in Ursachen, Motive, Ziele und Zwecke.
Wobei ich schon zustimmen kann, wenn Sie sagen:
» Das Phänomen, von dem ich spreche, ist die Arbeitsweise eines funktionalen Gehirns. Sie liegt auf einer anderen Ebene als die Funktionsweise.«
Aber bei mir ist es bloß eine andere (höhere) Systemebene. Den einzelnen Neuronen kann eine eigene funktionale Systemebene zugeordnet werden, einem zusammenwirkenden Neuronenensemble kann ebenfalls eine eigene funktionale Systemebene zugeordnet werden. Und so geht das dann weiter mit den hierarchisch angeordneten Systemebenen bis ganz nach oben. Aber auch dabei sollte man nicht vergessen, dass „Systeme“ zuvörderst nützliche Kreationen unseres ordnungsschaffenden Gehirns sind.
—
Zu Evolution und „Anpassungsdruck“: Was Joachim Hoffmann zur Biologie schreibt, könnte auch von mir sein. Insofern taugt es nicht als Gegenargument zu meiner Aussage, die da lautet, dass das Konzept „Anpassungsdruck“ den tatsächlichen und wesentlichen Evolutionsmechanismen nicht gerecht wird (im Großen und Ganzen, es gibt sicher Beispiele, wo das Konzept das Verständnis fördert).
» Dass sie [die Spezies] dennoch aussterben, steht dem nicht entgegen, denn das Kausalitätsgesetz besagt schließlich: Es gibt den Gegensatz. «
Sehen Sie, egal, um was es auch geht, es passt immer, denn „es gibt den Gegensatz“. Auf einen wie mich wirkt das wenig überzeugend (ich verkürze bewusst…).
» Ich weiß nicht – wenn ich mir so anschaue, wie viele Homo-Arten es gegeben hat, …und so ganz gerade wird die Linie ja wohl auch nicht sein, oder? «
Doch doch, die Abstammungslinie eines jeden aktuell lebenden Individuums von H. sapiens führt geradewegs in den Ozean (und noch weiter).
(Konrad Lorenz soll gesagt haben, dass ein Affe, der beim Sprung von Baum zu Baum die Schwerkraft nicht berücksichtigte, nicht zu unseren Vorfahren gehört.)
» Wo sehen Sie den Widerspruch? «
Ich schrieb in Bezug auf die Evolution, „dass die Nachkommen keine perfekten Kopien ihrer Altvorderen sind, der Rest ergibt sich praktisch von allein, vor allem, weil die Ressourcen begrenzt sind“, womit gemeint war, „dass der Evolutionsprozess im Wesentlichen selbstregulatorisch abläuft, also quasi von alleine“, während Sie meinten: „Nein, von allein ergibt sich gar nichts“. Denn:
» Wie ich schon schrieb: auch Selbstregulation unterliegt einer Regel, die den Verlauf vom Ist- zum Soll-Zustand beschreibt. Wobei diese Regel, wie auch das Kausalitätsgesetz und seine Varianten, sehr allgemein gehalten sind: sie sagen nur, dass es einen Sollzustand (im Zukünftigen) geben muss, nicht, wie er aussieht. «
Ja, das ist halt der evolutionäre Wandel: Wenn es einen solchen gibt, dann wird es auch einen bestimmten zukünftigen Zustand geben, der von dem heutigen abweicht.
Interessant wäre es zu wissen, ob die Kenntnis des Kausalgesetzes mit seinen Varianten Lamarck seinerzeit geholfen hätte, seine Evolutionstheorie zu verteidigen.
» …wir bestätigen ihn [Darwin] […], wenn wir im Kausalitätsgesetz samt seinen Regeln das geistige Band sehen. «
Ja, schön, ich sehe, Sie sind am Ende doch noch drauf gekommen, was ich mit „Geist“ meinte in Bezug auf das Evolutionsgeschehen. Ich will mich jetzt nicht zu weit aus dem Fenster lehnen, aber ich würde doch meinen, dass Darwin dieses „geistige Band“, von dem Goethe sprach, für seine Evolutionstheorien nicht brauchte. Ihm genügten, wie übrigens auch mir, die bekannten naturgegebenen Gesetzmäßigkeiten, insbesondere die der Biologie.
» Das ist übrigens auch das Faszinierende am Heureka, das der funktionalen Variante unterliegt: Es gibt ein Problem, von dem man weder die Lösung noch einen Lösungsweg kennt, …«
Ja, wer kennt das nicht, dass man plötzlich die Lösung eines Problems vor Augen hat. Das kann selbst dann passieren, wenn man sich gedanklich eigentlich mit etwas anderem beschäftigt. Irgendwann poppt dann die Idee oder die Lösung des Problems ins Bewusstsein: Heureka!
Dummerweise gibt es keine Garantie dafür, dass es die richtige Idee oder Lösung war, die da unvermittelt auftaucht. Um das herauszufinden, braucht es dann doch noch einiges an bewusstem Problemdenken (von irrtümlichen Heurakas wird selten berichtet).
(Ich vermisse die Vorschaufunktion auch, aber wenn’s schief geht, ist es auch nicht tragisch… das prädikative Hirn schafft das ;-))
@Balanus / Teil 1 🙂
»Vorab: Es folgen zwei Postings, die beide etwas länglich geraten sind. Falls Sie noch die Kraft haben, darauf zu antworten: Sie können sich gerne auf einige wenige, zentrale Punkte beschränken (mir fällt das Ihnen gegenüber ja eher schwer… ;-)).«
An der Kraft mangelt es nicht, 🙂 mitunter aber an der Zeit 🙁
und auch mir fällt es schwer, mich zu beschränken (vor allem, weil mir meist mehr einfällt, als ich zu virtuellem Papier bringen kann, ganz abgesehen davon, dass ich ohnehin manchmal meine, ich hätte Sie über Gebühr zugetextet…
Also denn:
„Funktionsweise“ vs. „Arbeitsweise“ des Gehirns:
»Nach Ihren Erklärungen sieht die Sache für mich nun folgendermaßen aus:
Es handelt sich, wie ich oben schon angesprochen hatte, tatsächlich um zwei unterschiedliche Ebenen bzw. Beschreibungsebenen: Die eine (Funktionsweise) ist die Ebene der physikalischen bzw. neurophysiologischen und biochemischen Vorgänge, die andere (Arbeitsweise) betrifft die Reihenfolge, in welcher diejenigen Neuronen aktiviert werden, die an der jeweiligen Signal- bzw. Informationsverarbeitung beteiligt sind. «
Was die Beschreibung der Funktionsweise angeht, gehen wir konform. Die Beschreibung der Arbeitsweise wäre dahingehend zu korrigieren, dass nicht das Nacheinander der Aktivierung entscheidend sein kann – dies ist auch nur bei der seriellen “Verarbeitung” der Fall, aber das Gehirn arbeitet parallel. Deshalb gibt es ja auch die wesentlich größere Anzahl an Feedback-Verbindungen – gegenüber den Feedforward-Verbindungen – und die Assoziationscortizes. Die Arbeitsweise funktioniert anders, nämlich…
»Diese unterschiedliche Reihenfolge, die darüber entscheiden soll, ob ein Gehirn prädikativ oder funktional arbeitet, impliziert m. E. eine unterschiedliche Verschaltung der Neuronen (diese kann auch aus unterschiedlichen Eigenschaften der Neuronen resultieren, etwa über die Verteilung der hemmenden und aktivierenden Synapsen, Empfindlichkeit, Biochemie).«
Die unterschiedliche Reihenfolge beruht nicht auf der Verschaltung der Neurone , sondern auf “interner Kommunikation”. Den Begriff hat m. W. Luhmann eingeführt im Zusammenhang mit der Frage, was soziale Systeme konstituiert, eine Frage, auf die meist geantwortet wird: Menschen. Aber diese Antwort ist falsch, denn was soziale Systeme konstituiert, ist die interne Kommunikation – und damit ist nicht nur die gemeinsame Sprache gemeint, sondern vor allem (ungeschriebene) gemeinsame Regeln, Gesetze, gemeinsame Rituale, Bräuche, usw. (Jede wissenschaftliche Disziplin hat z. B. ihre eigene Sprache (Begriffe), ihre eigenen Regeln, was Experimente und Veröffentlichungen betrifft, an die man sich hält), eine Kommunikation, mit der sie sich – jenseits des spezifischen Gegenstandes – von anderen Disziplinen abgrenzt. Und auch wenn das Gehirn kein soziales System ist, es ist ein System imsinne der Systemtheorie, es ist selbstreferenziell und seine interne Kommunikation beruht auf den Regeln entweder der prädikativen oder der funktionalen Variante.
Ich denke, das beantwortet auch Ihren folgenden Einwand, oder?
»Da Sie eine unterschiedliche Verschaltung der Neuronen oben verneint haben, eine unterschiedliche Reihenfolge der neuronalen Aktivierungen aber bejahen, stellt sich mir wieder die Frage, worauf die unterschiedlichen Arbeitsweisen denn sonst zurückzuführen sind, was die neurobiologischen Grundlagen hierfür sind.«
Nun ja, die “interne Kommunikation” läuft über die elektrochemischen Signale, exzitatorische und hemmende …
»Davon ab, meinetwegen können wir den Begriff „Arbeitsweise“ auf die prädikative bzw. funktionale Form beschränken, weil es hierbei um eine angeborene grundlegende Art der Arbeitsweise gehen soll, die von „Störungen“ oder „Abweichungen“ (Inselbegabungen, Synästhesie), die wohl bei beiden Hirnvarianten vorkommen können, abzugrenzen sind.
Aber dass aus einer solcherart gegebenen Arbeitsweise Ihrer Ansicht nach keine bestimmte „Vorgehensweise“ (mein Begriff) beim Lösen von Problemen folgt, das wiederum ist mir unverständlich.«
Ich glaube nicht, dass ich das so gesagt habe. Denn es ist schon so, dass es eine Präferenz für eine Vorgehensweise gibt, die der Arbeitsweise des Gehirns entspricht. Aber die Vorgehensweise ist ein bewusster Akt, und ich sagte schon, dass Bewusstsein und Gehirn verschiedene Systeme sind. Das heißt, bewusst haben wir die Möglichkeit, auch eine Vorgehensweise zu wählen, die nicht mit der Arbeitsweise des Gehirns übereinstimmen muss, wenn sich diese andere als die effizientere erweist.
Prädikatives vs. funktionales Denken
“» Beim funktionalen Denken wird dieses Zukünftige, also was sich in der Realität erst ergeben soll, jedoch vorweggenommen, indem es mit der Ursache verknüpft wird, um daran den Handlungsweg festzumachen. «.
Das meinte ich, als ich schrieb: »Bei Denkprozessen kann die Zukunft (bzw. die Vorstellung einer Zukunft) die „Ursache“ einer Handlung sein, …«.”
Das bereitet nur insofern Schwierigkeiten, als das, was als Ursache zu gelten hat (nach meiner Definition von Kausalität) aus Vergangenem und Gegenwärtigem bestehen muss. Wenn Sie also Folgendes tun:
»Es ist eine wesentliche Fähigkeit eines hochentwickelten Gehirns, sich etwas Zukünftiges vorstellen zu können. Ich wüsste gar nicht, wie ich—als Prädikativer—anders vorgehen könnte, wenn ich z. B. einen Nagel in Wand schlagen muss, um ein Bild aufhängen zu können, als eben so: Das Bild an der Wand ist das Zukünftige, Hammer und Nagel das Gegenwärtige, und das Hämmern ist die Tätigkeit, die letztlich zum Zukünftigen hinführt (wobei der Schlag mit dem Hammer die Ursache dafür ist, dass der Nagel in die Wand geht).«
Sich etwas vorzustellen oder es zu antizipieren, ist allen Menschen gegeben, das macht den Unterschied nicht aus. Anders sieht es schon aus, wenn jemand Sie auffordern würde, einen Nagel und einen Hammer zu holen. Ich denke, Sie hätten damit nicht die geringsten Schwierigkeiten, ganz gleich was Sie oder derjenige, der Sie auffordert, gerade tun. Ein Funktionaler hätte ebenfalls keine Schwierigkeiten, sofern er aus der Umgebungskonstellation schließen kann, welchem Zweck Hammer und Nagel dienen sollen. Kann er das nicht, holt er weder Hammer noch Nagel, sondern fragt erst mal, um sicher zu sein, richtig verstanden zu haben.
“» Was den Unterschied ausmacht ist, dass prädikativ denkende Menschen zum Ziel hin denken, und funktionale vom Ziel bzw. vom Zweck her denken. «.”
»Ich vermute mal, dass ich (als Prädikativer) beim Bildaufhängen zum Ziel hin gedacht habe: Wenn das Bild an die Wand soll, dann brauche ich Hammer und Nagel. Sie (als Funktionale) denken dann vermutlich eher so: Das Bild hält nicht von selbst an der Wand, es fehlt dort ein Nagel, der das Bild halten kann, ich brauche etwas, womit ich den Nagel in die Wand befördern kann, usw. Natürlich nicht säuberlich nacheinander, sondern praktisch gleichzeitig und weitestgehend unbewusst (Heureka!).«
Sie werden lachen: in diesem Fall denken wir gleich – das heißt: so wie Sie. 🙂
»Zu Ihrer Anekdote mit dem Kind bei der Logopädin eine Frage: Wie hätte denn ein prädikativ denkendes Kind auf die Frage: „Wer sitzt in der Klasse neben dir?“, geantwortet?«
Es nennt spontan den Namen.
» Als Erwachsener würde man vielleicht nachfragen: Wie, wer? Was genau wollen Sie wissen? (Sofern es sich aus dem Kontext nicht erschließt).«
Wenn Sie nach dem Kontext fragen, klingt es eher, als gehörten Sie zu den Funktionalen, 😉
Aber zur Sache: Wenn ich dieses Beispiel in meinen Vorträgen brachte, habe ich die Leute – bevor ich das Verhalten erklärte -:Wonach fragt sie, was will sie wissen?
Als Antwort bekam ich fast immer: “Den Namen”.
“» Den Begriff Quantensprung gibt es m. W. nicht mehr, weil auch dieser Vorgang als kontinuierlich beschrieben werden kann. «.”
»Der Übergang von einem zum anderen Zustand kann eben nicht als kontinuierliche Veränderung beschrieben werden (auch wenn es so wäre). «
Auch wenn es nicht darauf ankommt, aber der Ordnung halber hätte ich es schon gern richtig gestellt, denn in diesem
Beitrag steht:
“Schon im letzten Jahrhundert war vielen Theoretikern klar, dass die Bohrschen Postulate und die “Quantenspringerei” (Schrödinger) nur ein grobes Modell atomarer Vorgänge sind. Und heutige Experimentiertechnik kann diese Vorgänge nun so weit zeitlich auflösen (Attosekunden), dass sie kontinuierlich (und nicht sprunghaft) erscheinen.”
»sondern darauf, dass wir nicht vorhersehen können, wann ein solcher Übergang erfolgen wird. Wegen dieser Unbestimmtheit und weil man nicht die Bedingungen kennt, die zu einem bestimmten Zeitpunkt zu einer Zustandsänderung führen, nennt man diesen Vorgang akausal.«
Das ist der springende Punkt: “weil man die Bedingungen nicht kennt”
Ich gehe aber davon aus, dass man sie eines Tages kennen und feststellen wird, dass sie der funktionalen Variante unterliegen. Das Beispiel von dem Kind habe ich auch deswegen gebracht, um zu zeigen, wie man mit einem funktional arbeitenden Gehirn in einer Umgebung zurechtkommen muss, die der prädikativen Variante und damit dem Zeitpfeil folgt.
Wären das Kind oder ich in der Situation eines Teilchens bei einem Doppel- oder Mehrfachspalt-Experiment, wir stünden davor und würden überlegen, was jetzt von uns verlangt wird: Durch welchen Spalt soll ich gehen, welcher könnte der richtige sein und woran lässt sich das erkennen? Ein Teilchen kann das nicht, es kann auch nicht wählen, aber das muss es auch nicht: das Ziel, an dem es ankommt, lag bis zu diesem Moment in seiner Zukunft, und die funktionale Variante besagt, dass Gegenwärtiges – also das, was man tun soll – am Zukünftigen ansetzen muss. Und wenn das Zukünftige aus zwei oder mehr Spalten besteht, geht es eben durch alle.
Es spielt im Übrigen auch keine Rolle, ob man, während das Teilchen unterwegs ist (Bob und Alice-Experiment?), das Ziel wechselt: das Teilchen kommt immer an dem Ziel an, das zuletzt gesetzt wurde. Mit der funktionalen Variante kann man auch das Verhalten verschränkter Teilchen erklären, das ist überhaupt kein Problem.
»Ich sagte, „quasi“ als Ursache kommt die Zukunft ins Spiel. Natürlich bleibt die Zukunft Zukunft, aber das Funktionalgesetz sagt nun mal, dass die Gegenwart an der Zukunft ansetzt. Die Gegenwart setzt also an etwas an, was irgendwann mal sein wird, ohne dass wir wissen, ob es überhaupt sein wird,«
Deshalb setzen wir ja denkend nicht an dem an, was als Ziel gesetzt wird oder wurde, sondern am Zweck, der mit dem angepeilten Ziel verbunden ist. Weshalb wir fragen: Worauf wollen Sie hinaus, um was geht es? Worauf kommt es an?
Wenn man das weiß, dann bekommt man eine Vorstellung davon, worauf man beim Planen achten muss, welche Maßnahmen zielführend sind und welche nicht, usw. Das Problem besteht dann darin, das den Prädikativen klar zu machen.
Ich erinnere mich an eine Fortbildung, an der die Leiterin spontan die Idee hatte, eine bestimmte Situation im Rollenspiel zu üben. Ich dachte noch, das kann sie ja wohl nicht ernst meinen, aber sie meinte! Am nächsten Tag kam sie mit ausgearbeiteten Situationen, die wir durchspielen sollten. Ich holte tief Luft und sagte: ich mache nicht mit, ich möchte es mir anschauen. Alle waren verblüfft, einige waren enttäuscht, weil sie meinten, ich hätte doch die meiste Erfahrung und von mir könnten sie lernen, aber ich blieb dabei. Also zogen sie es durch und nach außen hin schien alles ok zu sein. Dann wurde ich gefragt, ob ich beim nächsten Mal mitmachen würde, und ich sagte: Nein. Kam nicht gut an. Am nächsten Morgen rief mich eine Teilnehmerin an und sagte, sie wünschte, sie hätte auch nicht mitgemacht: sie habe sich durch eine Bemerkung einer anderen Teilnehmerin so bloß gestellt gefühlt, dass vor Scham fast gestorben wäre und sie kaum habe schlafen können und etwas zur Beruhigung nehmen musste. Daraufhin habe ich das beim Treffen angesprochen und gesagt, dass ich deshalb nicht mit gemacht hätte, weil ich vorhergesehen hätte, dass das passieren könne. Für die Leiterin war das natürlich schlimm und peinlich, weil von ihr ja der Vorschlag gekommen war. Aber alle meinten, ich hätte das ja auch vorher sagen können … ja, hätte! Nur weiß ich aus Erfahrung, dass mir niemand geglaubt hätte, und es auch nicht unbedingt hätte eintreffen müssen. Denn solche Dinge sind mir in meinem Leben ständig passiert. Einerseits ist es eine Gabe, andererseits auch ein Fluch – Kassandra-Syndrom halt.
»es kann ja auch ganz anders kommen, schon allein wegen der notorischen Unbestimmtheit quantenmechanischer Phänomene.«
Nicht nur deshalb, auch wegen des Laplace´schen Dämons. Aber wenn man die funktionale Variante und ihre Regeln einigermaßen kennt, ist die Unbestimmtheit quantenmechanischer Phänomene auch kein so viel größeres Problem als die Unbestimmtheit menschlichen Verhaltens. 🙂
»Weiter geht es im nächsten Beitrag…«
Darauf antworte ich dann morgen, ja?
@Balanus: Heureka
Bevor ich zu Teil 2 komme, möchte ich Ihre Aussage:
»Sie (als Funktionale) denken dann vermutlich eher so: Das Bild hält nicht von selbst an der Wand, es fehlt dort ein Nagel, der das Bild halten kann, ich brauche etwas, womit ich den Nagel in die Wand befördern kann, usw. Natürlich nicht säuberlich nacheinander, sondern praktisch gleichzeitig und weitestgehend unbewusst (Heureka!). «
noch einmal aufgreifen, denn das ist kein Heureka.
Ein Heureka ist sehr selten, man kann es beschreiben mit: zu sehen, was alle sehen, aber dabei zu denken, was kein Anderer denkt. Obwohl es mit “denken” nichts zu tun hat, in diesem Augenblick denkt man nicht. Es ist auch kein logisches Schließen, kein Schlußfolgern. Die plötzlich auftauchende Idee hat keinen Zusammenhang mit dem, was man bis zu diesem Moment gedacht hatte und liegt auch völlig außerhalb dessen, worauf man evtl. hätte schlußfolgern können. Von einem Moment zum nächsten “sieht”man etwas und weiß im selben Moment, jenseits aller Zweifel: Das !!
Bevor es mir passierte, hatte ich diesen Satz schon mal gelesen und mich gefragt, wie das wohl sein muss oder ist, wenn man etwas denkt, was niemand denkt, hatte aber keinerlei Vorstellung davon.
Nachdem es mir passierte (Heidegger sagte mal: wir kommen nicht zu unseren Gedanken, sie kommen zu uns, und beim Heureka trifft das zu), habe ich in diversen Biografien von Leuten nachgelesen, von denen es heißt, sie hätten die entscheidende Idee einem Heureka zu verdanken, weil ich wissen wollte, wie es ihnen passiert ist und was sie daraufhin gemacht haben. Aber wirklich fündig bin ich nicht geworden. Von Archimedes gibt es die Badezuber-Story und dass er nackt durch die Straßen gelaufen ist, aber was er gesehen oder gedacht hat: Nada. Von Newton gibt es die nette Story mit dem Apfel, aber die erklärt auch nichts. Kekulè berichtete von Flammen, die aussahen wie der Ouroboros, was ihn angeblich auf die Struktur der Benzolringe brachte. Von Gauß weiß man, daß er von einem Moment zum nächsten auf die Idee kam, “… wie und woher, das weiß ich nicht, aber mit Gottes Hilfe…” usw. Feynman sagte, er habe für diesen einen Moment gewusst, wie die Natur funktioniert, und von Einstein ist nur bekannt, dass es sich am Vorabend von seinem Freund mit den Worten getrennt hatte: Ich geb’ s auf – um am nächsten Morgen ekstatisch zu berichten, er habe die Lösung gefunden (die er dann innerhalb von sechs Wochen zu Papier brachte – ich könnte sowas von neidisch werden, 🙁 ). Nur Heisenberg hat etwas mehr berichtet: er hatte das Gefühl, durch seine Gleichungen hindurch auf einen mathematischen Grund von einer merkwürdigen inneren Schönheit zu blicken.
Das kommt der Sache nahe. Denn Symbole und Formeln habe ich auch “gesehen”, und Farben. Aber was daran mir gesagt hat, dass es zwei geistige Geschlechter gibt, deren Gehirne sich in der Arbeitsweise unterscheiden, und Funktionale auf die Welt und die Dinge in ihr deshalb anders zugreifen als Prädikative, keine Ahnung. Aber von diesem Moment an wusste ich es einfach – jenseits aller Zweifel.
(kein Wunder, dass Gauß gemeint hat, Gott habe ihm geholfen).
Aber dieses Heureka wird keinem KNN und keiner KI je gelingen.
@Balanus / Teil 2
“» Was meinen Sie, das ich mache? «”
»Nun, Sie formulieren ein sehr allgemein gehaltenes Kausalitätsgesetz (was ich „kleinster Nenner“ nannte), das auf nur alle denkbaren Vorgänge passt, was allen Vorgängen gemein ist. Und dann geht es eben ins Detail, Sie formulieren diverse Varianten und Regeln, um den vielen unterschiedlichen Abläufen in Natur (außen) und Gehirn (innen) gerecht zu werden.«
Nein, das mache ich so nicht, :-).
Ich habe zwar mit zwei einfachen Regeln angefangen, aber schon bald gemerkt, so geht das nicht. Dann sagte mir Frau Schwank, das seien nur Varianten einer Regel, ich hätte daher eine Grundregel gebraucht, aber die hatte ich nicht. Außerdem stellte ich fest, dass ich mit diesen beiden Varianten allein nicht sehr weit kam und ich sie modifizieren musste – damit kam ich zu einer positiven Rückkopplung und konnte nun grob den Prozess des Konzepterwerbs (und die Arbeitsweise des Gehirns) beschreiben. Die Grundstruktur blieb aber gleich, was mich beunruhigte, denn sie schien tatsächlich auf immer mehr zu passen, als ich anfangs gemeint hatte. Dann erfuhr ich, dass ich Kausalität beschreibe, was mich wieder beruhigte hinsichtlich des Passens, aber ich sprach immer noch nur von Regeln. Mit einem Mathematiker habe ich ein Theorienetz entworfen, und musste dazu zwischen verschiedenen Regeln differenzieren. Ein anderer Mathematiker erklärte mir dann, dass ich ein Gesetz brauche mit einer generellen Aussage und wie ich das alles mathematisch richtig präsentieren muss , und der Mathematiker, der mich zur Kausalität gebracht hatte, sagte, das grundlegende Gesetz sei ein synthetisches Urteil à priori, aber die Varianten seien etwas anderes. Daraufhin habe ich ein Kausalitätsgesetz postuliert, und mit dessen Aussage waren diejenigen, die ich fragte, einverstanden, nur hätte ich nicht gesagt, was die Varianten sind. Was die Frage aufwarf: Wieso gibt es in dieser Welt den Gegensatz? Damit hatte ich den Grund, weshalb Kausalität in zwei Varianten vorliegt: mit ihnen kommt der Gegensatz in die Welt. Die Grundregel habe ich inzwischen formuliert und im Theorienetz untergebracht, nun sind die beiden Klassen dran. Die Regeln für die Klasse der kausalen Abläufe habe ich – soweit es nicht noch mehr Variationen gibt, nun ist noch dran, die Regeln für die Klasse der Erzeugungs- und Zerstörungsprozesse zu formulieren, das wird also noch dauern.
»So etwas ist jemandem wie mir nur schwer plausibel zu machen, weil so jemand wie ich einfach keine Notwendigkeit sieht für solcherart Kausalgesetze, weil er die bekannten naturgegebenen Gesetzmäßigkeiten für hinreichend hält, um alle Naturphänomene, also auch die im Gehirn, beschreiben zu können, seien sie nun kausal oder akausal, determiniert oder indeterminiert.«
Das liegt wahrscheinlich daran, dass Sie noch nie gefragt haben, warum das eigentlich so ist, dass die Gesetzmäßigkeiten und all das Naturgegebene so wunderbar zueinander passen bzw. wie es überhaupt dazu kommen konnte . Und wer sagt denn, dass es nicht auch Teilchen gegeben hat, die nur geringfügig anders strukturiert waren oder sind, und vielleicht ebenfalls, nur etwas anders passend (gewesen) sind, aber das Kausalitätsgesetz nicht erfüllt haben, und deshalb nicht in dieses Universum passen.
»Dazu zähle ich auch ausdrücklich die Reihenfolge, in der im Gehirn die Neuronen feuern, sich synchronisieren oder was auch immer, auf die Details kommt es hier nicht an. Feuernde Neuronen, auch rhythmisch im Ensemble, sind eindeutig genauso Teil des Makrokosmos, wie die Ausschüttung der Neurotransmitter an den Synapsen.«
Das habe ich auch nie bestritten, ganz im Gegenteil: ich habe stets behauptet, dass all das Teil des Makrokosmos ist, weil es ein “Grundgesetz” des Universums gibt, das diese Gesetzmäßigkeiten und Vorgänge vorschreibt – gäbe es keins, wäre das Universum nie über seinen Anfang hinausgekommen. Abgesehen davon: Ohne Kenntnis der kausalen Regeln hätte ich die Arbeitsweise unserer Gehirne und wie wir über sie zu unserem Wissen über die Welt kommen, nicht beschreiben können – und außer mir kann das bisher auch niemand, weil keiner die Regeln und das Gesetz kennt.
»Nicht Teil des Makrokosmos ist die Interpretation dieser Vorgänge, ihre Zerlegung in Ursachen, Motive, Ziele und Zwecke.«
Doch auch sie ist Teil des Makro- und des Mikrokosmos, denn sie konstituiert beide mit.
»Wobei ich schon zustimmen kann, wenn Sie sagen:
“Das Phänomen, von dem ich spreche, ist die Arbeitsweise eines funktionalen Gehirns. Sie liegt auf einer anderen Ebene als die Funktionsweise.”
Aber bei mir ist es bloß eine andere (höhere) Systemebene.«
Nein, die interne Kommunikation ist keine höhere Systemebene. Wobei Kommunikation nicht unbedingt Sprache heißen muss. Wechselseitige oder wechselwirkende Beziehungen zwischen “Sender” und “Empfänger” können als Kommunikation interpretiert werden, sofern die Kommunikation auf eienm physikalischen Trägersystem beruht. Es ist zwar ungewohnt, von einer Kommunikation zwischen Magen und Essverhalten zu sprechen, aber wenn der Magen ein Völlegefühl signalisiert, sollte man besser aufhören, zu essen.
—
»Zu Evolution und „Anpassungsdruck“: Was Joachim Hoffmann zur Biologie schreibt, könnte auch von mir sein. Insofern taugt es nicht als Gegenargument zu meiner Aussage, die da lautet, dass das Konzept „Anpassungsdruck“ den tatsächlichen und wesentlichen Evolutionsmechanismen nicht gerecht wird (im Großen und Ganzen, es gibt sicher Beispiele, wo das Konzept das Verständnis fördert).«
Ja, aber Sie folgern daraus anderes als Hoffmann.
» “Dass sie [die Spezies] dennoch aussterben, steht dem nicht entgegen, denn das Kausalitätsgesetz besagt schließlich: Es gibt den Gegensatz.”
Sehen Sie, egal, um was es auch geht, es passt immer, denn „es gibt den Gegensatz“. Auf einen wie mich wirkt das wenig überzeugend (ich verkürze bewusst…).«
Wie ich oben schon schrieb: das hat mich zunächst auch beunruhigt. Inzwischen würde es mich beunruhigen, wenn es anders wäre – denn dann müsste ich überlegen, wo der fehler liegt oder ob ichmich nicht ganz und gar getäuscht hätte.
»” Ich weiß nicht – wenn ich mir so anschaue, wie viele Homo-Arten es gegeben hat, …und so ganz gerade wird die Linie ja wohl auch nicht sein, oder? ”
Doch doch, die Abstammungslinie eines jeden aktuell lebenden Individuums von H. sapiens führt geradewegs in den Ozean (und noch weiter).
🙁 – nicht doch, Sie werden doch wohl wissen, was ich gemeint habe, oder? Die Linie von Homo erects pekinensis oder Homo erectus heidelbergensis führt ebenfallsdirekt in den Ozean, aber nicht direkt zum Homo sapiens sapiens.
Beim Folgenden habe ich etwas gelöscht, weil ich nicht sehe, inwiefern das meine Frage:
“» Wo sehen Sie den Widerspruch? «”
beantwortet hätte. Die ist also noch offen.
“» Wie ich schon schrieb: auch Selbstregulation unterliegt einer Regel, die den Verlauf vom Ist- zum Soll-Zustand beschreibt. Wobei diese Regel, wie auch das Kausalitätsgesetz und seine Varianten, sehr allgemein gehalten sind: sie sagen nur, dass es einen Sollzustand (im Zukünftigen) geben muss, nicht, wie er aussieht. «”
»Ja, das ist halt der evolutionäre Wandel: Wenn es einen solchen gibt, dann wird es auch einen bestimmten zukünftigen Zustand geben, der von dem heutigen abweicht.«
Und warum ist das so? Aus welchem Grund sollte es zukünftige Zustände geben? Denken Sie doch nur mal an die christliche Vorstellung von einem Himmel, einem Leben nach dem Tod, als einer ewig dauernden Glückseligkeit, ohne Hunger, ohne Leid, ohne Schmerz – ohne Wechsel.
Gibt es aber nicht, nicht in unserer Welt. Da ist alles im Wandel, und der folgt dem Zeitpfeil – zumindest im Makrokosmos.
Aber warum? Wodurch ist das so?
»Interessant wäre es zu wissen, ob die Kenntnis des Kausalgesetzes mit seinen Varianten Lamarck seinerzeit geholfen hätte, seine Evolutionstheorie zu verteidigen.«
Kommt darauf an, wie er es verwendet hätte.
“» …wir bestätigen ihn [Darwin] […], wenn wir im Kausalitätsgesetz samt seinen Regeln das geistige Band sehen.”
Ja, schön, ich sehe, Sie sind am Ende doch noch drauf gekommen, was ich mit „Geist“ meinte in Bezug auf das Evolutionsgeschehen.«
Oh nein! Nicht ich, sondern Sie sind jetzt darauf gekommen, denn Sie schrieben:
»Das war doch die große Leistung Darwins, dass er den Geist aus der Stammesgeschichte vertrieben hat. Mir scheint, Sie wollen ihn wieder zurückholen…«
Das “vertreiben” ist nicht dasselbe wie ein “Band, das zusammenhält”
» Ich will mich jetzt nicht zu weit aus dem Fenster lehnen, aber ich würde doch meinen, dass Darwin dieses „geistige Band“, von dem Goethe sprach, für seine Evolutionstheorien nicht brauchte. Ihm genügten, wie übrigens auch mir, die bekannten naturgegebenen Gesetzmäßigkeiten, insbesondere die der Biologie.«
Darwin wird es wohl nicht gebraucht haben, weil für ihn die Evolution evident war. Aber ich denke, er hätte mir zugestimmt.
Zum Heureka habe ich oben schon extra geschrieben, denn da es so selten ist, wird meist Unsinn darüber geschrieben. Die Lösung, die man bei einem Heureka findet, ist jedenfalls keine Idee die zu dem passt, wmit man sich auf der Suche nach ihr befasst hat.
»Dummerweise gibt es keine Garantie dafür, dass es die richtige Idee oder Lösung war, die da unvermittelt auftaucht. Um das herauszufinden, braucht es dann doch noch einiges an bewusstem Problemdenken (von irrtümlichen Heurakas wird selten berichtet).«
Die Garantie braucht es auch nicht, es ist, wie Einstein sagte: die Sache ist zu evident. Das Denken beschäftigt sich dann auch nicht mit der Idee selbst, sondern mit dem Lösungsweg, der an der Idee als dem Zukünftigen, nicht am Problem als Ausgangsbedingung, ansetzt.
Wie gesagt: Warum man in diesem Moment einfach weiß, dass das die richtige Lösung ist, kann ich nicht erklären, nur sagen: es gibt keinen Zweifel – und man wird von dem Moment an getrieben, den Lösungsweg zu finden, egal um welchen Preis.
@Balanus
Ich meine, wir können jetzt eigentlich zum Abschluss kommen, denn auch wenn ich die “interne Kommunikation”erst jetzt angesprochen habe, obwohl ich sie bereits seit mehr als zehn Jahren zugrunde lege, bringt dieser Punkt für unser Gespräch wohl keine neuen Impulse.
Ich hatte nur bei Ihren letzten beiden Antworten eine Art déjà vu: Bevor ich mich an Prof. Dörner wandte – damals noch in der naiven Annahme, wenn er untersuchen würde, worauf ich gestoßen war, würde sich das Wissen um die Existenz zweier Arten problemlos verbreiten lassen -, hatte ich schon angefangen, mich mit kognitiver Psychologie zu beschäftigen … Nicht nur, dass ich kaum verstand, wovon da eigentlich die Rede war: die gesamte Materie machte auf mich den Eindruck eines fest gefügten, in sich schlüssigen Ganzen, das keinerlei Lücken aufwies, die darauf hätten schließen lassen, dass in diesem “Weltbild” etwas fehlte. Mehr noch: es gab nirgendwo einen Ansatzpunkt für meine Entdeckung.
In einem meiner Gespräche mit Dörner (ich kannte zu diesem Zeitpunkt Schwanks Theorie noch nicht, Dörner aber kannte sie, weshalb er auch sofort gewusst hatte, wovon ich sprach), sagte ich, es käme mir vor, als würde ich versuchen, in Piagets Entwicklungspsychologie die Tatsache unterbringen wollen, dass es aber doch Jungen und Mädchen gibt (Piaget spricht durchgehend und unterschiedslos nur vom “Kind”).
Wenn ich nun Ihre Argumente lese oder auch die diversen Theorien der verschiedenen Disziplinen, dann habe ich diesen Eindruck wieder: alles wirkt so fest gefügt, in sich auch stimmig, dass die Erklärungen keine Lücken lassen, an denen angesetzt werden könnte.
Aber das ist, was Kuhn einmal sagte: Man nimmt das gleiche Paket Daten und setzt es in einen neuen Rahmen – et voilà.
Das ist, was ich mache, 😉
Dann sage ich Ihnen jetzt herzlich danke, denn unsere Gespräche bringen mich weiter, und danke auch an @Jaromir Konecny, dass wir sie in seinem Blog führen durften.
@Trice
Einverstanden, kommen wir zum Abschluss. Es folgt mein abschließendes Statement (als Erstes aber das, was ich mir bereits notiert hatte [alles muss raus, sozusagen ;-)]):
» Die Beschreibung der Arbeitsweise wäre dahingehend zu korrigieren, dass nicht das Nacheinander der Aktivierung entscheidend sein kann – dies ist auch nur bei der seriellen “Verarbeitung” der Fall, aber das Gehirn arbeitet parallel. «
Klar, aber diese Parallelität steht dem seriellen Nacheinander der Aktivierungen der verknüpften Neuronen nicht entgegen. Und auch Feedback-Verbindungen und Rückkoppelungen funktionieren zeitlich immer nur in Richtung Zukunft. Das gilt für alle denkbaren Modelle und Beschreibungen der Arbeitsweise des Gehirns.
» Die unterschiedliche Reihenfolge beruht nicht auf der Verschaltung der Neurone , sondern auf “interner Kommunikation”. […] Und auch wenn das Gehirn kein soziales System ist, es ist ein System imsinne der Systemtheorie, es ist selbstreferenziell und seine interne Kommunikation beruht auf den Regeln entweder der prädikativen oder der funktionalen Variante. «
Das ist leider keine Antwort auf meine Frage, gefragt war, worauf die unterschiedliche Reihenfolge der neuronalen Aktivierung, die als das Ergebnis der prädikativen bzw. funktionalen Regeln der Kausalität aufgefasst werden kann, strukturell (morphologisch, physiologisch) beruhen könnte. Auch wenn man noch nicht alles über die Kommunikation zwischen den Neuronen weiß, so weiß man doch, dass man begründete Vermutungen anstellen darf.
Dass die prädikative bzw. funktionale Variante der Kausalität als Erklärung für die unterschiedliche Reihenfolge dient, ist schon klar. Man mag es auch gerne mit Luhmann „interne Kommunikation“ nennen, aber irgendwie muss ja die Reihenfolge der parallelen neuronalen Aktivierungen strukturell realisiert werden.
Vielleicht verstehen wir unter dem Begriff „Verschaltung“ nicht dasselbe: Nehmen wir mal zwei identisch aussehende Netze bestehend aus, sagen wir, 8 Neuronen, wie sie oben im Beitrag als KNN-Schema dargestellt sind.
Trotz der identischen Verknüpfung können die beiden Netze unterschiedlich funktionieren, also funktional verschieden sein (nehme ich mal stark an, bin da kein Fachmann). Das bedeutet nach meiner Auffassung, dass in diesem Falle die effektive Verschaltungsarchitektur unterschiedlich ist: das Netz erscheint äußerlich gleich, arbeitet aber intern verschieden, weil die Eigenschaften der Verknüpfungspunkte verschieden sind. Im Ergebnis können wir so, denke ich, eine unterschiedliche Reihenfolge der neuronalen Aktivierungen erhalten, obwohl morphologisch alles gleich erscheint.
Im Gehirn kann es meiner Auffassung nach „Regeln“ ohnehin nur im übertragenen Sinne geben. Denn wenn man genauer hinschaut, findet man stets bloß die altbekannten biochemischen und biophysikalischen Gesetzmäßigkeiten. Es läuft zwar alles geregelt und regelhaft ab, aber mit der Art von Regeln, die soziale Systeme sich gemeinhin geben, hat das kaum etwas zu tun. Solche Regeln sind im System Zweierbeziehung andere als im System Familie und wiederum andere als im System Verein oder Dorfgemeinschaft oder Nation.
» Auch wenn es nicht darauf ankommt, aber der Ordnung halber hätte ich es schon gern richtig gestellt, …«
Es ist halt wie im richtigen Leben: Reale Sprünge haben immer einen gewissen zeitlichen Verlauf und erscheinen bei bestimmten Beobachtungsfrequenzen als „kontinuierlich“ (man kennt das vom Film). Es handelt sich dennoch um Sprünge. Und solange das Planck’sche Wirkungsquantum nicht beliebig (unendlich) klein werden kann, betrachte ich den zeitlichen Verlauf unserer Welt eben als gequantelt.
Und dass es verborgene, noch unbekannte Variablen geben könnte, die z. B. für jedes Atom eines radioaktiven Elements den Zeitpunkt des Zerfalls bestimmen, diese Annahme haben die allermeisten Physiker aus guten (sachlogischen) Gründen verworfen. Dem schließe ich mich an.
» Ein Heureka ist sehr selten,…«
Nur gemäß Ihrer speziellen Definition des Begriffs, gemäß dem üblichen Verständnis aber nicht. Würde ich Ihre Definition dieser speziellen Form der Erkenntnis übernehmen, dann müsste ich das übliche „Heureka“ anders nennen.
» Heidegger sagte mal: wir kommen nicht zu unseren Gedanken, sie kommen zu uns, und beim Heureka trifft das zu.«
Das trifft eigentlich immer zu, nicht nur bei diesen Heureka-Erlebnissen. Das gehört zum Wesen von Ideen und Eingebungen, Einfällen, Geistesblitzen. Ihr ‚Heureka‘ erinnert ein bisschen an eine (spirituelle) „Erleuchtung“. Wegen der Gewissheit, die damit verbunden ist. In dieser Gewissheit „jenseits aller Zweifel“ liegt m. E. auch eine gewisse Gefahr. Denn Wissenschaft lebt vom Zweifel.
» Das liegt wahrscheinlich daran, dass Sie noch nie gefragt haben, warum das eigentlich so ist, dass die Gesetzmäßigkeiten und all das Naturgegebene so wunderbar zueinander passen bzw. wie es überhaupt dazu kommen konnte . «
Das fragen sich wohl die meisten. Nachdem Gott als Antwort (für manche) ausgeschieden ist, bleibt als Antwort nur die Entstehungsgeschichte unseres Universums: Wäre es anders gelaufen und hätte die Materie andere Eigenschaften, gäbe es uns nicht. Womit sich die Frage erledigt hätte.
In jedem existierenden Universum, das Ordnung und Organisation hervorbringen kann, müssen die Naturkonstanten und Gesetzmäßigkeiten so „aufeinander abgestimmt“ sein, dass die Existenz eines Universums mit Ordnung und Organisation überhaupt möglich ist. Das mag uns „wunderbar“ erscheinen, ist im Grunde aber eine triviale Voraussetzung unserer Existenz—und für das, was gemeinhin unter Kausalität verstanden wird.
Deshalb meine ich ja auch, dass das Evolutionsgeschehen ohne „Geist“ und auch ohne Goethes „geistiges Band“ erklärt werden kann. Es genügen die natürlichen Gesetzmäßigkeiten. Eine Erklärung dafür, warum es grundlegende Gesetzmäßigkeiten, Materie, Energie und Kräfte überhaupt gibt (und damit auch Kausalität), liegt wohl außerhalb des naturwissenschaftlich Möglichen.
» Da ist alles im Wandel, und der folgt dem Zeitpfeil – zumindest im Makrokosmos.
Aber warum? Wodurch ist das so? «
Weil alles (seit dem „Urknall“) in Bewegung ist. Und Bewegung bedeutet (raumzeitliche) Veränderung. Ich sehe keinen weiteren Grund für diesen fortgesetzten Wandel. Welcher, je nachdem, chaotisch oder geordnet erfolgen kann, unter Bildung von Strukturen.
—-
» Wenn ich nun Ihre Argumente lese oder auch die diversen Theorien der verschiedenen Disziplinen, dann habe ich diesen Eindruck wieder: alles wirkt so fest gefügt, in sich auch stimmig, dass die Erklärungen keine Lücken lassen, an denen angesetzt werden könnte…. «
Dieser Eindruck dürfte sich mit diesem Posting weiter verfestigt haben. Ich gehe zwar grundsätzlich von der kausalen Geschlossenheit unseres Universums aus (inklusive der Unbestimmtheiten im Mikrokosmos), denke aber nicht, dass es ein neues Kausalgesetz braucht. Über Kausalität mögen Philosophen streiten, Naturwissenschaftler sind da außen vor, denn Kausalität ist nichts, was direkt beobachtet oder experimentell überprüft werden könnte. Und das dürfte auch bei der Zwei-Varianten-Theorie der Kausalität der Fall sein.
Ansonsten aber scheint mir die Vorstellung von kausalen, das heißt gesetzmäßigen Zusammenhängen bei allen natürlichen Vorgängen ein unverzichtbarer Grundpfeiler der empirischen Wissenschaften zu sein.
»… Aber das ist, was Kuhn einmal sagte: Man nimmt das gleiche Paket Daten und setzt es in einen neuen Rahmen – et voilà. «
Tja, nachdem der alte Kausalitätsrahmen von den Physikern entsorgt wurde, ist im Grunde Platz für etwas Neues. Ob er gebraucht wird, sich bewährt und die wissenschaftliche Erkenntnis befördert, ist eine andere Frage, das wird sich vielleicht irgendwann mal zeigen.
In diesem Sinne, bis dahin, auch von meiner Seite ein herzliches Danke für den anregenden Gedankenaustausch!
(Dem Dank an @Jaromir Konecny schließe ich mich an, nicht jeder Blogger akzeptiert Diskussionen, die mit dem Blog-Thema nur noch am Rande zu tun haben)
@Balanus
jetzt habe ich überlegen müssen, ob es ok für Sie ist, Ihre Antwort so stehen zu lassen. Aber diese Teile daraus:
» Das ist leider keine Antwort auf meine Frage, gefragt war, worauf die unterschiedliche Reihenfolge der neuronalen Aktivierung, die als das Ergebnis der prädikativen bzw. funktionalen Regeln der Kausalität aufgefasst werden kann, strukturell (morphologisch, physiologisch) beruhen könnte. Auch wenn man noch nicht alles über die Kommunikation zwischen den Neuronen weiß, so weiß man doch, dass man begründete Vermutungen anstellen darf. «
und
»aber irgendwie muss ja die Reihenfolge der parallelen neuronalen Aktivierungen strukturell realisiert werden«
interpretiere ich so, dass Sie darauf doch eine Antwort erwartet haben, die ich nicht gegeben habe. Das trifft nicht zu, denn ich habe sie bereits in unseren früheren Gesprächen gegeben, nur leider die interne Kommunikation vergessen zu erwähnen.
Mit der Verschaltung der Neurone hat die Kommunikation wenig zu tun, außer, dass es ohne erstere letztere nicht geben kann.
ich versuche es zunächst wieder an einem beispiel z erklären, um dann auf Teil zwei ihrer Frage einzugehen:
Stellen Sie sich ein kleines Unternehmen, einen Betrieb vor, bei dem die Mitarbeiter bei der morgendlichen Besprechung klären, was heute getan werden muss: A sagt, er sei mit x soweit vorangekommen, aber ihm fehle noch y, woraufhin B sagt, das würde er A im Laufe des Vormittags zukommen lassen und C fragt, der Kunde habe aber gestern noch z verlangt, wie man das noch einfügen könne, woraufhin D sagt, das würde er erstellen sofern B ihm die notwendigen Daten liefere.
Nimmt man A,B,C,D als Neurone und xyz als das Produkt ihrer Aktivitäten, dann steht das Gespräch zwischen ihnen für die interne Kommunikation. Dass die bei Neuronen so nicht stattfinden kann, ist evident, denke ich. Dass alle am “Gespräch” Beteiligten bereits aktiviert sein müssen, sonst könnten sie daran nicht teilnehmen, sollte ebenfalls evident sein. Das heißt, es kann nicht um eine Reihenfolge der parallelen neuronalen “Aktivierung” gehen, sondern um eine Reihenfolge, die von den kausalen Regeln vorgegeben wird.
Und wie ich schon früher sagte, bestehen die Regeln aus Variablen, die von den in sie eingesetzten Größen eine spezifische Eigenschaft fordern – und diese Eigenschaften haben Sie mir damals genannt (ich hab’ s nicht gesehen, obwohl es mir vor der Nase lag), die Eigenschaften sind zeitlicher Natur: was in die Variable X eingesetzt wird, muss Vergangenheit haben, was in Y eingesetzt wird, ist in der Gegenwart der Fall, was in Z eingesetzt wird, wird in Zukunft (nicht mehr) existieren.
Diese zeitliche Reihenfolge, die von den Regeln vorgegeben wird, liegt der internen Kommunikation zugrunde. Und nach dieser Reihenfolge arbeitet ein prädikatives Gehirn (beim funktionalen lautet sie XZY). Die bereits aktivierten Neurone müssen sich daher auf der Basis der kausalen Regeln einigen, wer die Position X (hat Vergangenheit), Y (ist in der Gegenwart der Fall) und Z (wird in Zukunft existieren) innehat. Da alle bereits vorhanden sind, kann es also nur um die Fage gehen, welches System ist das älteste, welches kam dann und welches kam zum Schluß. Am Beispiel des Sehsystems, in dem Form , Farbe und Bewegung bzw. Ort zu einem Objekt zusammengesetzt werden, sollte das heißen: Neurone, die auf Formanteile reagieren, sind die ältesten, denn vermutlich war in der Geschichte des Sehens das Erkennen von Hell-Dunkel-Unterschieden das erste System, das entstand – also X ist, dicht gefolgt vom zweiten, dem Erkennen einer Bewegung an einem bestimmten Ort, Positio Y. Das Farbensehen dürfte relativ spät entstanden sein, weshalb es Position Z hat.
Die vorwärts und rückwärts laufenden Signale dienen aus meiner Sicht in erster Linie der “Verständigung” darüber, welches neuron, welche Neuronengruppe, welche Position, basierend auf der zeitlichen Folge, innehat. Und ich bin mir sehr sicher, dass sich dieser Unterschied der zeitlichen Entwicklung feststellen lässt, also auch ein struktureller Unterschied ist.
Im Übrigen braucht es keine spezifischen Regeln für das Gehirn. Kausalregeln sind in dieser Welt und alles, was sich in ihr befindet und in ihr entsteht, unterliegt ihnen.
Noch zum Heureka: Was gemeinhin darunter verstanden wird – vermutlich, weil das Archimedische so extrem selten ist, dass es kaum jemanden gibt, der davon berichten kann (und die, die es könnten, tun es nicht) – ist im Prinzip nur eine Schlußfolgerung, z. B. eine Abduktion. Das Archimedische Heureka ist keine Schlußfolgerung: jeder kann aus der Beobachtung von Dingen, die im Wasser schwimmen bzw. darin untergehen, schließen, dass die Eigenschaften des Gegenstandes der Grund für die unterschiedliche Verdrängung des Wassers ist. Aber dabei das archimedische Prinzip zu entdecken, das gelang nur ihm. Danach aber, als er es formuliert hatte, konnte es jeder nachvollziehen.
Aber Sie haben recht: dieses Heureka hat etwas mystisch-religiöses – vielleicht mochten Leute wie Einstein, Hawkings, Newton usw. deshalb nicht darüber rede, weil es ihnen peinlich war. Gauß hatte diese Probleme noch nicht, weshalb er sagen konnte “mit Gottes Hilfe.” Aber wenn Feynman sagte, er habe in diesem einen Moment verstanden, wie die Natur funktioniert, und Heisenberg von einer Mathematik sprach, auf deren Grund er schauen konnte, und die von einer bizarren Schönheit war, dann klingt auch das mystisch. Ich habe früher bei der Entdeckung der beiden Arten auch gesagt, das sei meine Straße nach Damaskus gewesen. Nur besteht der Unterschied zwischen religiöser Erleuchtung und wissenschaftlicher Erleuchtung darin, dass man bei letztere offensichtlich immer eine Mathematik vor Augen hat. Aber der Eindruck dessen, was in ihr enthalten ist, der ist so überwältigend stark, so logisch und so klar, dass es keinen begründeten Zweifel gibt.
Und auch die Wissenschaft lebt nur sehr bedingt vom Zweifel: In einzelnen Fragen, bei unterschiedlichen Theorien lässt sie ihn zu, nicht aber, wenn sie sich bei einer Sache auf einen gemeinsamen Nenner geeinigt hat. Wer z. B. den menschengemachten Klimawechsel als einzigen Faktor infrage stellt, gilt unweigerlich als crank, auch dann, wenn er den Klimawandel keineswegs negiert, sondern nur noch weitere Faktoren berücksichtigt wissen will. Da ist der Zweifel nicht erlaubt.
Ich hoffe, ich habe jetzt klären können, was noch offen war?
Dann bis vielleicht demnächst, in einer anderen Diskussion. 🙂
@Trice
Es wäre für mich ok gewesen, wenn Sie die von mir gestellten Fragen als rhetorisch aufgefasst und offen gelassen hätten. Andererseits freue ich mich, dass Sie es nicht taten. Dass ich trotzdem noch nicht vollends durchblicke, dürfte Sie mittlerweile kaum überraschen.
Ich greife Ihr Beispiel mit der Kommunikation zwischen den Kollegen A, B, C und D auf, auch wenn Sie anschließend meinten, dass diese interne Kommunikation „bei Neuronen so nicht stattfinden kann“ (wo genau das Beispiel hinkt, verraten Sie leider nicht). Dann aber schreiben Sie:
» Dass alle am “Gespräch” Beteiligten bereits aktiviert sein müssen, sonst könnten sie daran nicht teilnehmen, sollte ebenfalls evident sein. «
Das nun sehe ich nicht ein. Bei der Analogie Mitarbeiter/Neuronen entspricht die Aktivierung (das Feuern) der Neuronen den Wortmeldungen der Gesprächsteilnehmer. Die Leute (Neuronen) sprechen (feuern) nacheinander oder gleichzeitig in genau der Reihenfolge, wie es für das Projekt (die Wahrnehmung) erforderlich und dienlich ist. Das ist in meinen Augen evident.
Warum es ihrer Ansicht nach
» … nicht um eine Reihenfolge der parallelen neuronalen “Aktivierung” gehen [kann], sondern um eine Reihenfolge, die von den kausalen Regeln vorgegeben wird «,
erschließt sich mir nicht.
Denn es ist doch offenkundig so, dass es zunächst einmal eine Reihenfolge der Äußerungen (bzw. des neuronalen Feuerns) gibt (die schließlich einmünden mag in ein synchrones Oszillieren, aber darauf kommt es hier nicht an). Worauf diese Reihenfolge letztendlich beruht, ob es spezielle „kausale Regeln“ sind oder eben bloß geregelte kausale Mechanismen, wie sie von Hirnforschern gemeinhin beschrieben werden, das wäre erst noch zu klären.
Das heißt, wenn in dem einen Fall die Äußerungen (die Aktivitäten) zu einem Projekt X, Y und Z sind, in dem anderen aber (zum gleichen Projekt!) X, Z und Y, und wenn diese Äußerungen an bestimmte Akteure gebunden sind, dann ist doch klar, dass die Reihenfolge der Aktivierungen (Äußerungen) in beiden Fällen entscheidend die interne Kommunikation und somit auch die Arbeitsweise bestimmt.
» Da alle [Neuronen] bereits vorhanden sind, kann es also nur um die Fage gehen, welches System ist das älteste, welches kam dann und welches kam zum Schluß. «
Das stammesgeschichtliche Alter mag eine Rolle spielen, muss aber nicht, denn jüngere Systeme könnten sich funktional „vorgedrängt“ haben, wenn es evolutionär von Vorteil war (Natur ist da sehr erfinderisch).
» Die vorwärts und rückwärts laufenden Signale dienen aus meiner Sicht in erster Linie der “Verständigung” darüber, welches neuron, welche Neuronengruppe, welche Position, basierend auf der zeitlichen Folge, innehat. Und ich bin mir sehr sicher, dass sich dieser Unterschied der zeitlichen Entwicklung feststellen lässt, also auch ein struktureller Unterschied ist. «
Womit wir wieder bei dem wären, was ich oben „Verschaltung“ genannt habe. Was ja auch Sinn macht, wenn die Arbeitsweise des Gehirns erblich ist: Gene –> Hirnorganisation –> Arbeitsweise.
» Und auch die Wissenschaft lebt nur sehr bedingt vom Zweifel […] Wer z. B. den menschengemachten Klimawechsel als einzigen Faktor infrage stellt, gilt unweigerlich als crank, auch dann, wenn er den Klimawandel keineswegs negiert, sondern nur noch weitere Faktoren berücksichtigt wissen will. Da ist der Zweifel nicht erlaubt. «
Doch, der Zweifel ist erlaubt, er muss nur wissenschaftlich begründet sein. Und daran hapert es meistens. Würde jemand einen Faktor finden, der, sagen wir, 20% der aktuellen globalen Erwärmung schlüssig erklären würde, dann wäre das eben so. Schlimmstenfalls müssten dann wohl einige physikalische Modelle oder Erkenntnisse wie etwa die vom funktionalen Zusammenhang zwischen Atmosphären-CO2 und Erwärmung revidiert werden.
Ok, sind nun alle Fragen geklärt? Sicher nicht. Ich hoffe aber, dass Sie in etwa verstanden haben, wo es bei mir hapert, wo ich ein Verständnisproblem habe (und mit mir vielleicht auch einige andere).
Anyway, bis demnächst, wo auch immer… 🙂
(z. B. hier, da muss ich Ihnen unbedingt noch ein bisschen widersprechen…)
@Trice
Vielen Dank für Ihre Antwort (habe sie leider erst heute gelesen).
Wenn das Funktionale nicht prädikativ beschreibbar ist, dann muss dem Prädikativen das Funktionale (und auch dessen Beschreibung) wohl immer ein Rätsel bleiben.
Der Begriff der Kausalität setzt den Zeitpfeil voraus. Richtig?
Begreift man die prädikativen Strukturen als Erzeugnisse von (operativen, funktionalen) Prozessen, dann ist der Begriff der Zeit nichts anderes als eine verbale Beschreibung für die Abfolge der auftretenden prädikativen Strukturveränderungen.
Hallo,
warum werden Menschen nicht bezahlt um Maschinen was beizubringen?
Menschen lernen z.B. im Internet Dinge und geben dieses Wissen wiederum zurück. 3 Menschen werten dieses Wissen aus und beurteilen es für gut oder schlecht. Nach und nach werden Menschen durch Maschinen ersetzt die mit diesem Wissen arbeiten. Die Datenbank wächst …. mit richtigen Informationen. Für jede gewonnene Information muss vorher zig tausende durchläufe gemacht werden durch Menschen und nochmal zigtausende für die Maschine. Wobei man natürlich mehrere Schichten machen müsste (Kinder, Erwachsende, Leher, Professoren u.s.w.) wir haben ca 7 669 785 886 Menschen davon leben viele in Armut so könnte man Armut bekämpfen … billige Computer und eine Arbeit die Geld bringt (und Internet für alle natürlich)
das gleiche könnte man auch mit Programmieren machen
Jürgen S.: “warum werden Menschen nicht bezahlt um Maschinen was beizubringen?”
Jaromir: KI-Trainer, oder genauer gesagt “Trainer von künstlichen neuronalen Netzen”, ist tatsächlich ein Job für die Zukunft, wird aber schon jetzt praktiziert. Unter diesem Link kann man nachlesen, wie eine Firma aus Kalifornien Daten für das Training von neuronalen Netzen für selbstfahrende Autos von Menschen in der Dritten welt vorbereiten lässt.
Jürgen S.: “warum werden Menschen nicht bezahlt um Maschinen was beizubringen?”
Jaromir: KI-Trainer, oder genauer gesagt “Trainer von künstlichen neuronalen Netzen”, ist tatsächlich ein Job für die Zukunft, wird aber schon jetzt praktiziert. Unter diesem Link kann man nachlesen, wie eine Firma aus Kalifornien Daten für das Training von neuronalen Netzen für selbstfahrende Autos von Menschen in der Dritten welt vorbereiten lässt. Jürgen S.: “warum werden Menschen nicht bezahlt um Maschinen was beizubringen?”
Jaromir: KI-Trainer, oder genauer gesagt “Trainer von künstlichen neuronalen Netzen”, ist tatsächlich ein Job für die Zukunft, wird aber schon jetzt praktiziert. Unter diesem Link kann man nachlesen, wie eine Firma aus Kalifornien Daten für das Training von neuronalen Netzen für selbstfahrende Autos von Menschen in der Dritten welt vorbereiten lässt.
Neuronale Netze und Deep Learning leisten erstaunliches allein durch Training ausgehend vom “Nullzustand”, also ohne jedes Vorwissen. Solchen Systemen fehlt der gesunde Menschenverstand oder auch ein tieferes Verständnis für ihre Umgebung. Es gibt mehrere und verschiedene Ansätze, dies zu ändern um damit zukünftige Maschinen verständiger zu machen. Hier möchte ich zwei solche Ansätze vorstellen.
1) Menschen entwickeln sehr früh ein physikalisches Verständnis für ihre Umwelt. Man weiss wo man seine Kaffetasse absetzen kann und wo nicht, wie man eine ungewöhnlich steile Treppe heraufkommt und worauf man dabei achten muss und vieles mehr. Mit dem räumlich/physikalischen Denken entwickelt sich auch eine einfache Form des logischen Denkens und des vorausschauenden Denkens. Einfach Formen des vorausschauenden Denkens passieren in Form des Abgleichs zwischen Erwartungen und dem was passiert und Erwartungen an die zukünftige Entwicklung basieren wiederum auf räumlich physikalischem Denken.
Der MIT-Review-Artikel This robot can probably beat you at Jenga—thanks to its understanding of the world beleuchtet diesen Ansatz, der Robotern die Fähigkeit zum räumlich/physikalischen Denken geben will und sie dazu beispielsweise lernen lässt, Türme von Stäbchen zu manipulieren.
2) Menschen kennzeichnen sich durch Selbstwahrnehmung und Wissen um ihrer selbst aus (Bewusstsein?). Das bestimmt weitgehend ihre Beziehung zur Welt. Doch warum sollten nicht auch Maschinen dazu in der Lage sein? Der Artikel A step closer to self-aware machines—engineers create a robot that can imagine itself berichtet über Maschinen, die über einen Lernprozess zu Selbstwahrnehmung gelangen.
Beide Ansätze wollen von der engen Form von Intelligenz, welche auf die Lösung einer bestimmten Aufgabe ausgerichtet ist, wegkommen indem sie der Maschine ermöglichen, ein Weltverständnis zu erarbeiten, welches dann als Wissen für immer bestehen bleibt und gegebenenfalls durch neue Erfahrugen erweitert werden kann.
Convolutional Neural Networks: Von der Translationssymmetrie zur Kovarianz (Koordinatenunabhängigkeit)
Die oben erwähnten CNN-Netzwerke, welche vor allem für die Bilderkennung verwendet werden, sind auch darum so gut im Bild erkennen, weil sie ein Objekt unabhängig von seiner Position im Bild erkennen – eine Eigenschaft, die man Translationsinvarianz nennt. Doch heutige Convolutional Neural Networks haben nur gerade diese Translationsinvarianz, keine Rotationsinvarianz. Bilder, die rotiert sind, sind somit für ein CNN-Netzwerk andere Bilder. Ideal wäre ein CNN, welches Objekte unabhängig von der Rotation und bei 3D-Objekten sogar unabhängig von der Lage im Raum erkennt.
Genau das wollen neuere Arbeiten erreichen wie etwa im arxiv-Artike Covariance in Physics and Convolutional Neural Networks beschrieben. Koordinationunabhängigkeit heisst in der Physik nämlich Kovarianz.
Auch der Quanta-Magazin-Artikel An Idea From Physics Helps AI See in Higher Dimensions berichtet darüber.
Sind Neuronale Netzwerke für die Bilderkennung einmal wirklich in der Lage Objekte unabhängig von ihrer Orientierung im Raum zu erkennen, dann schafft das sehr viele Anwendungsmöglichkeiten. Denn es bedeutet auch die Fähigkeit, Objekte in unserer 3-dimensionalen Welt besser zu erkennen – und das ist für autonomes Fahren eminent wichtig.
Danke für den Quanta-Artikel. Das stimmt, was Sie schreiben. CNN-Modelle für die Bild- und Gesichtserkennung sinn pannenanfällig, weil sie nun mal nur “zweidimensional” lernen. Ein Beispiel für eine solche Panne habe ich ja erwähnt: eine bekannte chinesische Managerin wurde in China auf einem öffentlichen Bildschirm angepangert, weil sie verbotenerweise über eine Straße gegangen sei soll. Dabei war sie gar nicht in der Stadt. Die Kamera hat sie auf einem Plakat gefilmt, das an einem vorbeifahrenden Bus angebracht war. 🙂
Ich muss mich entschuldigen, dass ich hier so lange nichts gepostet habe. Ich musste 2019 sieben Bücher abgeben. 🙂 Jetzt bin ich nur noch in der Abgabe eines Sachbuchs über Künstliche Intelligenz. Ab März wird hier alles entspannter. 🙂
@Jaromir Konecny: Danke für die Antwort.
In Bezug auf (Zitat):
lässt sich noch ergänzen: Es fehlt auch die kontextuelle Zuordnung. Das CNN-Modell erkennt nicht, dass ein Bild auf einer Wand eines Buses etwas “zitiert”. Auch wenn eine lebensechte Figur der Managerin von der Buswand herunterhängen würde, würde das einen menschlichen Betrachter kaum verwirren, denn ein Mensch ordnet die Figur dem Bus zu und misst ihr damit eine andere Bedeutung zu als einer Figur, die gerade die Strasse überquert.
Für autonomes Fahren scheint mir ein 3D-Modell unverzichtbar. Doch das heisst nicht zwingend, dass LIDAR zum Einsatz kommen muss, zumal auch der menschliche Autofahrer ohne LIDAR auskommt. Allerdings übersetzt der Mensch als Autofahrer die Strassenszene intuitiv in ein 3D-Bild. So weiss der Autofahrer, dass ein entgegenkommendes Fahrzeug auch ein Volumen ähnlich dem eigenen Auto hat und er berücksichtigt intuitiv, dass hinter dem Fahrzeug noch ein weiteres Objekt kommen könnte. Ein Autofahrer ergänzt also Gesehenes mit Gewusstem oder mit vernünftigen Annahmen. Auch ein autonomes Fahrsystem muss das tun um nur schon ebenbürtig mit einem professionellen Fahrer zu werden.
Hier, bei dieser 2D nach 3D-Ergänzung könnte die jüngste Ankündigung von NVIDIA hilfreich sein, nachzulesen im Artikel NVIDIA Researchers Created AI That Turns 2D Images into 3D Models Was NVIDIA zur potenziellen Anwendung in der Robotik sagt:
, das gilt in meine Augen auch für das autonome Fahren. Die Vorstellung ein autonom fahrendes Fahrzeug habe ein falsches oder gar kein 3D-Modell für die Strassenszene, weckt jedenfalls bei mir kein Vertrauen in die Fahrkünste eines solchen Systems. Ich bin überzeugt: Ohne 3D-Modell (mindestens grob) kann es kein sicheres autonomes Fahren geben.
Für Leute, die an der Geschichte der neuronalen Netzwerke bis 2014 interessiert sind, empfehle ich Jürgen Schmidhubers arxiv-Artikel Deep Learning in Neural Networks: An Overview
Dort erfährt man auch viel über die Anwendungsgebiete, über die Domänen/Subdomänen, in denen Deep Learning heute erfolgreich ist. Mir war vor der Lektüre beispielsweise nicht bewusst, dass es verschiedene visuelle Aufgabenstellungen gibt, die für Deep Learning-Systeme ganz andere Anforderungen stellen. So ist etwa das Erkennen und Klassifizieren von Objekten in einem Bild eine andere Aufgabe als die Detektion von Objekten, also das Finden von Objekten in einer riesigen Landschaft von Objekten wie es etwa bei der Suche in histologischen Schnitten, bei der Suche nach bestimmten Zellen in einem Blutausstrich vorkommt . Und das Segmentieren eines Bildes, also das Aufteilen in sinnvolle Bildteile ist noch einmal eine andere Aufgabe. Schmidhubers Übersicht ist in meinen Augen gut geeignet um die wichtigsten Techniken, Methoden und Formen von neuronalen Netzen kennen zu lernen. Auch Probleme, die das Gebiet geprägt haben und die einen rascheren Fortschritt verhindert haben, kommen zur Sprache. Etwa das Problem der verschwindenden Gradienten, welches es sehr schwierig bis unmöglich machte, neuronale Netze über einen gewissen Punkt hinaus weiter zu verbessern, wird behandelt.