Künstliche Intelligenz, künstliche Dummheit und der gesunde Menschenverstand

Gleich an den Anfang dieses Beitrags über das Lernen von Menschen und Maschinen gehört eine kurze Begriffsklärung: Unsere heutige Künstliche Intelligenz (KI) sind künstliche bzw. tief lernende neuronale Netze (KNN). KNN gehören zum maschinellen Lernen bzw. Maschinenlernen, und das wiederum ist eine Unterabteilung der „Künstliche Intelligenz“-Forschung. Deswegen müssten im Titel nach dem Wort „künstliche“ die Wörter „Intelligenz“ und „Dummheit“ in Anführungsstrichen stehen, denn echte Intelligenz und echte Dummheit können immer noch nur natürlich sein. Künstliche neuronale Netze sind nicht intelligent. Sie werden auf eine Aufgabe hintrainiert, und diese lösen sie dann meist mit Bravour – dumm sind sie also auch nicht. Deswegen verwende ich weiter im Text eher den Begriff KNN, und KI selten, meist aber auch nur im Sinn von KNN. Weil der Begriff heutzutage nun mal so verwendet wird.

Jetzt aber zum eigentlichen Thema dieses Beitrags: Wie lernen wir und wie lernen künstliche neuronale Netze? Lernen sie anders als wir? Manchmal liefern KNN absurde Ergebnisse. Nicht einmal ein Kleinkind würde ein Nilpferd mit einem Lastwagen verwechseln – ein KNN schon. Warum kann ein Mensch, aber auch ein Tier, unbekannte Situationen viel besser einschätzen als jede noch so gut trainierte Maschine? Sogar der Fadenwurm mit seinen nur 302 Neuronen?

Trotzdem bestimmt ein „angelerntes“ KNN 50 verschiedene Augenkrankheiten nur durch die Analyse von Augen-Scans besser als jeder Augenarzt, obwohl das künstliche Netz keine Ahnung von Augenkrankheiten hat – es kann nur Muster erkennen. Die Sehkraft beurteilen kann das Netz jedoch nicht. Der Augenarzt kann das. Warum blickt der Mensch viel weiter als die Maschine?

„Deine künstliche Intelligenz ist ganz schön dumm“, sagte Lucie, eine Bekannte, als ich ihr wieder einmal klar machen wollte, dass nur noch künstliche Intelligenz uns retten konnte: Vor Krankheiten und Umweltzerstörung und Kriegen und Ungerechtigkeit und Hunger und Terror und Machtmissbrauch und Rassismus und Flucht, kurz gesagt: Vor uns selbst.

„Wieso ist künstliche Intelligenz dumm?“, fragte ich, und Lucie erzählte mir das berühmte Panzer-Märchen, in dem ein künstliches neuronales Netz grotesk versagt habe. Gerade gestern habe sie davon in der Süddeutschen gelesen.

In einer Variante dieser urbanen KI-Legende soll Pentagon bei KI-Forschern ein künstliches neuronales Netz bestellt haben, das in der Natur getarnte Panzer anhand von Satellitenfotos entdecken würde: Die Forscher haben ihr neuronales Netz mit jeweils 50 Fotos von getarnten Panzern trainiert, und mit 50 Fotos mit Landschaft ohne getarnte Panzer, damit das Netz immer getarnte Panzer erkenne, auch auf Fotos, die es noch nie gesehen habe.

Bei einem solchen Panzer-Erkennungs-Training wird dem Netz bei jedem Durchlauf der Signale (der Tonwerte eines Bildes) gesagt, um welches Bild es sich handele: Mit Panzern oder ohne Panzer.

Nach dem Training wurde das Netz mit weiteren 50+50 Fotos getestet, ob’s auch unbekannte Fotos gut einordnen könne. In der Testphase erkannte das Programm auf jedem unbekannten Foto richtig, ob darauf ein getarnter Panzer war, oder nicht. Das so fertig trainierte künstliche Netz wurde ans Pentagon geleitet, doch kam es bald zurück: Die Generäle konnten damit keine Panzer erkennen.

Lange grübelten die Forscher, bis man den Fehler fand: Die 100 Fotos mit Panzern für die Training- und die Test-Phase habe man beim schönen Wetter geschossen, die 100 Fotos ohne Panzer beim schlechten Wetter. Statt die Fotos in eine Klasse mit Panzern und eine ohne Panzer einzuteilen, wie die Forscher gehofft hatten, hat das Programm die Fotos nach dem Wetter getrennt – nach Schönes-Wetter- und Kein-Schönes-Wetter-Fotos. Da alle Panzer beim schönen Wetter fotografiert wurden, zeigte die Testphase keine Fehler.

  Quelle: https://github.com/kyle-dorman/bayesian-neural-network-blogpost 

Der Autor und unabhängige Forscher Gwern Branwen entlarvte in seinem Artikel The Neural Net Tank Urban Legend das Panzer-Märchen akribisch: Nicht nur an dem kleinen Datensatz von 200 Fotos kann man sehen, dass unsere heutigen „Convolutional Neural Networks“ (CNNs), die in der Bilderkennung eingesetzt werden (also auch in der Panzererkennung 😊), diesen Fehler nicht machen könnten: Für ein solches Training nimmt man Zehntausende bis Hundertausende Fotos. Auch die Unterscheidungsmerkmale „schlechtes Wetter – sonniges Wetter“ sprechen gegen die Echtheit der Geschichte. Künstliche neuronale Netze lernen eher klare Strukturen und Konturen (Kanten, Ecken, Quadrate usw.) zu unterscheiden als die Helligkeit der Bilder, die vom Wetter herstammt. Trotzdem warnen die Medien mit diesem Märchen weiterhin vor der Unberechenbarkeit der künstlichen Intelligenz.

Wahre Geschichten über falsche oder inhumane Entscheidungen von künstlichen neuronalen Netzen gibt es aber genug. Berühmt ist die echte Geschichte über das KNN von Google, das Schwarzafrikaner als Gorillas klassifizierte: Während der Lernphase hat das Programm für die Klasse „Mann“ nur weiße Männer vorgesetzt bekommen. Schwarze kannte es nicht. Hier sieht man, wie wichtig der richtig vorbereitete Datensatz für das Anlernen einer Maschine ist. Ein KNN wird von Menschen programmiert und trainiert. Falsche Entscheidungen treffen wir ständig.

In seinem ansprechenden Buch über GOFAI (Good Old Fashioned Artificial Intelligence), also über die „echte“ allgemeine künstliche Intelligenz, Common Sense, the Turing Test, and the Quest for Real AI zitiert der kanadische Informatiker und KI-Experte Hector J. Levesque den KI-Pionier John McCarthy, der 1958 in seinem bahnbrechenden Artikel Programms with Common Sense schrieb:

„Deswegen sagen wir, dass ein Programm den gesunden Menschenverstand (common sense) hat, wenn es automatisch für sich selbst eine ausreichend breite Klasse von unmittelbaren Konsequenzen schlussfolgert, über alles, was es sagt und was es bereits weiß.“

Besitzen künstliche neuronale Netze zumindest ansatzweise etwas, was man als gesunden Menschenverstand bezeichnen würde? Oder anders gefragt: Kann man künstlichen neuronalen Netzen den gesunden Menschenverstand beibringen? Zuerst sollte ich aber klären, wie wir bzw. Tiere und wie Maschinen lernen. Was ist das Lernen eigentlich?

Beim Lernen wandelt man seine Erfahrung in Wissen und Kompetenz um – durch die Erfahrung von etwas wird man zum Experten darin. Selbstverständlich nur dann, wenn man sein Wissen richtig vernetzen und anwenden kann. Und wenn man überhaupt lernen will:

 

Aber auch Gelerntes kann Tiere oder Menschen auf Irrwege führen, wie die Autoren in einem der besten Bücher über die mathematischen Grundlagen des maschinellen Lernens Understanding Machine Learning: From Theory to Algorithms (Vorsicht! Viel Mathematik!) anführen: Ratten zum Beispiel kosten zuerst ein Stück des Köders, den sie finden. Wenn das Stück schlecht riecht oder schmeckt oder Übelkeit verursacht, verschmähen die Tiere den Rest. Später meiden sie solche Speisen. Die Ratten haben also gelernt, sich an eine Umwelt voller vergifteter Köder anzupassen.

Wenn man Ratten aber im Labor nach dem Fressen eines schmackhaften Köders Stromschläge verpasst, bringt diese Quälerei sie nicht davon ab, den gleichen Köder auch nächstes Mal zu verspeisen. Aufgrund ihrer Erfahrung können sie Speisen nur mit Geruch und Geschmack verbinden, nicht mit Stromstößen. Und hier täuscht die Erfahrung sie auch nicht, denn für die meisten Ratten ist es unwahrscheinlich, von verrückten Wesen in weißen Kitteln und Schutzhandschuhen mit Stromstößen malträtiert zu werden, nur weil sie etwas Leckeres gefressen haben.

Doch Menschen und Tiere lernen auch absurdere Sachen, als Wetterfrösche zu spielen, statt getarnte Panzer zu entlarven, wie es das angebliche Pentagon-Netz tat. Der natürliche „Aberglaube“ trägt seltsame Blüten: In seinen klassischen Experimenten der Psychologie ließ B. F. Skinner hungernden Tauben jede 15 Sekunden Nahrung in ihre Käfige schütten. Dadurch entwickelten die Tauben ein übertriebenes „abgergläubisches“ Verhalten: Sie verstärkten zunehmend das, wie sie sich im Augenblick der Nahrungszufuhr verhielten: Wenn eine Taube in eine Ecke des Käfigs in den Boden gepickt hatte, als die Nahrung kam, pickte sie dann die ganze Zeit in den Eckenboden, um weitere Nahrung zu bekommen, obwohl die Nahrung jede 15 Sekunden automatisch in den Käfig geschüttet wurde – egal ob die Taube in die Ecke gepickt oder nicht gepickt hatte. Sollten die Tauben bei der ersten Nahrungszufuhr eine zufällige Drehung vollgeführt haben, tanzten sie dann so die ganze Zeit.

Solche absurde Konditionierung konnte man auch bei Menschen beobachten. Wer hat noch nie etwas dreimal abgeklopft? Wer kennt nicht die Anekdote über den Quantenphysiker Niels Bohr, den mal Wolfgang Pauli wegen des Hufeisens über der Tür seines Landhauses gefragt haben soll, ob Bohr an solche Glücksbringer glaube: „Natürlich nicht“, antwortete Bohr. „Aber wissen Sie, Herr Pauli, es soll einem auch helfen, wenn man nicht daran glaubt.“

Trotz unseres Wissens verführt uns die Sucht nach schnellen und einfachen Lösungen oft zum „dummen“ Verhalten. Man ist auf einfache Lösungen aus, obwohl immer noch gilt: „Jedes komplexe Problem hat eine einfache Lösung, und die ist falsch.“ (Umberto Eco frei nach H. L. Mencken) Wenn KNN lernen sollen, muss ihre Aufgabe klar abgesteckt sein und auf richtigen Daten beruhen. Dann können KNN sehr große Datenmengen besser auswerten als jeder Mensch, da ein Computer nun mal schneller und mit viel mehr Daten rechnen kann.

Biologisch gesehen werden beim Lernen von Menschen und Tieren die vorhandenen Verbindungen (Synapsen) zwischen den Hirnzellen (Neuronen) gestärkt. Dabei müssen wohl die benachbarten Synapsen entsprechend geschwächt werden, wie MIT-Forscher unlängst entdeckten und als eine fundamentale Regel der Hirnplastizität bezeichneten. Aber auch ganz neue Verbindungen entstehen im Gehirn beim Lernen. Neue Verbände von Neuronen (natürliche neuronale Netze) schließen sich als Reaktion aufs Lernen zusammen, genauso wie neue Hirnaktivitäten sich in alten Neuronen-Verbänden entwickeln können. Außerdem leiten die Axone (Fortsätze der Neuronen) die elektrischen Signale zu den benachbarten Neuronen besser, wenn sie gut in Myelin (Biomembran mit viel Lipidgehalt) verpackt sind als die nicht gut Verpackten, und das beeinflusst wiederum die Hirnaktivität in dem gegebenen Neuronenverband. All das findet entsprechend der berühmten Regel von Donald Hebb statt: „What fires together, wires together“:

Bereits am Bild von zwei verbundenen Neuronen kann man die Komplexität der natürlichen neuronalen Netze erahnen. Im menschlichen Gehirn gibt es 76 Milliarden solche Neuronen mit etwa 1 Billion Verbindungen dazwischen. Bildquelle/Credit: Simple Biology

So komplex sind und lernen künstliche neuronale Netze nicht, auch wenn sie dem natürlichen neuronalen Netz im Gehirn rudimentär nachgebildet sind. Dabei ist jedes Neuron einer Netz-Schicht meist mit allen Neuronen der benachbarten Schichten verbunden. Als Grundlage dafür dient das Perzeptron-Model von Frank Rosenblatt bzw. eine Weiterentwicklung davon, das Multilayer-Perzeptron, das bewiesenermaßen ein universeller Klassifizierer ist, also lernen kann, Objekte in Klassen einzuteilen, zum Beispiel Äpfel von Birnen zu unterscheiden.

Mehrschichtiges Perzeptron (multilayer perceptron). Quelle: Wikimedia Commons. Autor: Sky99 – Own work, CC BY-SA 3.0

Wenn künstliche neuronale Netze lernen, werden nur die Verbindungen zwischen den Neuronen (Knoten im Netz) gestärkt, beziehungsweise geschwächt, keine anderen Prozesse finden statt wie im Gehirn, zumal die Neuronen eines künstlichen Netzes nur Punkte sind, durch die Signale laufen. Die Neuronen im Gehirn dagegen sind kleine autonome Fabriken, sie produzieren ständig Enzyme, Hormone, Neurotransmitter und Unmengen andere funktionelle Proteine (siehe oben). Diese beeinflussen wiederum die Aktivität ihres Neurons und somit des ganzen Neuronenverbands.

Nach jedem Durchlauf der Signale durch ein künstliches neuronales Netz werden den Verbindungen darin neue Gewichte zugewiesen – abhängig davon, wie diese Verbindungen zum guten Ergebnis während des Trainings des Netzes beitragen. Das Gewicht der Verbindung, die von einem Neuron zu einem anderen ausgeht, bestimmt also die Stärke des Signals dieses Neurons. Die anderen oben erwähnten biologischen Prozesse im Gehirn werden beim maschinellen Lernen vernachlässigt.

Am überwachten Lernen (supervised learning) kann man die Lernprozedur für ein künstliches neuronales Netz grob aber hoffentlich verständlich erklären: Indem ein künstliches neuronales Netz lernt, versucht es im Grunde, eine Funktion zu finden, die am besten die Abhängigkeit der Ausgabewerte (Output) des Netzes von seinen Eingabewerten (Input) beschreibt.

Zum Beispiel wollen wir mit Hilfe von historischen Wetterdaten Temperatur vorhersagen. Beobachtet und aufgeschrieben wurden in den letzten 150 Jahren an diversen Orten Temperatur, Druck, Windgeschwindigkeit und Luftfeuchtigkeit. Während des Trainings werden ins Netz Druck, Windgeschwindigkeit und Luftfeuchtigkeit als Eingabewerte zu einer bestimmten Temperatur gespeist. Dem Netz wird einfach bei jedem Durchlauf dieser Eingabewerte gesagt, welche Temperatur dabei herauskommen solle (der Temperatur-Zielwert). Das ist die Überwachung dabei.

Die Verbindungen zwischen den Neuronen des künstlichen Netzes werden am Anfang rein zufällig gewichtet. Druck, Windgeschwindigkeit und Luftfeuchtigkeit werden also ins Netz eingegeben, durchs Netz propagiert und liefern als Ausgabe einen Temperaturwert. Dieser „berechnete“ Temperaturwert unterscheidet sich aber von unserem gewünschten Zielwert der historischen Temperatur, der den historischen Eingabe-Werten für Druck, Windgeschwindigkeit und Luftfeuchtigkeit entspricht. Aus der Differenz zwischen den Ausgabewerten und den entsprechenden gewünschten Zielwerten stellt man eine Fehlerfunktion auf, die eigentlich Kostenfunktion heißt (cost function).

Das Minimum der Kostenfunktion, also den kleinsten Fehler, versucht man mit mathematischen Methoden (Gradientenabstieg) zu bestimmen: Je kleiner diese Funktion, umso kleiner ist der Fehler zwischen den richtigen Zielwerten und den tatsächlichen Ausgabewerten, und umso besser beschreiben die Gewichte der Verbindungen zwischen den Neuronen, wie die Temperatur von Druck, Windgeschwindigkeit und Luftfeuchtigkeit abhängt.

Die so berechneten Gewichte werden den Verbindungen im Netz nach jedem Durchlauf von neuen Eingabedaten (Druck, Windgeschwindigkeit und Luftfeuchtigkeit) neu zugeordnet – der Fehler wird ins Netz zurückgeführt. Das heißt Fehlerrückführung bzw. Backpropagation of Error. Mit jedem neuen durchs Netz propagierten Datensatz optimiert das Netz seine Verbindungen immer mehr, bis der Fehler minimal ist und somit auch der Unterschied zwischen den gewünschten und den tatsächlichen Ausgabewerten. So lange, bis uns das Netz eine gute Temperatur-Prognose liefert: Das Netz hat gelernt, aus Druck, Windgeschwindigkeit und Luftfeuchtigkeit die Temperatur zu bestimmen.

Die Fehlerminimierung (Gradientabstieg) und Backpropagation of Error sind die mathematische Grundlage der meisten heutigen künstlichen neuronalen Netze. Das ist das Gemeinsame der KNN und der große Unterschied zwischen einem KNN und unserem Gehirn: das Gehirn braucht keine solchen Algorithmen, um Aufgaben zu bewältigen.

Die Minimierung des Netzfehlers mit Backpropagation setzt sich aus Unmengen kleiner Schritte zusammen: Man will das wirkliche globale Minimum der Fehlerfunktion finden, deswegen muss man sich ihrem Minimum in kleinen Schritten nähern, um nicht darüberzusteigen. Wie wenn man auf einer dunklen Straße seinen Schlüssel sucht, der einem aus der Tasche gefallen ist: Man muss den Boden Zentimeter für Zentimeter durchsuchen, nicht einmal hier und gleich einen Meter weiter springen.

Diese iterative Art des Lernens erfordert aber sehr viel Rechenleistung. Um zu lernen, auf einem Bild eine Katze zu erkennen, kann sich ein Computer schon heiß laufen. Im Vergleich dazu verbraucht unser Gehirn beim Lernen viel weniger Energie und lernt somit viel effizienter. Außerdem erfordert ein solches iteratives Lernen in kleinen Schritten sehr viele Daten: Ein Kind muss nur ein paar wenige Katzen im Leben gesehen haben, um später immer eine Katze als Katze zu erkennen. Das lernt ein KNN erst, wenn es hunderttausend Katzenbilder gesehen hat.

Somit haben wir überwachtes Lernen (supervised learning) abgehandelt. Es gibt noch zwei weitere grundlegende Arten des maschinellen Lernens: unüberwachtes Lernen (unsupervised learning) und bestärkendes Lernen (reinforcement learning – RL).

Beim unüberwachten Lernen weiß das Netz nicht, was es tun soll, ihm wird kein Zielwert gezeigt, zum Beispiel die tatsächliche Temperatur, die bei den entsprechenden Eingabewerten herrschte. Das unüberwachte Netz versucht stattdessen, in einem großen Datensatz Muster zu finden bzw. Objekte des Datensatzes in Klassen aufzuteilen.

Beim bestärkenden Lernen (RL) lernt das künstliche Netz durch eine direkte Interaktion mit der Umgebung und bekommt laufend Belohnungen für seine Aktionen, wird aber auch bestraft. Genauso wie wenn ein Kind lernt: Lächelst du die Mama den ganzen Vormittag schön an, bekommst du mittags ein Eis (Belohnung), auch wenn deine Mama normalerweise keine Süßigkeiten toleriert. Wenn du Stress machst, bekommst du Spinat (Bestrafung).

Ein RL-Netz wird für seine Handlungen z. B. mit +1 belohnt und mit -1 bestraft: Wenn man diesem Agenten (dem RL-Netz) beibringen will, ein Computerspiel zu spielen, in dem der Agent sich als Ritter durch eine Burg kämpfen muss, weiß der Agent, dass die meisten erreichten Punkte das Spiel gewinnen: Der Ritter hüpft von einer Wand zur anderen und wird dafür jeweils mit einem Punkt belohnt. Wenn er dabei abstürzt, wird ihm ein Punkt entzogen, und der Agent lernt so, beim nächsten Versuch die Falle zu meiden.

Anhand des Atari-Retrospiels „Montezuma’s Game“ konnten Rachit Dubey et al. schön zeigen, warum der Mensch einem künstlichen neuronalen Netz doch überlegen ist, wenn eine Aufgabe nicht klar eingegrenzt ist oder wenn etwas Neues und Überraschendes passiert. Und das beantwortet auch die am Anfang dieses Textes gestellte Frage: Worauf beruht der gesunde Menschenverstand, der uns hilft, unbekannte Situationen zu meistern?

„Warum sind Menschen sehr gut dabei, neue und komplexe Umgebungen zu erfassen?“, fragten sich Dubey et al.: Auch bei einem ihm unbekannten Computerspiel erfasst der menschliche Spieler innerhalb von ein paar Sekunden, was die Figur im Spiel als Nächstes tun solle. Soll die Figur über eine Hürde springen, eine Stufe hinaufspringen, durch eine Tür gehen? „Wo ist das Ziel?“, fragt sich ein Mensch gleich, wenn er eine Spielstellung sieht. Er bemerkt oben eine Tür und erfasst, dass die Figur sich zu dieser Tür hinbewegen sollte.

Ein RL-Netz fragt sich dagegen nichts, es macht nur einen Spielzug. Am Anfang einen ganz zufälligen aus allen möglichen Zügen. Erst durch die folgenden Belohnungen oder Bestrafungen lernt das Netz, Spielzüge zu bevorzugen oder zu meiden. Ein KNN braucht Tage und einige Millionen Spielstellungen, um ein neues Spiel zu lernen. Am Anfang des Spiels tappt es vollkommen im Dunkeln. Bevor das künstliche Netz gelernt hat, dass die Figur Richtung Ziel hinauf hüpfen solle, muss es stundenlang Belohnungs- und Strafpunkte sammeln.


Das Spiel eines menschlichen Spielers: Rechts ist das Originalspiel Montezuma’s Revenge zu sehen. Die Figur springt gerade und erreicht leicht die Tür oben. Links sieht man das Spiel, indem die Objekte verwischt wurden und der menschliche Spieler somit keine Vorkenntnisse nutzen kann. Die Figur ist jetzt das hellblaue rot eingekreiste Quadrat und bewegt sich überwiegend unten, schafft es nicht nach oben zur Tür. Quelle: Investigating Human Priors for Playing Video Games (Rachit Dubey et al.) – unter diesem Link sieht man, wie sich die Figur bewegt.

Hier ist der Unterschied zwischen einem menschlichen Spieler und einem KNN sofort ersichtlich: Der Mensch weiß, wozu Türen, Fenster und Stufen dienen und dass man über Hindernisse springen muss. Als die Forscher diese Objekte im Spiel tarnten, wurden die menschlichen Spieler zunehmend schlechter: Die Schlüssel und Türen wandelte man zu Quadraten gleicher Farbe zum Beispiel. Das künstliche neuronale Netz hatte dagegen kein Problem mit der „Tarnung“ der Objekte und spielte immer gleich gut, egal ob es Schlüssel und Türen sah oder einheitliche Quadrate.

Der Mensch bringt also in jede neue Situation eine Menge Vorkenntnisse mit (a priori Wissen), die ihm helfen, sogar scheinbar unzusammenhängende Sachen zu vernetzen und Probleme zu lösen. Diese Vorkenntnisse sammelt der Mensch im Laufe seines Lebens dank der Interaktion mit seiner Umwelt: Passiv als ein Teil dieser Umwelt, aber auch aktiv, wenn er bewusst Neues lernt.

Ein künstliches neuronales Netz dagegen hat keine Vorkenntnisse. Ein Netz kann viel besser als ein Mensch lernen, giftige von nicht giftigen Schlangen zu unterscheiden. Doch mir fällt beim Anblick einer Kreuzotter im Wald aufgrund meines Wissens sofort ein, dass ich ihr nicht zu Nahe kommen soll. Und auch wenn ich eine Kreuzotter von einer Blindschleiche nicht unterscheiden kann, weiß ich zumindest: Schlangen können giftig sein. So laufe ich besser auch vor einer Blindschleiche davon – sicher ist sicher. Der gesunde Menschenverstand eben.

 

PS: Unter diesem Link können Sie ein so geändertes Montezuma’s Revenge selbst durchspielen, in dem Sie ihre Vorkenntnisse nicht nutzen können. Sie merken sofort, wie schwierig das wird. Auf der verlinkten Seite gibt es unter den Spielen ein Video von „Arxiv Insights“, indem der oben genannte Artikel von Rachit Dubey et al. recht ansprechend erklärt wird.

Liebe Besucherin, lieber Besucher,

 
willkommen auf meinem SciLogs-Blog "Gehirn & KI".
 
Ich möchte hier über alle möglichen Aspekte der Hirn- und Künstliche-Intelligenz-Forschung schreiben und über die Berührungspunkte beider Gebiete. Über jeden Kommentar und jede Diskussion dazu freue ich mich sehr, denn wie meine Mutter oft sagte:
 
"Solange die Sprache lebt, ist der Mensch nicht tot."
 
Neues über künstliche Intelligenz, künstliche neuronale Netze und maschinelles Lernen poste ich häufig auf meiner Facebook-Seite: Maschinenlernen
 
Hier etwas zu meiner Laufbahn: ich studierte Chemie an der TU München und promovierte anschließend am Lehrstuhl für Theoretische Chemie der TU über die Entstehung des genetischen Codes und die Doppelstrang-Kodierung in den Nukleinsäuren.
 
Nach der Promotion forschte ich dort einige Jahre lang weiter über den genetischen Code und die komplementäre Kodierung auf beiden Strängen der Nukleinsäuren:
 
Neutral adaptation of the genetic code to double-strand coding.
 
Stichworte zu meinen wissenschaftlichen Arbeiten: Molekulare Evolution, theoretische Molekularbiologie, Bioinformatik, Informationstheorie, genetische Codierung.
 
Seit Jahren moderiere ich den Science Slam auf Münchner Wissenschaftstagen - für die Deutsche Akademie der Technikwissenschaften (acatech) und die Bayerische Akademie der Wissenschaften - und bin der Gründer und Gastgeber des Science Kabaretts in der Seidlvilla zu München:
 
Weiter bin ich Schriftsteller und Poetry Slammer, u. a. zweifacher Vizemeister der Deutschsprachigen Poetry Slam Meisterschaften.
 
Mein Buch „Doktorspiele“ wurde von der 20th Century FOX verfilmt und lief 2014 erfolgreich in den deutschen Kinos. Die Neuausgabe des Buches erscheint gerade als eBook bei Digital Publishers.
 
Mein letzter Roman heißt Die unglaublichen Abenteuer des Migranten Němec.
 
Eine kurze Geschichte von mir gibt es jeden Tag in der Früh auf meiner Autorenseite bei Facebook. Zum Beispiel eine über den Turing-Test am Starnberger See. :-)
 
Viel Spaß mit meinem Blog und all den Diskussionen hier :-)
 
Jaromir

110 Kommentare Schreibe einen Kommentar

  1. Gute, allgemeinverständliche Übersicht über den Aufbau,das Training von Künstlichen Neuronalen Netzen und die verschiedenen Lernverfahren. Wie weit die Analogie zu natürlichen neuronalen Netzen, also zum Gehirn, trägt, scheint mir heute noch offen. Gary Marcus charakterisiert in seinem arxiv-Artikel Deep Learning: A Critical Appraisal folgendermassen: Neuronale Netze, insbesondere solche mit mehreren versteckten Schichten (daher der Begriff tief), sind bemerkenswert gut im Erlernen von Input-Output-Mappings.
    In meinen Worten: Neuronale Netze finden scheinbar meistens die beste Funktion, welche verrauschte Eingabedaten einer bestimmten Klasse zuordnet. Erstaunlicherweise gilt das für sehr viele Anwendungsgebiete. Katzen kann ein neuronales Netz ebenso gut in einer Vielzahl von ganz unterschiedlichen Bildern erkennen wie bestimmte Partikel in den Milliarden von Kollisionen des Large Hadron Colliders (CERN) oder Phoneme in den Geräuschen, die ein Bayer oder Schotte produziert, wenn er etwas sagen will. Mit andern Worten: Künstliche Neuronale Netze sind Meister darin, aus Schall und Rauch Sinn zu generieren – wenn sie entsprechend trainiert wurden. Doch es ist kein tieferer, verständiger Sinn, sondern ein antrainierter Sinn, der nur in einem ganz bestimmten Zusammenhang funktioniert. Katzen werden also auf Bildern erkannt, wenn das so trainiert wurde. Das System weiss nach diesem Training aber so gut wie nichts über Katzen, sondern es weiss nur etwas über Katzenbilder. Und zwar nur über Katzenbilder, die unter den Bedingungen der Trainingsbilder entstanden. Schon mit photographischen Negativen hätte ein auf Katzen trainiertes Netz Schwierigkeiten.
    Gemäss DARPA (Defense Advanced Research Projects Agency) ist Künstliche Intelligenz heute im Stadium des statistischen Lernens. Das nächste Stadium wäre die Anpassung an unterschiedliche Kontexte. Dazu gehören auch das Übertragen von Gelerntem auf einen leicht anderen Anwendungsbereich. Wer beispielsweise weiss, welche Flugeigenschaften ein Flugzeug abhängig vom Design hat, sollte auch die Flugeigenschaften eines Vogels einschätzen können. Ein Mensch kann das, ein künstliches neuronales Netz nur gerade, wenn es von vornherein so trainiert wurde.
    Der grösste Unterschied zwischen natürlicher und künstlicher Intelligenz besteht heute aber darin, dass es heute keine künstlich intelligente Wesen gibt, sondern nur künstlich intelligente Anwendungen. Mit anderen Worten: Es gibt heute kein kein künstlich intelligentes Wesen, welches sich selbstständig in der Welt zurechtfinden kann, welches Erfahrungen macht, dazulernt und sich entwickelt. Nicht einmal auf der Stufe eines Hundes. Und es gibt auch kein gesichertes Wissen wie man so etwas erreichen könnte. Die Lösung könnte um die Ecke, aber auch noch Jahrzehnte entfernt liegen.

    • Martin Holzherr: “Gute, allgemeinverständliche Übersicht über den Aufbau,das Training von Künstlichen Neuronalen Netzen und die verschiedenen Lernverfahren. Wie weit die Analogie zu natürlichen neuronalen Netzen, also zum Gehirn, trägt, scheint mir heute noch offen. …”

      Jaromir: Vielen Dank! In allen Anmerkungen haben Sie vollkommen recht. … Dass das Perzeptron dem natürliche neuronalen Netz zuerst rudimänter nachgebildet und gezeigt wurde, dass das Multilayer-Perzeptron lernen und universell klassifizieren kann, erstaunt mich immer noch. Hier haben wir auf jeden Fall eine Parallele zwischen künstlichen und neuronalen Netzen. Deswegen frage ich mich schon: Sollte man künstliche neuronale Netze (eher koplexe Überlagerungen von vielen solchen Netzen) bauen können, die sich gut mit Sensoren ausgestattet (Embodiment) innerhalb einer an Information reicher Umwelt entwickeln und Vorkenntnisse ansammeln würden, hätten sie dann so etwas wie den gesunden Menschenverstand? Oder müssen dafür ganz neue Algorithmen für künstlichen neuronalen Netze “erfunden” werden?

    • Martin Holzherr: “Gary Marcus charakterisiert in seinem arxiv-Artikel Deep Learning: A Critical Appraisal folgendermassen: Neuronale Netze, insbesondere solche mit mehreren versteckten Schichten (daher der Begriff tief), sind bemerkenswert gut im Erlernen von Input-Output-Mappings. In meinen Worten: Neuronale Netze finden scheinbar meistens die beste Funktion, welche verrauschte Eingabedaten einer bestimmten Klasse zuordnet.”

      Jaromir: Beim Finden des besten Mappings, also der besten Funktion der Output- von den Inputwerten, muss der Mensch aber kräftig mithelfen. Vieles dabei ist Kunst: Wie viele Schichten? Wie viele Neuronen innerhalb der Schichten? Gute Daten, genug große Datensätze. Die Suche nach einem globalen Minimum der Kostenfunktion ist auch keine exakte Wissenschaft und die statistische Methodik aus Nähreungsverfahren und Annahmen genauso.

      Die “Arxiv”-Datenbank ist eine richtige Fundgrube, was künstliche neuronale Netze angeht.

  2. Es gibt heute kein kein künstlich intelligentes Wesen, welches sich selbstständig in der Welt zurechtfinden kann, welches Erfahrungen macht, dazulernt und sich entwickelt. Nicht einmal auf der Stufe eines Hundes. Und es gibt auch kein gesichertes Wissen wie man so etwas erreichen könnte. Die Lösung könnte um die Ecke, aber auch noch Jahrzehnte entfernt liegen.

    Die Lösung liegt um die Ecke, dennoch ist es zumindest für die Wissenschaften, die sich mit dem Gehirn und seiner Arbeitsweise, mit dem Denken und Verhalten und diejenigen, die sich mit Künstlichen Neuronalen Netzen beschäftigen, nicht möglich, zu ihr zu gelangen. Zunächst einmal arbeitet ein menschliches Gehirn vollkommen anders als ein KNN. Was die Sache einerseits schwieriger, andererseits einfacher macht ist, dass es zwei verschiedene Arten von “Informationsverarbeitung” gibt – entweder prädikativ-logisch oder funktional-logisch* -, wobei sich die jeweilige Arbeitsweise auf das Grundverständnis auswirkt, welches dem Wahrnehmen, Erkennen, Verstehen und Erleben der Welt auswirkt.

    Der Unterschied zwischen menschlichem Gehirn und KNN liegt nicht in der Verschaltungsarchitektur oder der Signalverarbeitung oder was auch immer derzeit zugrunde gelegt wird. Die Natur arbeitet viel einfacher und zugleich viel raffinierter. Ihr genügt ein einzelnes Gesetz,von dem es zwei Varianten gibt (die prädikative und die funktionale), und ein Regelwerk, ebenfalls in zwei Ausfertigungen, mit immer gleichem Grundmuster. Ein Gehirn, das nach entweder der einen oder der anderen Gesetzesvariante aufgebaut ist und nach den dazugehörigen Regeln arbeitet, ist in der Lage, praktisch alles das zu leisten, was ein menschliches Gehirn eben leisten kann.

    Wenn es gelingt, ein KNN zu entwickeln, dessen “Bauplan” auf einer dieser beiden Gesetzesvarianten beruht, dann würde ich mir ernstlich Sorgen machen, dass es tatsächlich gelingen könnte, ein intelligentes künstliches Wesen zu entwickeln.

    *Ich habe mit Frau Schwanks Erlaubnis die Begriffe prädikativ und funktional übernommen, nachdem wir festgestellt hatten, dass wir von derselben Sache reden. Nur bleibt sie mit ihrem Modell innerhalb ihres mathematischen Fachbereichs, während mein Modell als kognitive Architektur ins Fachgebiet der Psychologen fällt.
    Literatur:
    Schwank, I. (1996): Zur Konzeption prädikativer versus funktionaler kognitiver Strukturen und ihrer Anwendung. ZDM-Analysenheft “Deutsche psychologische Forschung in der Mathematikdidaktik”. Zentralblatt für Didaktik der Mathematik. 6, 168-183.

    Die dazu gehörigen PDF-Dateien findet man hier und
    hier

  3. @Jaromir Konecny (Zitat): 1) dass das Multilayer-Perzeptron lernen und universell klassifizieren kann, erstaunt mich immer noch.
    2) Oder müssen dafür ganz neue Algorithmen für künstlichen neuronalen Netze “erfunden” werden?

    Ja, ein Multilayer-Perzeptron ist gewissermassen ein total vereinfachter, reduzierter Nachbau von etwas natürlich neuronalem. Und es erbringt Leistungen, die wiederum an natürliche kognitive Leistungen erinnern. Doch möglicherweise täuscht diese Ähnlichkeit. Zumal wir nur wenig über höhere neuronale Leistungen wissen.

    Ein anderer Ansatz will gar nicht neuronale Hardware nachbauen, sondern menschliches Verhalten, Denken und Fühlen wie es von kognitiven Psychologen erforscht wurde, nachbilden. Josh Tenenbaum vom Computational Cognitive Science lab at MIT will genau das: Er will ein künstliches Kind erschaffen, das lernt wie ein Kind (Zitat, übersetzt von DeepL): “Stell dir vor, wir könnten eine Maschine bauen, die wie ein Baby beginnt und wie ein Kind lernt”, sagte er. “Wenn wir das tun könnten, wäre es die Grundlage für künstliche Intelligenz, die tatsächlich intelligent ist, maschinelles Lernen, das tatsächlich lernen könnte.” Damit beginnt er allerdings quasi bei Null, denn wie man beobachtetes Kindsverhalten als Computerprogramm nachbaut, das wissen wir noch weniger als wie man interessante Leistungen aus künstlichen neuronalen Netzen herauskitzelt. Allerdings glaubt Tenenbaum, dass wir heute über kindliche Denkvorgänge und kindliche kognitive Prozesse schon einiges wissen – mindestens sehr viel mehr als zum Zeitpunkt als Künstliche Intelligenz als Disziplin gegründet wurde.

    • Martin Holzherr: “Ein anderer Ansatz will gar nicht neuronale Hardware nachbauen, sondern menschliches Verhalten, Denken und Fühlen wie es von kognitiven Psychologen erforscht wurde, nachbilden. Josh Tenenbaum vom Computational Cognitive Science lab at MIT will genau das: Er will ein künstliches Kind erschaffen, das lernt wie ein Kind (Zitat, übersetzt von DeepL): “Stell dir vor, wir könnten eine Maschine bauen, die wie ein Baby beginnt und wie ein Kind lernt”, sagte er. “Wenn wir das tun könnten, wäre es die Grundlage für künstliche Intelligenz, die tatsächlich intelligent ist, maschinelles Lernen, das tatsächlich lernen könnte.” Damit beginnt er allerdings quasi bei Null, denn wie man beobachtetes Kindsverhalten als Computerprogramm nachbaut, das wissen wir noch weniger als wie man interessante Leistungen aus künstlichen neuronalen Netzen herauskitzelt. Allerdings glaubt Tenenbaum, dass wir heute über kindliche Denkvorgänge und kindliche kognitive Prozesse schon einiges wissen – mindestens sehr viel mehr als zum Zeitpunkt als Künstliche Intelligenz als Disziplin gegründet wurde.”

      Jaromir: Das wäre wohl dann auch der Ansatz von GOFAI, den ich im Blog kurz angesprochen habe. Ich bin aber von dem tiefen Lernen der heutigen künstlichen neuronalen Netze sehr fasziniert. Ich würde da gern weiter ausloten, ob die Natur die Eigenschaft der Netze, universelle Klassifizierer zu sein, nicht auch irgendwie verwendet. Das natürliche neuronale Netz im Gehirn ist ja ein Netz, und das wird schon seinen Sinn haben.

      Selbstverständlich kann es sein, dass Rosenblatt sein Perzeptron nach dem Vorbild des Gehirns entwickelte und später gezeigt werden konnte, dass das Multilayer-Perzeptron ein universeller Klassifizierer ist, also verallgemeinern kann wie das Gehirn, diese zwei Sachen aber trotzdem ganz zufällig sind und nichts miteinander zu tun haben. Ich denke aber, das wäre dann zu viel Zufall.

  4. “Das Gewicht der Verbindung, die von einem Neuron zu einem anderen ausgeht, bestimmt also die Stärke des Signals dieses Neurons….”
    Ein eingehender Reiz wird “gewichtet” in dem eine Abklärung dieses Reizes auf der Basis des vorhandenen Wissens passiert. Starke Reize sind in der Regel stark emotional besetzt und Neuronenketten assoziieren entsprechende schnell ER-LEBNISSE. In der Evolution der Säugetiere ist diese LOGIK durch das implizite Gedächtnis vorgegeben.So handelt meiner Ansicht nach auch jeder Mensch aus Grund-Gefühlen heraus, die ihn vor und nach der Geburt geprägt haben.Das LERNEN folgt dem Schritt der Erkenntnis, dass wir Reize stets mit neuem Wissen bewerten.So wird der bestehende starke Reiz, der entsprechend mit Neurotransmittern wie Adrenalin oder Dopamin codiert wurde,durch die neue Erkenntnis abgeschwächt und wahrschweinlich mit erregungshemmenden Neurotransmittern besetzt. Das uns vormals gestresste und erregende Problem ist und somit gleichgültig geworden.
    “Dummheit” in dem Sinne gibt es meiner Ansicht nach in der Natur/Evolution nicht.Es gibt nur Individuen, die in der Reizverarbeitung
    zu langsam(bequem) oder nicht schnell genug sind(Definition Intelligenz). In der freien Natur bei Tieren wäre das Ergebnis fatal, dass diese Tiere zuerst gefressen werden.

    • Golzower: ‘“Das Gewicht der Verbindung, die von einem Neuron zu einem anderen ausgeht, bestimmt also die Stärke des Signals dieses Neurons….”
      Ein eingehender Reiz wird “gewichtet” in dem eine Abklärung dieses Reizes auf der Basis des vorhandenen Wissens passiert. Starke Reize sind in der Regel stark emotional besetzt und Neuronenketten assoziieren entsprechende schnell ER-LEBNISSE. In der Evolution der Säugetiere ist diese LOGIK durch das implizite Gedächtnis vorgegeben.So handelt meiner Ansicht nach auch jeder Mensch aus Grund-Gefühlen heraus, die ihn vor und nach der Geburt geprägt haben.Das LERNEN folgt dem Schritt der Erkenntnis, dass wir Reize stets mit neuem Wissen bewerten.So wird der bestehende starke Reiz, der entsprechend mit Neurotransmittern wie Adrenalin oder Dopamin codiert wurde,durch die neue Erkenntnis abgeschwächt und wahrschweinlich mit erregungshemmenden Neurotransmittern besetzt. Das uns vormals gestresste und erregende Problem ist und somit gleichgültig geworden.’

      Jaromir: Mein von Ihnen als erstes zitierter Satz bezieht sich aber auf das Lernen der künstlichen neuronalen Netze, ist also eine starke Vereinfachung des Lernvorgangs im Gehirn und keine Beschreibung davon, auch wenn man wohl bei den natürlichen neuronalen Netzen im Gehirn sagen kann, dass Synapsen “gewichtet” werden. Es scheint ja von MIT-Hirnforschern bewiesen zu sein, dass wenn die (Input)-Synapse eines Neurons gestärkt wird, die benachbarte Synapse geschwächt wird, damit es zu keinem Input-“Überlauf” kommt. Nur sind die Vorgänge im Gehirn sehr komplex, werden auch noch nicht ganz verstanden und können somit nicht so einfach beschrieben werden wie die Vorgänge in künstlichen neuronalen Netzen.

      Ich finde aber Ihren Satz, “Ein eingehender Reiz wird “gewichtet” in dem eine Abklärung dieses Reizes auf der Basis des vorhandenen Wissens passiert.”, sehr interessant und muss den noch überlegen. Wie genau nehmen die bereits vorhandenen Verbindungen im Gehirn Einfluss auf das Herausbilden bzw. Stärken einer einzelnen Synapse Einfluss? Ich meine: Wie ist die Biochemie dahinter? Wir wissen, dass es hemmende Synapsen gibt und Rückkopplungen usw. Wie das aber genau funktioniert, ist noch nicht klar: Wie beeinflussen sich die einzelnen Neuronenverbände – biochemisch gesehen – gegenseitig?

    • Joseph Kuhn: “Danke für den informativen Beitrag. Interessant wird es, wenn KI lernen, über uns Menschen Witze zu machen. Dann könnte uns das Lachen vergehen.”

      Jaromir: 🙂 Ich danke Ihnen!

      Julia Taylor a Lawrence Mazlack von University of Cincinnati in Ohio haben ein künstliches neuronales Netz entwickelt, das Witze im Text finden und neue bilden soll. Leider liefert das Programm nur sehr einfache Witze. In der maschinellen Sprachverarbeitung (Natural Language Processing) gibt es aber große Fortschritte, da wird wohl – auch beim “Maschinenhumor” – auf uns noch Einiges zukommen.

  5. Das grundlegende Problem bei der „technischen Nachbildung“ von „Intelligenz“ (eigentlich besser der Nachbildung der Informationsverarbeitung im neuronalen System) ist nun einmal dass man das „Empfindungsphänomen“ nicht versteht.

    Man weiß nicht wie es auf die „Gewichtung“ der Signalweiterleitung Einfluss nimmt. Die elektrische Signalleitung sollte im Prinzip eigentlich, wie in der Technik auch, von den elektrischen „Impedanzen“ abhängen, die in der Biologie chemisch „realisiert“ werden.

    Impedanzen bedeuten, dass nicht nur auf die Stärke der Stromflüsse Einfluss genommen wird, sondern dass auch besondere Phasenverhältnisse und allenfalls Resonanzen auftreten können. (Meine vage „Privatvermutung“: Je stärker die Resonanzen desto stärker die Empfindungen, von der Phasenlage hängt weiters ab, ob die Empfindung (lustvoll) angestrebt, oder (schmerzhaft) vermieden werden sollte.)

    Die „Gewichtung“ ist bei biologischen Systemen stark, wenn die Signale „stark“ sind und viele (synaptische) Verknüpfungen in den neuronalen Verbänden abhängig vom Input auftreten.

    Bei künstlichen elektrischen neuronalen Netzen werden letztlich Wahrscheinlichkeiten in den Inputmustern berechnet und ausgewertet. Komplexe Empfindungen werden nicht berücksichtigt, die allerdings bei lebenden biologischen Systemen bedeutsam sind.

    Zitat Martin Holzherr: „Ein anderer Ansatz will gar nicht neuronale Hardware nachbauen, sondern menschliches Verhalten, Denken und Fühlen wie es von kognitiven Psychologen erforscht wurde, nachbilden. Josh Tenenbaum vom Computational Cognitive Science lab at MIT will genau das …“

    Auch bei diesem Ansatz ist es nötig, zumindest auf ein realistisches „Empfindungsmodell“ aufzubauen und dieses algorithmisch abzubilden.

  6. Ich bitte um Entschuldigung für die Besserwisserei, aber „Jedes komplexe Problem hat eine einfache Lösung, und die ist falsch“ ist nicht von Eco, sondern von Mencken.
    Falschzitate

    Mir fällt immer wieder auf, wie schwer es z.B. Schachprogrammen fällt, “schlecht” zu spielen – also auf dem Niveau eines durchschnittlichen menschlichen Spielers. Die Programme spielen einige Züge auf ihrem hohen Niveau und bauen dann – zum Teil groteske – Fehler ein. Liegt das daran, dass die Aufgabe nicht präzise genug beschrieben werden kann?

    • Gerald Fix: “Ich bitte um Entschuldigung für die Besserwisserei, aber „Jedes komplexe Problem hat eine einfache Lösung, und die ist falsch“ ist nicht von Eco, sondern von Mencken.”

      Jaromir: Das ist keine Besserwisserei, das ist richtig. Danke für den Hinweis! Seit etwa 20 Jahren benutze ich das Zitat, denke aber immer noch, dass ich’s in einem Essay-Band von Eco gelesen habe. In dem verlinkten Artikel steht aber, dass Eco das Zitat von Mencken in “Das Foucaltsche Pendel” verwendet habe, in einem Buch, dass ich zweimal gelesen habe, also muss ich es von dort haben. Vielleicht hat’s Eco aber noch einmal in einem seiner Essay verwendet. Das kann auch sein.

      Die geflügelte Form von Mencken lautet: “”Für jedes Problem gibt es eine Lösung, die einfach, klar und falsch ist.” (H. L. Mencken)

      Eco schrieb in das “Foucaltsche Pendel”: “Wie sagte doch gleich, ich weiß nicht mehr, wer es war: Für jedes komplexe Problem gibt es eine einfache Lösung, und die ist die falsche.”

      Ich muss zugeben, dass mir Ecos knappere Form mehr zusagt als die von Mencken, also: “Für jedes komplexe Problem gibt es eine einfache Lösung, und die ist die falsch.” Diese finde ich pointierter. Außerdem ist diese Form wohl etwas richtiger, bzw. hat eine etwas andere Semantik, denn meiner Meinung nach gibt es einfache Problem, die auch einfache und richtige Lösungen haben. 🙂

      Ich werde das im Text aber dementsprechend ändern. Noch einmal vielen Dank!

    • Gerald Fix: “Mir fällt immer wieder auf, wie schwer es z.B. Schachprogrammen fällt, “schlecht” zu spielen – also auf dem Niveau eines durchschnittlichen menschlichen Spielers. Die Programme spielen einige Züge auf ihrem hohen Niveau und bauen dann – zum Teil groteske – Fehler ein. Liegt das daran, dass die Aufgabe nicht präzise genug beschrieben werden kann?”

      Jaromir: Ich glaube, da müsste man zwischen den Algorithmen der Schachprogramme unterscheiden: Deep Blue, das Kasparov schlug, war ein “brut force”-Programm, also kein künstliches neuronales Netz (deep learning) bzw. keine künstliche Intelligenz. Auch alle folgenden Schachprogramme waren so. Eigentlich begann der Siegeszug des “Reinforcement Learning” der tief lernenden neuronalen Netze erst 2016 mit dem Sieg von AlphaGo über Lee Sedol. Die neuen Schachprogramme, die künstliche neuronale Netze sind, müssten viel geschmeidiger spielen. Ganz sicher bin ich nicht, weil ich mich mit den neuen Schachprogrammen nicht tiefer beschäftigt habe. Ich vermute aber, künstliche neuronale Netze spielen “natürlicher” als die alten Schachprogramme.

  7. @Gerald Fix (Zitat): Mir fällt immer wieder auf, wie schwer es z.B. Schachprogrammen fällt, “schlecht” zu spielen
    Das liegt daran, dass der Aufwand für ein Schachprogramm, welches Züge eines wohlmeinenden Mentors hat (der seinen Schüler auch mal gewinnen lässt und ihm dabei gar das Gefühl vermittelt, er sei ein guter Schachspieler) zu gross ist. Auch in der Informatik gibt es für viele Probleme entweder eine Standardlösung oder aber als Alternative einen neuen arbeitsaufwendigen Ansatz, dessen Erfolgschance erst noch ungewiss ist.

  8. Gerald Fix
    Wenn ein Schachcomputer nicht nach der Datenbank spielt, dann bewertet er jede mögliche Stellung. Der Zug , der zu einer besseren Stellungsbewertung führt, der ist der erfolgreichere Zug. Man müsste eigentlich ein zweites schwächeres Schachprogramm für schwächere Spielstufen einsetzen.
    Ich spiele oft gegen “Fritz” und nach meiner Erfahrung sind die eingebauten Fehler auf einer niedrigen Spielstufe tatsächlich dumm, so dumm, dass es keinen Spaß mehr macht, gegen das Programm zu spielen.
    Deswegen ist ein Spiel gegen einen realen Menschen immer spannender.

    • Karl: “Ich spiele oft gegen “Fritz” und nach meiner Erfahrung sind die eingebauten Fehler auf einer niedrigen Spielstufe tatsächlich dumm, so dumm, dass es keinen Spaß mehr macht, gegen das Programm zu spielen.
      Deswegen ist ein Spiel gegen einen realen Menschen immer spannender.”

      Jaromir: Sowohl Fritz wie auch die anderen konventionelle Schachprogramme spielen Schach, indem sie alles durchrechnen (brute force). Erst mit AlphaZero, dem Nachfolger von DeepMinds AlphaGo und AlphaGo Zero, gibt es seit 2017 ein KNN-Schachprogramm (künstliche Intelligenz), das sich das Schachspielen selbst beibringt und locker das Schachprogramm Stockfisch besiegt:

      https://www.schachbund.de/news/alphazero-schlaegt-stockfish.html

  9. “Ein eingehender Reiz wird gewichtet, in dem eine Bewertung auf der Basis des vorhandenen Wissens passiert”
    Hallo Herr Konecny,
    Tiere und Menschen werden täglich /stündlich/sekündlich einer Unzahl von Reizen ausgesetzt.Da das Gehirn eine “Reizbewertungsmaschine” ist, bewertet es alle Reize nach dem Schema: bekannte, unbekannte; gefährlich bzw. ungefährlich;angenhem oder unangenehm ,befriedigende und unbefriedigende etc.) Für diese Bewertung hat die Evolution uns Menschen und den Tieren auch die die Emotionen gegeben. Wir können aber REIZE nur einordnen,wenn wir vorher bereits eine Erfahrung (Erlebnis) dazu gemacht haben. Auf Grund dieser “Erfahrung” wissen wir, dass zum Bsp. der Stock auf dem Weg keine Schlange ist und somit Angstgefühle nicht erforderlich sind.Hätten wir nicht diese Erfahrung schon gemacht, so würde ein Flucht-und Kampfsystem in uns aktiv werden:Aktivierung Symphatikus,Auschüttung von Stresshormonen (Adrenalin/Noradrenalin) etc…Neuronal könnten blitzschnell Assoziationen ablaufen, Neuronenverbände “kommunizieren” über diese angebliche Gefahr “Schlange” in dem vorhandenes Wissen im Zuge des Kampf-Fluchtsystems nach den Organismus schützenden Alternativen sucht.
    Diese feuernden NeuronenVerbände könnten so konditionieren, d. heißt es wird eine SPUR dieses Vorgangs im Gehirn abgelegt, um in Zukunft schneller reagieren zu können (Es wird gelernt) Kommt man aber dieser “Schlange” einige Meter näher,überwindet die Angst, und erkennt, dass es nur ein ganz gewöhnlicher Stock ist, haben diese Spurungen ihren Sinn verloren und man “lernt” um durch ERKENNTNIS .Diese SPUR im Gehirn verliert ihre Bedeutung und wird in Zukunft normaler bewertet.Es wird also beim nächsten Anblick eines Stockes auf dem Waldweg kaum noch Noradrenalin mehr ausgeschüttet , da WISSEN(Spurungen) über die Zusammenhänge nun vorhanden ist.

    • Golzower: “Für diese Bewertung hat die Evolution uns Menschen und den Tieren auch die die Emotionen gegeben.”

      Jaromir: Hallo, zuerst muss ich mich entschuldigen, dass ich Sie nicht mit dem Namen, wie Sie mich, grüßen und ansprechen kann. Ich kenne nur Ihre Nicknamen. 🙂

      Unsere Emotionen sind eine Reaktion auf die Reize aus unserer Umwelt, nicht ihre Bewertung. Die Reize werden wohl von den Neuronaneverbänden im Gehirn bewertet, diese Neuronanverbände reagieren darauf mit der Freisetzung von Neurotransmittern, Hormonen usw., was wiederum eine bestimmte Emotion zur Folge hat. Ansonsten gehe ich mit Ihnen konform, nur machte ich mir eben eher Gedanken darüber, wie die elektrischen und chemischen Signale in vielen sich überlagernden neuronalen Netzen im Gehirn sich gegenseitig beeinflussen können – über die Vielfalt dieser Beeinflussung also. Das wird aber noch schwieriger – vielleicht sogar unmöglich – zu erklären sein, als das, wie ein trainiertes künstliches neuronales Netz seine Entscheidungen trifft. Ein extrem komplexes neuronales System eben.

  10. @Jaromir Konecny: zur Beziehung KNN/Hirn: Der visuelle Cortex ist schon gut untersucht und die bekannte Funktionalität spricht dafür, dass dort vielstufige Strom-Prozessoren mit fest verdrahteten Spezialfunktionen wie Gesichtserkennung implementiert sind. Diese lassen die heutige Homogenität künstlichen neuronaler Netze weit hinter sich (ein künstliches neuronales Netz ist im wesentlichen nur eine mehrschichtige Neuronensammlung mit “richtig” gesetzten Gewichten). Dies zu ihrer Aussage (Zitat): Selbstverständlich kann es sein, dass Rosenblatt sein Perzeptron nach dem Vorbild des Gehirns entwickelte und später gezeigt werden konnte, dass das Multilayer-Perzeptron ein universeller Klassifizierer ist, also verallgemeinern kann wie das Gehirn, diese zwei Sachen aber trotzdem ganz zufällig sind und nichts miteinander zu tun haben. Ich denke aber, das wäre dann zu viel Zufall.
    Der Artikel The functional neuroanatomy of faceperception: from brain measurementsto deep neural networks zeigt die Komplexität des visuellen Kortex und gleichzeitig den Glauben der Autoren, dass deep neuronal networks in der Verarbeitung eine Rolle spielen. Doch die Lektüre zeigt: Selbst wenn KNNs bei der Verarbeitung visueller Daten eine Rolle spielen, so erklären sie wahrscheinlich nur einen kleinen Teil der Gesamtarchitektur. Die Autoren des Artikels glauben aber auch, dass das Wissen um die Arbeitsweise des visuellen Kortexs auch umgekehrt zu Verbesserungen bei künstlichen neuronalen Netzen führen kann. Im folgenden ein Textfragment, das zeigt, wie sich die Autoren ein neuronal präzises DNN vorstellen und dass sie mit der Nachbildung des visuellen Kortexes in KNNs gegenseitig befruchtende Erkenntisse erhoffen (übersetzt mit DeepL):
    Wir hoffen, dass diese neuronalen Merkmale in moderne DNNs integriert werden, um eine neue Klasse von neuronal genauen Berechnungsmodellen des Ventralstroms und insbesondere des Gesichtsnetzes zu generieren. Um DNNs neuronal genau zu machen, ist es notwendig, neuronale Funktionen zu implementieren, die derzeit nicht vorhanden sind, einschließlich: (i) Filter, die das Gesichtsfeld auf uneinheitliche Weise abtasten, (ii) Filter, die an unterschiedliche Aufgabenanforderungen angepasst werden können, (iii) zeitlich dynamische Filter, (iv) eine korrekte Anzahl von Verarbeitungsstufen und (v) wiederkehrende und Top-down-Verbindungen, wobei das Hinzufügen dieser Merkmale zu DNNs (i) das Verständnis der Berechnungen entlang des ventralen Stroms verbessern kann, (ii) wahrscheinlich die vorhergesagten Gehirnreaktionen auf eine Vielzahl von Reizen verbessern wird und (iii) wichtige Erkenntnisse für den hypothetischen Nutzen verschiedener architektonischer Merkmale des menschlichen Gehirns liefert.

    • Martin Holzherr: “zur Beziehung KNN/Hirn: Der visuelle Cortex ist schon gut untersucht und die bekannte Funktionalität spricht dafür, dass dort vielstufige Strom-Prozessoren mit fest verdrahteten Spezialfunktionen wie Gesichtserkennung implementiert sind. Diese lassen die heutige Homogenität künstlichen neuronaler Netze weit hinter sich (ein künstliches neuronales Netz ist im wesentlichen nur eine mehrschichtige Neuronensammlung mit “richtig” gesetzten Gewichten).”

      Jaromir: Lieber Herr Holzherr, Sie sind so tief in der Hirnforschung und KI, dass sie oft die Themen meiner nächsten Blog-Beiträge vorwegnehmen. 🙂 Was bei der visuellen Wahrnehmung und als Reaktion darauf im visuellen Kortex abläuft, wissen wir tatsächlich sehr gut. Interessanterweise kann man auch die einzelnen Vorgänge in CNN (convolutional neural networks) gut und bildhaft zeigen, das heißt, was an den einzelnen tiefen CNN-Schichten bei “Computer Vision” passiert. Hier gibt es auch die größten Parallelen zwischen der Funktion der natürlichen Wahrnehmung und der von künstlichen neuronalen Netzen, also CNN.

      Unlängst habe ich ein sehr gutes Buch über die visuelle Wahrnehmung gelesen “Sehen. Wie sich das Gehirn ein Bild macht.” von Rudolf E. Lang. In meinem Beitrag über das Lernen, den wir jetzt kommentieren, hatte ich etwa zwei Seiten über das natürliche Lernen im visuellen Kortex als Vergleich zu “Computer Vision”, musste das aber aus dem Text herausnehmen, weil der Text sonst zu lang wäre. Ich dachte mir, dann würde ich meinen nächsten Blog-Text nur darüber machen. Und jetzt ist es raus, keine Überraschung mehr möglich. 🙂

    • Ron: “Solange KI nicht selbständig seine Ziele ändert, solange fühle ich mich sicher.”

      Jaromir: 🙂 Das sehe ich genauso!

      Im KI-Thriller “Singularity. Avogadro Corp” wird ein eMail-Optimierungsprogramm entwickelt. Da das Projekt sehr viel Rechenzeit in Anspruch nimmt, will die Firma das Projekt einstellen. Der Projektleiter will das verhindern und schreibt nur einen Code ins Programm, in dem er der KI sagt, bzw. für sie eine Regel aufstellt, die KI solle alles tun, damit sie nicht abgeschaltet werde – das hat weitreichende Konsequenzen. Dieses Szenario fände ich in ein paar Jahren realistisch. Ich denke, wir, also die Menschheit, werden von KI nur dann profitieren – und es passieren keine großen bösen Sachen mit KI -, wenn wir uns alle bilden und zu verstehen versuchen, wie diese Programme arbeiten.

  11. Hallo Jaromir,

    mir gefällt Dein allgemeinverständlicher Artikel. Gerade weil er in mir eher mehr Fragen, als vorhandene Antworten auslöst!

    Es geht um künstliche Intelligenz (KI), natürliche Dummheit (ND) und gesunder Menschenverstand (GV)

    Alle drei sind wunderbar Stoff-Lieferanten für Kabarettisten. Auf lange Sicht gesehen dürften Kabarettisten nie arbeitslos werden. 😉

    Diese Begriffe möchte ich gern mit der Unterscheidung maschinellem Lernen (KIL) und menschlichem Lernen (GVL) verbinden. (Du gehst darauf ja ebenfalls ein). Mehr klare Unterscheidung scheint mir notwendig um die ND durch unzulässige (kategoriale) Vermischungen, Verwechslungen und daraus resultierende Missverständnisse so gering als möglich halten zu können.

    Ausserdem frage ich mich, ob sich hier nicht lerntheoretische Fragenkomplexe mit erkenntnistheoretischen Fragenkomplexe überschneiden? Haben wir es bei KIL und GVL nicht mit zwei grundsätzlich zu unterscheidenden “Lernqualitäten” zu tun, die unterschiedlichen Wirklichkeitsbereichen angehören und nicht aufeinander reduzibel sind, wenngleich wenn sie aufeinander bezogen werden, dadurch neue Wirklichkeitsphänomene generiert und bereits bekannte weiter ausdifferenziert werden?

    Hierzu ein paar Thesen:
    Ich würde sagen GVL kann prinzipiell KIL.
    Das lässt sich m.E. belegen z.B. durch die Fragestellung: Wer hat wen erschaffen: Der Mensch Computer (mathematische Rechner) oder umgekehrt? Die “Erzeuger” von Computern, verdienen also in gewisser Weise “mehr Aufmerksamkeit” als deren Produkte.

    Die Umkehrung erscheint mir nicht ganz so eindeutig und daher kritikwürdig:
    KIL kann (irgendwann) GVL. Die bisherigen Lernkurven berechtigen die Prognose, dass KIL (irgendwann) sogar besser GVL kann, also die Qualität GVL2.0 erreicht, wozu GVL, nie (von sich aus) in der Lage sein würde.

    Zu dieser Radikalität jedenfalls scheinen sich einige Vordenker KIL nicht genug “entblöden” zu können im Sinn ihrer angeborenen ND.

    Ich frage deshalb: Können Kinder ihre Eltern hervorbringen?
    Genügt es vermittels GVL-Lernkomplexität die mittels mathematischer Formeln dieselbe beschreibbar machen kann, mit diese Algorithmen “quasi mit Sperma-Funktion” Super-Computer zu “befruchten” damit diese, sich selbst “evolutionieren” um von KIL 1.Ordnung des (Selbst-)Lernens mittels großer Datenmengen und ausreichender Rechenzeitleistung, irgendwann in einem singulären Sprung KIL 2.Ordnung zu erreichen, welche (angeblich – so der Mythos) notwendig sei um die Qualität von GVL zu übertreffen, d.h. GVL2.0 zu erreichen – was dann aber keine KIL mehr sein kann? Es wird also die GVL gleich übersprungen hin zu GVL20. Mehr Nonsens geht nicht m.E.

    Es geht mir hier auch weniger um die ethischen Fragen welche solche Erwartungen und Hirngespinste auch noch aufwerfen, sondern um die pseudoreligiös überhöhten Implikationen welche solche Vorstellungen von Rechner(Lern-)Leistungen und deren (oft von irrationaler Euphorie begleiteten) Vorstellungen von “Lernkurven” hervorbringen.

    Vielleicht liege ich falsch, aber a) kann ich als Nicht-Mathematiker, und damit als Nicht-Wissender nur nicht-mathematisch argumentieren und b) halte ich es der ND von Computerprogrammierern zu Gute (die allesamt viel klüger sind als ich Nicht-Programmierer!), dass sie hier einen (unbewussten?) Kategorienfehler in ihren interpolierenden Prognosen und Erwartungen begehen, wenn sie ihre erfundene(!) Programme und Computer, gewissermaßen “Leben” als “ihren Kinder” “einhauchen” und ihnen nicht nur dieselbe “Erkenntniskontingenz” zuschreiben, wie sie menschlichen Kindern in ihrer Entwicklungspotenzialität zu eigen ist, sondern ihre eigene Intelligenzpotenzialität eines GVL als Programmierer, von ihren KIL-Produkten eine “Übersteigerung” an Leistungsvermögen (GVL2.0) erwarten und zuschreiben, die zudem als „notwendig“ „verkauft“ wird, da sich ihre eigene GVL sich als unzureichend erwiesen hätte um die komplexen Probleme, welche eine GVL hervorzubringen in der Lage ist, zu bewältigen. Dies würde nur eine GVL2.0 in der Lage sein.

    ND ist das Ergebnis von zuviel Angst, wie auch zuwenig Angst! Und eine GVL2.0 der ND-Traum um zuviel Angst zu kompensieren bzw. zuwenig Angst zu transzendieren.

    Wächst ND, weil KI (nur scheinbar) “intelligenter” wird? Oder wird KI (nur scheinbar) “intelligenter”, weil GVL in Wirklichkeit zu ND regrediert d.h. ihre eigenen unterkomplexen Komplexitätsreduktionsmustererfindungen „anhimmelt“?

    Mir scheint der Grat zwischen GV und ND wird immer schmaler und das Balance-finden immer schwieriger, die Fallhöhe und Absturzgefahren in eine “Hölle” der Vermischung und Verwechslung von komplizierten und komplexen Problemen und Aufgabenstellungen, sowie deren mehr oder weniger dummen Kompensations- und Bewältigungsversuche immer größer.

    Ausdrücklich Zustimmung zu folgenden Aussagen:
    Echte Intelligenz und echte Dummheit können immer noch nur natürlich sein.
    KI von KNN wird von Menschen programmiert und trainiert.
    Lernen heißt Erfahrung in Wissen und Kompetenzen umwandeln.
    Einmal Gelerntes verführt und führt in Versuchung (Verhaltens- und Kommunikations-)Muster zu bilden, die zu dummen (pseudoreligiöse) Entscheidungen führen können, wenn mit diesen versucht wird qualitativ neue und bislang unbekannte Probleme und Orientierungsfragen zu lösen.
    GV braucht keine KI-Algorithmen und iteratives, supervised Lernen, um Aufgaben zu bewältigen.

    Solange KIL “schmerzlos” bleibt, bleiben auch deren Lernerfolge nicht nur uneffizient sondern erst recht uneffektiv (i.S.v. unterkomplex). KIL kann bestenfalls komplizierte Aufgaben schneller als GVL lösen. KIL ist dagegen prinzipiell ungeeignet komplexe Aufgaben zu lösen.

    Die Fähigkeit die kompliziertesten Aufgaben scheller zu lösen, als alle GV zusammengenommen je in der Lage sein würde, genügt keinesfalls um auch nur die einfachste komplexe Aufgabe lösen zu können.

    Vielmehr ist KIL auf komplexe Aufgaben angewandt, nur zu unterkomplexen und d.h. entsprechend “dummen” Antworten und Lösungen fähig.

    GVL war dagegen schon immer in der Lage, adäquate Antworten und Lösungen für komplexe Herausforderungen zu (er)finden und bisher ausreichend – und wird es auch weiterhin sein. Auch die GVL entwickelt sich weiter. Doch KIL wird die GVL nicht übertreffen, sondern der GVL notwendigerweise solche Schmerzen bereiten, dass GVL gar nicht anders kann, als sich aus der Hölle der eigenen Bequemlichkeit herauszubewegen um die angestauten komplexen Probleme zu lösen.

    Neoreligiöse “Mythenbildungen von GVL2.0 als Erfindung von Entwicklern von KIL von KNN sind Konstrukte einer ND. Deren propagierte Notwendigkeit einer GVL2.0 durch KIL ein Phantasma von zuviel Angst (Dystopismus) bzw. zuwenig Angst (Utopismus) gegenüber komplexen Aufgabenstellungen.

    • Ingo Damith: “Ausserdem frage ich mich, ob sich hier nicht lerntheoretische Fragenkomplexe mit erkenntnistheoretischen Fragenkomplexe überschneiden? Haben wir es bei KIL und GVL nicht mit zwei grundsätzlich zu unterscheidenden “Lernqualitäten” zu tun, die unterschiedlichen Wirklichkeitsbereichen angehören und nicht aufeinander reduzibel sind, wenngleich wenn sie aufeinander bezogen werden, dadurch neue Wirklichkeitsphänomene generiert und bereits bekannte weiter ausdifferenziert werden?”

      Jaromir: Hallo Ingo, ich muss zugeben, dass ich nicht weiß, ob wir’s beim Lernen der künstlichen und der natürlichen Netze mit zwei grundsätzlich zu unterscheidenden “Lernqualitäten” haben. Um das auszuloten, betreibe ich ja diesen Blog. Wie ich schon als Antwort auf Martin Holzherrs Kommentar schrieb: Das Gehirn ist wohl genauso wie ein Multilayer-Perzeptron (künstliches neuronales Netz – KNN) ein universeller Klassifizierer, nur kann ein gut trainiertes KNN besser klassifizieren und Muster in großen Datensätzen erkennen als ein Mensch. Ein Mensch kann dagegen unbekannte Probleme in fremden Umgebungen viel besser lösen als ein KNN. Es kann ja sein, dass unser Gehirn sich aus Millionen neuronaler Netze zusammensetzt, die einzeln ähnlich wie die künstlichen Netze funktionieren, nur viel “geschmeidiger”, da sie zusammen mit der Aktivität in ihnen evolviert sind und nach keinen starren und sehr vereinfachten mathematischen Algorithmen laufen wie die künstlichen. Erst die komplexe Überlagerung dieser Millionen natürlichen Netz stellt jedes künstliche neuronale Netz in den Schatten. Führt der Weg zu starker künstlicher Intelligenz, die es genauso wie ein Mensch kann, über die heutigen KNN, die nur viel komplexer und mit Wissen und der Wechselwirkung mit ihrer Umgebung angereichert werden müssen? Oder muss man dafür ganz neue Ansätze und Algorithmen entwickeln? Das sind Fragen, die heute, glaube ich, niemand beantworten kann.

    • Ingo Damith: “Ich würde sagen GVL kann prinzipiell KIL.”

      Jaromir: Dem ist eben nicht so. Wenn Menschen das könnten, was künstliche neuronale Netze können, würden wir für ihre Arbeit Menschen einsetzen. Kein Mensch aber wird je AlphaGo Zero im Go-Spiel schlagen oder Muster in Datensätzen mit Millionen Daten erkennen u. v. a.

  12. @Ingo Damith: Ihre Fragen hätten sie schon an die alten Griechen stellen können, in deren Mythen bereits Automaten vorkommen – geschmiedet von Hephaistos (Zitat AUTOMOTONES): Die AUTOMATEN waren lebhafte, metallische Statuen von Tieren, Menschen und Monstern, die vom göttlichen Schmied Hephaistos (Hephaestus) und dem athenischen Handwerker Daidalos (Daedalus) gefertigt wurden. Die Besten von ihnen konnten wie Männer denken und sich fühlen. Der Riese Talos, welcher Kreta bewachte, war wohl Hephaistos beeindruckendstes Werk.
    Allerdings war Hephaistos selbst ein Gott – der Gott des Feuers und der Schmiede.
    Die alten Griechen trauten also mindestens den Göttern das Schaffen von künstlichen Menschen zu.
    Aber heute sind ja wir die Götter! (oder fühlen uns zunehmend so)

  13. @Martin Holzherr: sic! Da sehen Sie mal, wie wenig wirklich “Neues unter der Sonne” es seit Menschengedenken und eitel-differenziert-konstruiertem Erfindungsreichtum von “Technae” es gibt. Offensichtlich ist es Gattung Menschen “unmöglich”, seiner eigenen Semiosphäre zu entkommen. Jede neue Generation stellt sich, sich wiederholenden Fragekomplexen in sich zunehmend ausdifferenzierenden Kontexten und konstruiert (Ver-)Antwort(ungs)möglichkeiten verbunden mit zu korrigierenden Entscheidungs-Not-Wendigkeiten mit jeder neuen Schmerzerfahrung, bis der “letzte Schnaufer” – (hoffentlich im Reinen mit sich und dem ganzen Rest) getan ist. 🙂

  14. Sehr guter Beitrag, der die Thematik gut beschreibt.

    Bei meinem nächsten Aufsatz zur KI werde ich sicherlich hierauf verweisen 🙂

    Was fehlt (und hier aber auch nicht abgesprochen werden sollte) sind die Folgen bzw. etwaige Risikenszenarien in rechtlicher Hinsicht. Hierzu habe ich auch ein paar Worte einmal verfasst in der DuD: https://link.springer.com/article/10.1007%2Fs11623-017-0870-4

    Es geht dabei auch darum, wie mit etwaiger Diskriminierung (durch Fehler und wissenschaftlich fehlerhaften Berechnungsgrundlagen der Anwendung) umzugehen ist.

    • csc: “Was fehlt (und hier aber auch nicht abgesprochen werden sollte) sind die Folgen bzw. etwaige Risikenszenarien in rechtlicher Hinsicht. Hierzu habe ich auch ein paar Worte einmal verfasst in der DuD: https://link.springer.com/article/10.1007%2Fs11623-017-0870-4

      Jaromir: Vielen Dank für die netten Worte. Risikenszenarien in rechtlicher Hinsicht sind sicher eine gute Ergänzung zum Thema KI. Ich kann mich damit hier nicht beschäftigen, schon so schreiben mir Freunde ständig, dass meine Blog-Beiträge zu lang sind. 🙂

  15. Ingo Damith
    In dem Roman 1984 wird die Problematik der durchorganisierten Gesellschaft durch Machinen als Horrorszenario dargestellt. Die letzte Hoffnung zu entkommen ist, der dumme Mensch, der sich nicht in dieses System einspannen lässt.
    Also machen wir uns nicht zu viel Sorgen über KI, Wenn die Brücke unter dem selbsfahrenden Auto zusammenbricht, dann ist das nicht der KI anzulasten, eher der Ignoranz des Menschen. Diese Charaktereigenschaft kommt in der Analyse von Jaromir nicht vor.

  16. Zitat Golzower: “Tiere und Menschen werden täglich /stündlich/sekündlich einer Unzahl von Reizen ausgesetzt. Da das Gehirn eine “Reizbewertungsmaschine” ist, bewertet es alle Reize nach dem Schema: bekannte, unbekannte; gefährlich bzw. ungefährlich;angenhem oder unangenehm ,befriedigende und unbefriedigende etc.) Für diese Bewertung hat die Evolution uns Menschen und den Tieren auch die die Emotionen gegeben. Wir können aber REIZE nur einordnen, wenn wir vorher bereits eine Erfahrung (Erlebnis) dazu gemacht haben.

    .
    Diesen Ansatz finde ich einleuchtend und für mich bedeutet es: Es gibt kein Denken ohne Fühlen. Der Spruch von Descartes sollte nicht heißen „Ich denke, also bin ich“, sondern „Ich fühle, also bin ich“.

    Das bedeutet wiederum, dass man eine Maschine zum selbständigen Denken, zum individuellen Lernen und individuellen Problemlösungen bauen kann, nur wenn man herausgefunden hat, wie Gefühle im Gehirn entstehen und wenn man sie in eine Maschine einprogrammieren kann. Wie die Informationsverarbeitung funktioniert ist aus meiner Sicht nämlich nur die halbe Miete, wir müssten den Antrieb der Informationsverarbeitung auch einprogrammieren, die Gefühle. Und dann stellt sich natürlich in erster Linie eine grundsätzliche ethische Frage: Darf man eine Maschine bauen, die leiden kann?

  17. Danke für den anregenden Beitrag!

    Wenn man die künstliche „Intelligenz/Dummheit“ mit der natürlichen des Menschen vergleicht, dann sollten neurophysiologische Prozesse, die über Stunden hinweg ablaufen, eigentlich nur eine untergeordnete Rolle spielen. Das Erkennen einer Katze erfolgt augenblicklich, da dürfte allein die aktuell vorhandene neuronale Struktur oder Verschaltung von Belang sein. So, wie beim KNN die aktuelle Verschaltung und „Empfindlichkeit“ der Knotenpunkte relevant ist, wenn ein Bit-Muster als Katze „erkannt“ werden soll.

    Wir können uns also, soweit es um das spontane Erkennen von Mustern geht, auf die elektrischen Phänomene konzentrieren. Und an dieser Stelle gibt es, so habe ich den Beitrag verstanden, im Grunde keine fundamentalen Unterschiede zwischen biologischem Hirn und KNN (wenn man mal von der Komplexität der Verschaltung absieht).

    Das heißt, wenn ein Kindergartenkind Katzen besser von Hunden unterscheiden kann als ein KNN, dann liegt das eben an den Strukturen, an denen die elektrischen Ereignisse ablaufen. Und die sind beim Kind eben um Größenordnungen komplexer als bei jedem derzeit bekannten KNN, weshalb das Kind in dieser Hinsicht jeder KNN überlegen ist.

    Wenn es (im Beitrag) heißt:

    »Ein KNN braucht Tage und einige Millionen Spielstellungen, um ein neues Spiel zu lernen. Am Anfang des Spiels tappt es vollkommen im Dunkeln. Bevor das künstliche Netz gelernt hat, dass die Figur Richtung Ziel hinauf hüpfen solle, muss es stundenlang Belohnungs- und Strafpunkte sammeln «

    ,

    dann klingt das so, als bräuchte das KNN generell sehr viel länger, um etwas Neues zu lernen als etwa ein Mensch. Dabei fällt aber, so scheint mir, unter den Tisch, dass das menschliche Hirn von Anbeginn seiner individuellen Existenz an ständig lernt und somit das bereits Gelernte in neuen Situationen entsprechend nutzen kann. Dieses im Laufe des individuellen Lebens erworbene Wissen würde ich übrigens nicht als „a priori Wissen“ bezeichnen.

    Ein echtes „a priori Wissen“ wäre für mich das, was im Laufe der Evolution (mindestens über 500 Mio Jahre hinweg) an „Wissen“ erworben wurde und sich in der grundlegenden Architektur des gesamten Nervensystems niedergeschlagen hat. Aber auch dieses „a priori Wissen“ ist in einer Art „Lernprozess“ entstanden, durch „Versuch und Irrtum“ im Evolutionsprozess.

    Insgesamt gesehen hat die biologische Intelligenz also einen ungeheuren Vorsprung gegenüber der künstlichen, was die Dauer des Lernprozesses anbelangt.

    • Balanus: “Danke für den anregenden Beitrag!

      Wenn man die künstliche „Intelligenz/Dummheit“ mit der natürlichen des Menschen vergleicht, dann sollten neurophysiologische Prozesse, die über Stunden hinweg ablaufen, eigentlich nur eine untergeordnete Rolle spielen. Das Erkennen einer Katze erfolgt augenblicklich, da dürfte allein die aktuell vorhandene neuronale Struktur oder Verschaltung von Belang sein. So, wie beim KNN die aktuelle Verschaltung und „Empfindlichkeit“ der Knotenpunkte relevant ist, wenn ein Bit-Muster als Katze „erkannt“ werden soll.

      Wir können uns also, soweit es um das spontane Erkennen von Mustern geht, auf die elektrischen Phänomene konzentrieren. Und an dieser Stelle gibt es, so habe ich den Beitrag verstanden, im Grunde keine fundamentalen Unterschiede zwischen biologischem Hirn und KNN (wenn man mal von der Komplexität der Verschaltung absieht).”

      Jaromir: Danke für die netten Worte! Die freuen. Danke auch für die sehr klugen Anmerkungen. Ich versuche mich damit – jetzt im Zug nach Stuttgart – auseinanderzusetzen:

      Ähnliches habe ich in den Kommentaren hier bereits geschrieben, ich bringe es aber noch einmal:

      Ich glaube schon, dass es fundamentale Unterschiede zwischen biologischem Hirn und künstlichen neuronalen Netzen gibt. Schon das natürliche Neuron ist eine kleine Fabrik mit seinen eigenen Programmen, das die Aktivität in seinem Neuronenverband beeinflusst. Ein “Neuron” in einem künstlichen neuronalen Netz ist nur ein Knotenpunkt, durch den Signale laufen. Inwieweit ein Netz als solches das ganze neuronale System definiert und inwieweit seine Aktivität, die Dynamik der Signale also, die durch das Netz laufen, wissen wir nicht. Darüber habe ich in meinem Blogbeitrag geschrieben “Bin ich mein Konnektom?”

      Folgendes zitiere ich aus meiner Antwort auf den Kommentar von Ingo Damith: “Das Gehirn ist wohl genauso wie ein Multilayer-Perzeptron (künstliches neuronales Netz – KNN) ein universeller Klassifizierer, nur kann ein gut trainiertes KNN besser klassifizieren und Muster in großen Datensätzen erkennen als ein Mensch. Ein Mensch kann dagegen unbekannte Probleme in fremden Umgebungen viel besser lösen als ein KNN. Es kann ja sein, dass unser Gehirn sich aus Millionen neuronaler Netze zusammensetzt, die einzeln ähnlich wie die künstlichen Netze funktionieren, nur viel “geschmeidiger”, da sie zusammen mit der Aktivität in ihnen evolviert sind und nach keinen starren und sehr vereinfachten mathematischen Algorithmen laufen wie die künstlichen. Erst die komplexe Überlagerung dieser Millionen natürlichen Netz stellt jedes künstliche neuronale Netz in den Schatten.

      Führt der Weg zu starker künstlicher Intelligenz, die es genauso wie ein Mensch kann, über die heutigen KNN, die nur viel komplexer und mit Wissen und der Wechselwirkung mit ihrer Umgebung angereichert werden müssen? Oder muss man dafür ganz neue Ansätze und Algorithmen entwickeln? Das sind Fragen, die heute, glaube ich, niemand beantworten kann.”

    • Balanus: “Das heißt, wenn ein Kindergartenkind Katzen besser von Hunden unterscheiden kann als ein KNN, dann liegt das eben an den Strukturen, an denen die elektrischen Ereignisse ablaufen. Und die sind beim Kind eben um Größenordnungen komplexer als bei jedem derzeit bekannten KNN, weshalb das Kind in dieser Hinsicht jeder KNN überlegen ist.”

      Jaromir: Wir müssen zwischen nicht trainierten künstlichen Netzen und trainierten unterscheiden. Ich glaube, die künstlichen Netze der Computer Vision erkennen Gesichter und Objekte mittlerweile so gut wie Menschen, wenn nicht besser.

      Bei dem was Sie oben schreiben, denke ich aber, spielen eine sehr große Rolle eben unsere Vorkenntnisse, um die es in meinem Betrag geht, die die künstlichen Netze nicht haben. Zum Beispiel miaut ein Schatten im Dunkeln, und das Kind weiß sofort, es sei eine Katze und kein Hund – das ist die Vorkenntnis des Kindes, dass Katzen miauen, die das künstliche Netz nicht hat.

    • Balanus: Wenn es (im Beitrag) heißt:

      »Ein KNN braucht Tage und einige Millionen Spielstellungen, um ein neues Spiel zu lernen. Am Anfang des Spiels tappt es vollkommen im Dunkeln. Bevor das künstliche Netz gelernt hat, dass die Figur Richtung Ziel hinauf hüpfen solle, muss es stundenlang Belohnungs- und Strafpunkte sammeln «

      ,dann klingt das so, als bräuchte das KNN generell sehr viel länger, um etwas Neues zu lernen als etwa ein Mensch. Dabei fällt aber, so scheint mir, unter den Tisch, dass das menschliche Hirn von Anbeginn seiner individuellen Existenz an ständig lernt und somit das bereits Gelernte in neuen Situationen entsprechend nutzen kann. Dieses im Laufe des individuellen Lebens erworbene Wissen würde ich übrigens nicht als „a priori Wissen“ bezeichnen.”

      Jaromir: Das stimmt, dass “das menschliche Hirn von Anbeginn seiner individuellen Existenz an ständig lernt und somit das bereits Gelernte in neuen Situationen entsprechend nutzen kann”. Darum geht es auch in dem Blog und das unterscheidet uns wesentlich von den künstlichen neuronalen Netzen – unsere Vorkenntnisse. In der KI-Forschung überlegt man aber schon richtig, warum das künstliche neuronale Netz an einem Million Bilder gelernt haben muss, Katzen als Katzen zu erkennen, während dem Kleinkind nur ein paar gesehene Katzen dafür reichen. Selbstverständlich bleibt die Frage unbeantwortet, ob dafür alle Vorkenntnisse des Kindes reichen, (dass Katzen vierbeinige Haustiere sind, die miauen, Mäuse fangen usw.), um immer eine Katze zu erkennen, auch wenn das Kind nur wenige in seinem Leben gesehen hat, und die meisten davon sowieso bei YouTube.

    • Balanus: “Dieses im Laufe des individuellen Lebens erworbene Wissen würde ich übrigens nicht als „a priori Wissen“ bezeichnen.

      Ein echtes „a priori Wissen“ wäre für mich das, was im Laufe der Evolution (mindestens über 500 Mio Jahre hinweg) an „Wissen“ erworben wurde und sich in der grundlegenden Architektur des gesamten Nervensystems niedergeschlagen hat. Aber auch dieses „a priori Wissen“ ist in einer Art „Lernprozess“ entstanden, durch „Versuch und Irrtum“ im Evolutionsprozess.”

      Jaromir: Ob ich “Vorkenntnisse” oder “a priori Wissen” schreibe, meine ich die Gesamtheit des Wissens, das ein Mensch hat, das vererbte also (Genetik, Evolution, Kultur) und das eigens erworbene (passives und aktives Lernen). Am Ende habe ich mich für “Vorkenntnisse” entschieden, trotzdem habe ich aber einmal “a priori Wissen” verwendet, da es in den englischsprachigen KI-Artikeln so verwendet wird, und ich wollte den Leser nicht verwirren, wenn er in den englischsprachigen Artikeln nach dem Thema sucht: “a priori knowledge”. Im Philosophie-Deutsch heißt “a priori” zwar: “von der Erfahrung oder Wahrnehmung unabhängig; aus der Vernunft durch logisches Schließen gewonnen; aus Vernunftgründen”, andererseits bildungssprachlich: “von vornherein”, was meinen “Vorkenntnissen” recht nahe kommen würde.

  18. Balanus

    Hauptsächlich aus den elektrischen Phänomenen kann man erklären, dass die Informationsverarbeitung im Gehirn, letztlich so wie im Computer, auf die Realisierung der „Codierungstheorie“ und der “Boolschen Algebra” beruht.

    Allerdings gibt es noch das bedeutsame „Empfindungsphänomen“ bei den elektrisch – chemischen biologischen Prozessen. Die Empfindungen generieren nicht nur Motivationen, sie verbreitern zusätzlich die informelle Basis der Verarbeitung. Bedeutet, bei der Katze wird zusätzlich „abgespeichert“ dass sie ein weiches Fell hat, gerne Kontakt mit Menschen sucht … Es gibt bei biologischen Systemen zusätzliche Merkmale (auftretende Empfindungen) zur Objekterkennung.

    Die chemische Wirkung der elektrischen Signale und deren Umsetzung benötigt Zeit. In rein elektrischen Systemen treten (Information abbildende) Signale mit einer Frequenz von einigen Gigahertz auf, in biologischen haben sie höchstens einige 100 Hz. Allerdings erfolgt die Informationsverarbeitung in biologischen Systeme hochgradig „parallel“, in technischen Systemen gibt es sozusagen einen „Flaschenhals“ in der Verarbeitung.

    Ein gewisser Unterschied wäre demnach die Empfindungsfähigkeit biologischer Systeme.

    Ich habe zwar eine private und nicht seriös belegbare Vermutung, so dass die „Gewichtung“ der Signalweiterleitung zumindest auch Einfluss auf die Empfindung nimmt, diese möglicherweise sogar generiert. Die elektrische Signalleitung sollte im Prinzip, eigentlich wie in der Technik auch, von den elektrischen „Impedanzen“ (so etwas wie der „elektrische Widerstand“ der Leitungen und Knoten) abhängen, die auf biologischen Strukturen chemisch „realisiert“ werden.

    Impedanzen bedeuten demnach, dass nicht nur auf die Stärke der Stromflüsse (wie beim elektrischen Widerstand) Einfluss genommen wird, sondern dass auch besondere Phasenverhältnisse und allenfalls Resonanzen auftreten können. Meine vage „Privatvermutung“: Je stärker die Resonanzen desto stärker die Empfindungen, von der Phasenlage hängt weiters ab, ob die Empfindung (lustvoll) angestrebt, oder (schmerzhaft) vermieden werden sollte.

    Die „Gewichtung“ ist ganz allgemein bei biologischen Systemen stark, wenn die Signale „stark“ sind und viele (synaptische) Verknüpfungen in den neuronalen Verbänden abhängig vom Input auftreten.

    Auch beim Menschen wurde viel Wissen nicht nur durch „Selbstversuch und Irrtum“ sondern sozusagen durch systematische Lernprozesse erworben. Beides auch in der technischen KI möglich.

    Um in der KI weiterzukommen, sollte man auf ein geeignetes realistisches „Empfindungsmodell“ aufbauen und dieses algorithmisch abbilden können.

    Mich würden auch Einwände zum von mir vertretenen „Impedanzkonzept“ interessieren.

  19. Wichtiger als Common sense knowledge, also das Wissen über Alltag-Fakten, ist Common sense reasoning, also das unmittelbare Schlussfolgern, das praktisch ständig geschieht, wenn wir etwas erleben oder erfahren. Beispiel: Wenn mir A etwas erzählt, das ich schon von B gehört habe und er auch noch ähnliche Worte verwendet, sage ich vielleicht: “Haben sie das schon mit B besprochen”? Wenn nun A antwortet: “Nein, das habe ich letzte Woche gelesen” schlussfolgere ich, dass sowohl A als auch B das gleiche gelesen haben. Das – und ähnliches – ist für uns eine so selbstverständliche Schlussfolgerung, dass wir sie oft gar nicht mehr wahrnehmen, das Aha stellt sich pratkisch unmittelbar ein. Es sind Sekundenbruchteile in der wir solch einfache Schlussfolgerungen vornehmen, so dass es eigentlich – nach Kahnemann – zum schnellen Denken (schnell, automatisch, immer aktiv, emotional, stereotypisierend, unbewusst) und nicht zum langsamen Denken (langsam, anstrengend, selten aktiv, logisch, berechnend, bewusst) gehört. Gut, man könnte sagen, dass common sense reasoning vielleicht in einem Mittelbereich zwischen schnellem und langsamen Denken beheimatet ist. Dennoch geschieht es so schnell, dass man davon ausgehen muss, dass im Hirn eine Schlussfolgerungsreaktion quasi fest verdrahtet wurde: Der gesunde Menschenverstand bedeutet, dass man bestimmte Zusammenhänge so gut gelernt und erfahren hat, dass die Reaktion in vorgespurten Bahnen abläuft.
    Zu all dem passt die im Beitrag von Jaromir Konecny zitierte Aussage John Mc Carthey (dem AI-Pionier) sehr gut: „Deswegen sagen wir, dass ein Programm den gesunden Menschenverstand (common sense) hat, wenn es automatisch für sich selbst eine ausreichend breite Klasse von unmittelbaren Konsequenzen schlussfolgert, über alles, was es sagt und was es bereits weiß.“

    Wie aber kann man common sense reasoning in Künstlichen Neuronalen Netzwerken implementieren?
    Der Ansatz, welcher in Towards Symbolic Reinforcement Learning with Common Sense verfolgt wird, scheint mir naheliegend und vielversprechend (Zitat, übersetzt von DeepL): Im Gegensatz zu SRL (Symbolic Reinforcement Learning) werden in SRL+CS (Common Sense) nur die Zustände, die Objekte enthalten, mit denen ein Agent interagiert, aktualisiert, wenn die Belohnungen ungleich Null sind (nennen wir dieses Prinzip eins), und die relative Position eines Objekts in Bezug auf einen Agenten wird bei der Entscheidung, welche Aktion zu ergreifen ist, berücksichtigt (nennen wir dieses Prinzip zwei).

    Oder in meinen eigenen Worten: Lerne vor allem aus dem Verhalten von Objekten, mit denen Du interagierst und zwar umso stärker, je näher die Objekte sind.

    Der Begriff SRL, also Symbolic Reinforcement Learning, meint folgendes: Während die neuronalen Netze, welche visuelle Informationen verarbeiten, letztlich auf der Ebene von Bildpunkten aufsetzen, setzt das Symbolic Reinforcement Learning auf erkannten Objekten auf. Das scheint zuerst kein wirklicher Unterschied, denn ein tiefes neuronales Netz, welches auf der Eingabeseite Bildpunkte einliest, kann ja in tieferen Schichten ebenfalls Objekte erkennen. Und doch gibt es einen entscheidenden Unterschied: Bei den typischen neuronalen Netzwerken, welche mit Bildpunkten auf der Eingabeseite beginnen werden auch die tieferen und sehr tiefen Schichten weiterhin von sehr vielen oder gar allen Bildpunkten der Eingabeebene beeinflusst. Das kann dazu führen, dass die Änderung eines einzelnen Bildpunktes auch auf der Eingabeseite zu einem anderen Resultat führt. Beim Symbolic Reinforcement Learning dagegen werden die erkannten Objekte heraussepariert und eine Änderung eines Bildpunktes, der nicht zum erkannten Objekt gehört ändert nichts an der Interpretation des Objekts. Zudem werden die relativen Abstände (räumlich+zeitlich) der Objekte zueinander festgehalten. Oder in den Worten der Autoren (Zitat, übersetzt von DeepL): In DSRL (Deep Symbolic Reinforcement Learning) werden zunächst Objekttypen mit Objekten klassifiziert, deren Positionen von einem Low-Level-Symbolgenerator erfasst werden, der einen Faltungs-Auto-Encoder und eine Spektrumsvergleichstechnik verwendet. Zweitens wird eine räumlich-zeitliche Darstellung aller Objekte erstellt, wobei die relativen Positionen der Objekte in zwei aufeinanderfolgenden Bildern verwendet werden.
    Zum konventionellen Bildverarbeitungsansatz, der als CNN (convolutional neural network) bekannt ist schreiben die Autoren (übersetzt von DeepL): Um die Anzahl der Zustände in einem Bild zu reduzieren, wird die Verwendung eines neuronalen Faltungsneuronalen Netzwerk (CNN) vorgeschlagen, was zu Deep Q-Netzwerken führte. DQNs streben eine Verallgemeinerung der Zustände, die durch Pixelwerte unter Verwendung gelernter Filter und eines vollständig verbundenen rückgekoppelten neuronalen Netzwerks bereitgestellt werden. Allerdings sind die von der CNN verallgemeinerten Zustände konstruktiv abhängig von allen Pixeln im Rohbild, was die Verallgemeinerung über verschiedene Bilder hinweg behindern kann.. In [21] wird beispielsweise gezeigt, dass das Verändern eines Pixelwertes dazu führen kann, dass die Klassifizierung eines CNN ändert oder was im Falle von DQN den Zustand ändert. Darüber hinaus sind die Zustände nicht vollständig translations-, rotations- und größeninvariant und erfordern zusätzliche Manipulationen, um sie robuster zu machen, wie in[7] dargestellt. Zustände, die von CNNs verallgemeinert werden, enthalten keine expliziten Informationen. über die relativen Positionen der Objekte und sind im Allgemeinen durch die festen Abmessungen des Eingabebildes eingeschränkt.

    Zusammengefasst: Symbolisches Bestärkendes Lernen (Symbolic Reinforcement Learning) arbeitet auf der Stufe von erkannte Objekten und erkannter räumlich-zeitlicher Objektbeziehungen indem es eine Welt aufbaut, in der Teilzustände mit relativen Position eines Agenten gegenüber Objekten existiern.
    Die heute für die Bildverarbeitung dominierenden CNNs dagegen tun dies nie explizit, bei CNNs gibt es auch auf der Ausgabeseite immer noch Beziehungen zwischen erkannten Objekten und fast jedem Bildpunkt der Eingabeseite und zudem kennt CNNs die räumlich zeitlichen Beziehungen zwischen Objekten nicht explizit.

    SRL+CS(common sense) bedeutet in Bezug auf den Lernvorgang, dass die Welt als Sammlung von Objekten und ihrer räumlich-zeitlichen Nachbarschaft modelliert wird und dass bei sich Bestärkung des Verhaltens sich nur die Beziehung des Agenten mit demjenigen Objekt ändert, welches vom Agenten berührt wird, also in unmittelbarer Nachbarschaft liegt.
    Oder verkürzt: Wenn dich jemand schlägt, dann beschäftige dich mit dem, der dich schlägt und nicht mit der lieblichen Landschaft, die durchs Fenster scheint.

  20. “Unsere Emotionen sind eine Reaktion auf Reize aus unserer Umwelt, nicht ihre Bewertung….”
    Mit dieser ihrer Einschätzung kann in Zukunft jedes Reh von einem Wolf jederzeit gefressen werden.Flucht -oder KampfReaktionen entwickelt das Reh erst aus der Angst vor dem Reiz WOLF. Diese Angst (Emotion) entwickelt sich also erst aus der Bewertung des Reizes WOLF, denn das Reh “erkennt ” in dem Wolf ein Tier vor dem zum Beispiel seine Mutter -und es selbst damit- geflohen ist. Es ist also eine Bewertung -Konditionierung- zum Reiz erfolgt,die nun automastisch bei diesem Reh wirksam wird. Der Reiz WOLF ist also als Erkenntnis(Bewertung) im Unterbewusstsein des Rehs abgelegt. Die Konditionierung erfolgt über dsas Limbische System genau so wie beim Menschen. Emotionen sind für mich sogesehen nicht nur Bewertungen sondern auch Warnsysteme,was jeder an sich selbst überprüfen kann.

    • Golzower: ” “Unsere Emotionen sind eine Reaktion auf Reize aus unserer Umwelt, nicht ihre Bewertung….”
      Mit dieser ihrer Einschätzung kann in Zukunft jedes Reh von einem Wolf jederzeit gefressen werden.Flucht -oder KampfReaktionen entwickelt das Reh erst aus der Angst vor dem Reiz WOLF.”

      Jaromir: Die Reize aus unserer Umwelt werden von unseren Sinnen wahrgenommen und mit unserem neuronalen System bewertet. Unsere Emotionen sind eine Folge davon und eine offensichtliche Reaktion des neuronalen Systems auf diese Reize, zusammen mit unserer Motorik: Uns zum Beispiel vor Angst (Emotion) vor dem Wolf weglaufen (Motorik) zu lassen. Gefühle bewerten nichts, sie sind Symptome des Wertenden.

      Unser Problem ist hier: Ich versuche in diesem Blog künstliche neuronale Netze mit den natürlichen unseres Gehirns und unseres Nervensystems zu vergleichen: Was kann die KI-Forschung von der Hirnforschung lernen und vice versa? Deswegen betrachte ich zuallererst, was in unserem neuronalen System passiert und nicht Sekundäres. Künstliche neuronale Netze zeigen ja (vorläufig) keine Gefühle. Solche Vergleiche bringen bei der “Gehirn & KI”-Betrachtung also nicht viel.

  21. Innerhalb der AI-Forschungsszene ist gerade jetzt das Thema Common Sense Knowledge (Alltagsfakten, die schnell abrufbar sind) und Common Sense Reasoning (Eingebung,Intuition, unmittelbar Absichten und Konsequenzen erkennen) aktuell.
    Doch wegen dem ganzen AI-Hype werden Fortschritte auf diesem Gebiet oft überbewertet und es wird zudem schon als Fortschritt vermeldet, was noch in einem frühen Erprobungsstadium ist. Das von mir oben verlinkte arxiv-Papier Towards Symbolic Reinforcement Learning with Common Sense scheint mir ein gutes Beispiel für die Folgen dieses AI-Hypes. Da wird zwar ein vielversprechender Ansatz für eine Architektur vorgestellt, die in der Lage ist die richtigen Prioritäten zu setzen indem sie sich auf erkannte Objekte und ihre Lagebeziehungen konzentriert, doch getestet haben die Autoren das System nur gerade mit einem extrem einfachen Videospiel in dem der Spieler “gute” Objekte einsammeln und “böse” Objekte vermeiden muss. Die beiden Prinzipien, die angewandt werden:
    1) Objekte als Symbole behandeln indem man visuell erkannte Objekte von der Umgebung etwas unabhängiger macht und sie translations-, rotationsinvariant etc. darstellt und
    2) Ein Objektnetzwerk unterhalten in dem die Abstände der Objekte und ihre Interaktionen herausgestellt werden

    sind zudem eigentlich so selbstverständlich und trivial, dass man sich wundern muss, dass dies nicht schon längst in AI-Architekturen gemacht wird.
    Die Öffentlichkeit hat aber einen ganz anderen Eindruck von AI. Verbreitet ist die Annahme, der unmittelbare Umbruch stehe unmittelbar bevor und Arbeit und Forschung werde schon morgen von Robotern erledigt.
    Doch gerade solche Arbeiten wie die verlinkte zeigen, dass in der KI-Forschung noch an grundlegenden Problemen gearbeitet wird und wohl mehrere Doktorandengenerationen hier noch ihre Sporen abverdienen müssen.

    • Martin Holzherr: “Die Öffentlichkeit hat aber einen ganz anderen Eindruck von AI. Verbreitet ist die Annahme, der unmittelbare Umbruch stehe unmittelbar bevor und Arbeit und Forschung werde schon morgen von Robotern erledigt.”

      Jaromir: Da gehe ich vollkommen mit Ihnen. Ich wäre auch glücklicher, wenn wir den Begriff “künstliche neuronale Netze” statt “künstliche Intelligenz” (KI) verwendet würden, da der Begriff KI einerseits viel zu viel verspricht, was er nicht halten kann, andererseits vielen auch Angst macht. Hier ist Aufklärung notwendig. Ich finde auch, ohne starke KI zu sein, leisten die künstlichen neuronalen Netze Erstaunliches und werden so oder so schon jetzt, wie sie sind, unser ganzes Leben umwälzen.

      Vielleicht sollten wir im Deutschen einfach “Maschinenlernen” verwenden. Das ist präziser als KI und KNN und ist auch kürzer. Deswegen habe ich die URL “www.maschinenlernen.com” bestellt. “.de” war schon weg. 🙂

  22. @Jaromir Konecny
    24. September 2018 @ 12:59
    24. September 2018 @ 13:11

    Danke für die Antwort(en)!

    Ich finde es nach wie vor etwas irritierend, wenn man beim Gehirn von Vorkenntnissen spricht, wo es sich doch um das Ergebnis von (umfassenden) Lernprozessen handelt, evolutionär erworben oder eben individuell, Lernprozesse in gigantischer Zahl, die das reife Gehirn bereits hinter sich gebracht, ein neu konstruiertes KNN aber noch vor sich hat (soweit es die Technik überhaupt zulässt). Dass bei bestimmten Aufgaben ein trainiertes KNN besser oder schneller ist oder sein kann als das Hirn, ist klar.

    Man würde bei einem Vergleich zweier KNNs ja auch nicht sagen, ein bereits trainiertes KNN besäße gegenüber dem nicht trainierten (so etwas wie) Vorwissen oder Vorkenntnisse.

    Zum fundamentalen Unterschied zwischen Hirn und KNN: Wenn es wirklich nur um die Prozesse geht, die sich im Bereich von ein bis 1000 Millisekunden abspielen, wie etwa bei der blitzartigen Gesichtserkennung, glauben Sie wirklich, dass da die intrazelluläre Biochemie der Neuronen eine tragendende Rolle spielt? Die neuronale Biochemie dient doch im Wesentlichen „nur“ dem Auf- und Abbau sowie der Erhaltung der zellulären Verknüpfungen, also der Herstellung des Gerüstes, an dem die entscheidenden elektrophysiologischen Prozesse dann ablaufen können.

    Dass ein lebendes Nervengewebe etwas fundamental anderes ist als ein „totes” KNN, wird wohl keiner bestreiten wollen. Aber hinsichtlich der Fähigkeit zur Informationsverarbeitung scheint mir da kein fundamentaler oder schon gar kein kategorialer Unterschied zu bestehen, sondern nur ein gradueller.

    • Balanus: “Ich finde es nach wie vor etwas irritierend, wenn man beim Gehirn von Vorkenntnissen spricht, wo es sich doch um das Ergebnis von (umfassenden) Lernprozessen handelt, evolutionär erworben oder eben individuell, Lernprozesse in gigantischer Zahl, die das reife Gehirn bereits hinter sich gebracht, ein neu konstruiertes KNN aber noch vor sich hat (soweit es die Technik überhaupt zulässt). Dass bei bestimmten Aufgaben ein trainiertes KNN besser oder schneller ist oder sein kann als das Hirn, ist klar.”

      Jaromir: “Ein neu konstruiertes KNN” gewinnt beim Lernen eben nur die “Vorkenntnisse” seiner einzelnen tiefen Schichten: Das heißt die erste tiefe (verdeckte) Schicht liefert “Vorkenntnisse” der nachfolgenden zweiten tiefen Schicht und so weiter und sofort. Da aber künstliche neuronale Netze nur auf eine einzelne Aufgabe hin trainiert werden können, haben sie nach dem Training nur die “Vorkenntnisse” aus dem Datensatz, mit dem sie auf diese einzelne Aufgabe trainiert werden. Dem Menschen steht dagegen im Moment, indem er ein Problem lösen muss, sein ganzes vererbtes und in seinem Leben erworbenes Wissen für die Lösung dieses Problems zur Verfügung.

      Das heißt: Wenn ein Mensch und ein künstliches neuronales Netz am Spielanfang von Montezuma’s Revenge stehen, weiß der Mensch sofort, dass die Figur im Spiel sich Richtung Tür, die Stufen hoch und so weiter bewegen soll, weil der Mensch dank seinen “Vorkenntnissen” (seinem gesamten Wissen VOR diesem Spiel) weiß, wozu Türen und Stufen dienen und dass man in einem Wettbewerb nun mal zu einem Ziel laufen muss.

      Diese “Vorkenntnisse” hat ein künstliches neuronales Netz nicht. Deswegen muss es ein paar Stunden lang herumprobieren, bis es an Belohnungen und Bestrafungen gelernt hat, richtig zu spielen. Einfach gesagt bezieht sich das Wort “Vorkenntisse” auf das Wissen eines Menschen und eines künstlichen Netzes eben vor diesem einem Spiel und relativ dazu. Oder vor dem Lösen eines anderen Problems und relativ dazu.

    • Balanus: “Zum fundamentalen Unterschied zwischen Hirn und KNN: Wenn es wirklich nur um die Prozesse geht, die sich im Bereich von ein bis 1000 Millisekunden abspielen, wie etwa bei der blitzartigen Gesichtserkennung, glauben Sie wirklich, dass da die intrazelluläre Biochemie der Neuronen eine tragendende Rolle spielt? Die neuronale Biochemie dient doch im Wesentlichen „nur“ dem Auf- und Abbau sowie der Erhaltung der zellulären Verknüpfungen, also der Herstellung des Gerüstes, an dem die entscheidenden elektrophysiologischen Prozesse dann ablaufen können.”

      Jaromir: Die neuronale Biochemie ist auch die Grundlage aller Hirnaktivität, somit vor allem der elektrischen Ströme/Signale, die durch Neuronen und Neuronenverbände fließen und die eigentliche Musik machen: An den Synapsen des Ausgangsneurons werden Neurotransmitter freigesetzt, die an die Rezeptoren des Eingangsneurons koppeln und das Freisetzen oder Binden von Kalium-, Natrium- und Calcium-Kationen bewirken, die wiederum mit den Protein- und Chlorid-Anionen wechselwirken und einen Spannungsgradienten im Eingangsneuron verursachen oder auch abschwächen. Auch bei der Entladung strömen Ionen aus und in und durch die Zelle. Das alles ist Biochemie. Bitte um Entschuldigung, dass ich das hier sehr vereinfacht zusammengefasst habe. Diese Prozesse sind viel komplexer, trotzdem biochemisch. Was sonst?

  23. Zu:”Künstliche neuronale Netze:
    Ich verstehe ihre Argumentationen, Herr Konencny. Wenn Sie, so meine Ansicht, die Neuronalen Netze verstehen wollen, müssen sie die Evolution befragen und in der Geschichte der Gehirnentwicklung zurückgehen. Will sagen: Sie müssen nicht den zweiten und vierten Schritt machen,sondern den ersten Schritt zuerst. Neuronale Netze sind für mich ein Verbund von expliziten und impliziten Lernen,was sich auch und besonders im Gehirnaufbau zeigt.Implizites Lernen war evlutionär zuerst da und bewirkt weiterhin entscheidend das explizite Lernen.Die Ausschüttung von Neurotransmittern an den Synapsen bzw. ihre Verdrahtungen sind lediglich das sekundäre Ergebnis der Bewertungsprozesse und nicht die Ursachen!
    Man kann also kein Auto bauen, wenn man die Konstruktionspläne der EVOLUTION nicht kennt.Gefühle sind Symptome des Wertenden ,womit ich ihnen zustimme. Gleichzeitig sind sie aber auch das Ergebnis von Wertungsmustern sowie als “WERTMAßSTAB “evolutionär in jedem Gehirn verankert. Ohne Gefühle keine natürliche Intelligenz. Geben sie ihrer künstlichen Intelligenz “WertungsMuster”.

    • Golzower: “Wenn Sie, so meine Ansicht, die Neuronalen Netze verstehen wollen, müssen sie die Evolution befragen und in der Geschichte der Gehirnentwicklung zurückgehen.”

      Jaromir: Ich habe acht Jahre lang an der TU München über die Evolutionstheorie und die Entstehung des genetischen Codes geforscht und bin damit fürs Ganze Leben vorbelastet: 🙂 Wenn ich bei meinen Überlegungen zur Hirnforschung etwas befrage, dann immer zuerst die “Evolution”.

      Wie Gefühle zustande kommen, damit beschäftige ich mich seit langem ziemlich viel, in dem Video in meinem Blogtext wird ja auch Literatur dazu genannt, das wunderbare Buch “How Emotions Are Made” 🙂

      Ich gebe Ihnen aber recht: Wenn wird die gesamte Evolution des Gehirns modellieren bzw. nachvollziehen könnten, würden wir wohl auch viele neue Ansätze für die Entwicklung neuer Algorithmen für künstliche neuronalen Netze entdecken. Deswegen erforscht man ja auch zielstrebig das kleine neuronale Netz von nur 302 Neuronen des Fadenwurms.

  24. Vermutlich ist der sogenannte gesunde Menschenverstand, etwas sehr Gutes, auch wenn ihn manche in Zusammenhang mit dem gesunden Volksempfinden bringen, bösartigerweise, wohl nur für den Menschen erreichbar.
    Bestimmte politische Ideologien, idR kollektivistische, wollen ihn angreifen bis rauskriegen, was aber stets nur in Teilen gelingt.
    Immerhin ist durch das sogenannte Machine Learning nun doch i.p. KI etwas Brauchbares entstanden, es musste ja lange gewartet werden, insbesondere auch auf hohe Rechenleistung.
    MFG
    Dr. Webbaer (der immer noch auf Vorschläge für die Definition von Intelligenz [1] wartet – was bspw. Klugheit, Weisheit, Verständigkeit, Abgefeimtheit sind, weiß dagegen jeder)

    [1]
    “Intelligenz liegt dann vor, wenn sogenannte IQ-Tests erledigt werden konnten”, ist etwas dünn.

  25. Zum Wesen des Lernens noch kurz dieses angebliche Einstein-Zitat ergänzt :

    Die Definition von Wahnsinn ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten.

    Einstein hat’s so wohl nie gesagt, denn es wäre falsch “Wahnsinn” derart zu definieren, “Wahnsinn” wird üblicherweise als Abwesenheit der Ratio verstanden.
    Die Naturwissenschaften häufen insofern Evidenz an, gerne auch sehr sehr viel, um eben doch mal andere Ergebnisse generiert zu sehen.
    Die Naturwissenschaften gehen heutzutage skeptizistisch vor, es wird ja nicht mehr verifiziert, sondern die Falsifikation von Theorie gesucht.
    Zudem kann sich das Verhalten der Welt ja auch irgendwann ändern, die Welt als “Black Box” sozusagen, der Lernende ist Weltteilnehmer, nie Weltbetreiber.
    In Hinsicht gilt :

    Die Definition der Naturwissenschaften ist, immer wieder das Gleiche zu tun und andere Ergebnisse zu erwarten.

    Und so gilt es auch für das Lernen, dessen Wesen prozeduraler Art ist.

  26. @Balanus / 23. September 2018 @ 11:32

    Wir können uns also, soweit es um das spontane Erkennen von Mustern geht, auf die elektrischen Phänomene konzentrieren. Und an dieser Stelle gibt es, so habe ich den Beitrag verstanden, im Grunde keine fundamentalen Unterschiede zwischen biologischem Hirn und KNN (wenn man mal von der Komplexität der Verschaltung absieht).

    Was das spontane Erkennen betrifft, gilt es zunächst einmal zu unterscheiden: Erkennen ist eine der drei Leistungen im Dienst der sogenannten Informationsverarbeitung, die erst an zweiter Stelle (beim prädikativen Denken) vorkommt, nach der Wahrnehmung. Wahrnehmen tut Mensch über seine Sinnesorgane, bei KNN gibt es die nicht. Im menschlichen Gehirn gibt es deshalb aber primäre Zentren, in denen die jeweils wahrgenommenen Reize getrennt “verarbeitet” werden. Nicht ohne Grund basieren die Begriffe (sic!) mit denen wir ausdrücken, etwas gelernt bzw. verstanden zu haben, auf unserem haptisch-taktilen Sinn: wir begreifen, wie erfassen, was wir erkannt oder verstanden haben. KNN tun dies nicht. Und wir erkennen auch keine Muster, sondern im Gehirn arbeiten, die verschiedenen Sinnessysteme zusammen, um dann, auf höherer Ebene, zu einem Erkennen zu kommen.
    Wenn Sie einmal ein Kleinstkind (acht Wochen-drei Monate) bei der Auseinandersetzung mit einem Gegenstand beobachtet haben, werden Sie feststellen, dass anfangs der überwiegende Teil der Auseinandersetzung über das haptisch-taktile System geht: es greift den Gegenstand, steckt ihn in den Mund, befingert ihn, schaut ihn zwischendurch an, erwirbt dadurch nicht nur einen visuellen Eindruck, sondern zunächst einen haptischen. Und noch in der präverbalen Phase ist es fähig, Kategorien zu bilden, die es ihm ermöglichen, Hunde von Katzen zu unterscheiden .
    Das menschliche Gehirn mag zwar vom Aufbau her Ähnlichkeit mit künstlich neuronalen Netzen haben, aber es arbeitet völlig anders. Und es erkennt keine Muster, das können nur wir.

  27. Das menschliche Gehirn mag zwar vom Aufbau her Ähnlichkeit mit künstlich neuronalen Netzen haben, aber es arbeitet völlig anders. Und [KNN – Ersetzung von Dr. Webbaer] erkennt keine Muster, das können nur wir. [wundervolle Kommentatorenfreundin Trice]

    Im dankenswerterweise bereit gestellten Text sind Beispiele für das Entwickeln von Mustern genannt worden, auch Spiele betreffend, vgl. bspw. auch hiermit :
    -> http://www.spiegel.de/netzwelt/gadgets/alphago-besiegt-weltbesten-go-spieler-ke-jie-in-go-turnier-a-1148889.html

    “Brute Force” ist hier nichts zu machen.

    MFG + schöne Mittwoche,
    Dr. Webbaer

  28. Bonuskommentar zum dankenswerterweise zur Verfügung gestellten Text, insbesondere hierzu :

    Indem ein künstliches neuronales Netz lernt, versucht es im Grunde, eine Funktion zu finden, die am besten die Abhängigkeit der Ausgabewerte (Output) des Netzes von seinen Eingabewerten (Input) beschreibt.

    Diese Funktion als Muster sozusagen.

    Ein KNN lernt nicht, was ‘am besten’ ist, sondern was besser ist, als zuvor Versuchtes.
    Ein KNN wird demzufolge nie optimal verstehen, dies geht zumindest bei hoher Komplexität nicht, ansonsten wäre es “Brute Force”, sondern lernt, kann dabei auch irren und schwer falsch liegen, obwohl es fortlaufend lernt und (relativ) besser wird.

    Insofern gilt es auch für unsere Freunde, die KNNe, kompetitiv zu werden und in Konkurrenz zu lernen, sozusagen Gesellschaft nachzubilden, Diversität zu pflegen.
    Immer im Bewusstsein (bei hoher Komplexität] nie optimal zu handeln, nie fertig zu sein – und auch grob falsch liegen zu können.

    • Dr. Webbaer: “Ein KNN lernt nicht, was ‘am besten’ ist, sondern was besser ist, als zuvor Versuchtes.”

      Jaromir: In jedem Lernschritt lernt ein KNN grundsätzlich das Minimum der Kostenfunktion zu finden bei den gegebenen Gewichten der Verbindungen zwischen den Neuronen, also den kleinsten Fehler des Netzes. Denn so sind die algorithmischen Vorgaben für das Netz. Dadurch ermittelt das Netz die Funktion, die am besten die Ausgabewerte in Abhängigkeit der Eingabewerte beschreibt. Das Minimum der Kostenfunktion wird mit mathematischen Methoden des “Gradientenabstiegs” ermittelt, damit werden neue Gewichte für die Verbindungen zwischend den Neuronen berechnet – der Fehler wird ins Netz zurückgeführt (Backpropagation).

      Selbstverständlich wird aber die Funktion, die die Ausgabewerte in Abhängigkeit von den Eingabewerten beschreibt immer besser, an je mehr Daten sie lernen kann.

    • Dr. Webbaer: “Insofern gilt es auch für unsere Freunde, die KNNe, kompetitiv zu werden und in Konkurrenz zu lernen, sozusagen Gesellschaft nachzubilden, Diversität zu pflegen”

      Jaromir: Mit den vorhandenen Algorithmen ist es einfach nicht möglich, einem künstlichen neuronalen Netz mehr beizubringen als das Lösen einer einzigen Aufgabe oder, in einem Datensatz Muster bzw. Klassen zu finden. Deswegen können KNN nur bei der Lösung einer einzigen Aufgabe in Konkurrenz treten, wie DeepMind zum Beispiel verschiedene Netze beim Lösen eines bestimmten und vorbereiteten IQ-Test verglich (siehe den vorigen Blogtext). Mit Menschen sind KNN schon überhaupt nicht zu vergleichen.

      Um zur allgemeinen künstlichen Intelligenz (starke KI) zu kommen, deren Denkfähigkeiten mit den menschlichen verglichen werden könnten, müsste man entweder Millionen, vielleicht Milliarden, KNN gekonnt überlagern und zusammen koppeln, oder ganz neue Ansätze finden, wie eine solche KI gebaut werden kann.

  29. Nicht ohne Grund basieren die Begriffe (sic!) mit denen wir ausdrücken, etwas gelernt bzw. verstanden zu haben, auf unserem haptisch-taktilen Sinn: wir begreifen, wie erfassen, was wir erkannt oder verstanden haben. [Kommentatorenfreundin ‘Trice’]

    Jein.

    “Wir” begreifen, d-sprachig, in anderen Sprachen, vgl. bspw. mit dem Begriff, äh, ‘Term’, ist eher die Zeitlichkeit gemeint, die Entwicklung von Etwas.

    Zusammengefasst als “Griff” und “Zeitlichkeit” wäre Dr. Webbaer bei Ihnen, es geht ja nicht nur im Naturwissenschaftlichen um die Arbeit am Versuch, der ausschnittsartig, näherungsweise und an Interessen (!) gebunden erfolgt, was wiederum ausschnittsartig, näherungsweise und an Interessen (!) gebundene Theoretisierung (“Sichtenbildung”, Sichten auf Daten sind gemeint) erzeugt. [1]

    Die KNN tun dies ähnlich, sie folgen einem anderen Motivationsimperativ [2], sie sind (noch) Diener und leben nicht, denn Leben bedingt Sterben und sozusagen besondere Kompetivitität, abär sie scheinen auf einem guten Wege. [3]

    MFG + schöne Mittwoche noch,
    Dr. Webbaer

    [1]
    Insofern liegt (auch) im Naturwissenschaftliche nackte Veranstaltung vor, nichts Schlechtes daran.

    [2]
    Derartige Imperative sind zu entwickeln, im Vorbau, bevor sich im erkennenden Sinne näher, wie oben beschrieben, ‘ausschnittsartig, näherungsweise und an Interessen (!) gebundenen’ bemüht werden kann.
    Bei der AI schaut’s hier mau aus.
    Womöglich : dankenswerterweise.

    [3]
    Wolfgang Schäuble, Dr. Wolfgang Schäuble hat sich über die Jahrzehnte hinweg als böse ein wenig ins Hirn des Webbaeren geschlichen.
    AI, die mit dem hier gemeinten Erkenntnissubjekt direkt konkurriert darf nicht geschaffen werden, es liegt hier eine sozusagen definitorische Selbstverständlichkeit vor.

  30. Gesunder Menschenverstand ist mehr als eine Sammlung von Fakten. Nicht etwa das Wissen, dass Zitronen sauer sind ist entscheidend, sondern wie der Mensch sich
    1) dieses Wissen aneignet und
    2) wie er es präsent hält und schnell abrufbar macht.
    Zu 2) : Selbst spüre ich die Säure einer Zitrone nur schon wenn ich sie anschaue oder daran denke. Diese Unmittelbarkeit des Wissens und auch des Schlussfolgerns (z.B es ist 20h und (Schlussfolgerung) die Einkausläden sind zu) ist unverzichtbar für das fluide, unmittelbare Denken und Handeln. Ohne die Schnelligkeit mit der das geschieht wären wir alle gelähmt und bar jeder Lebendigkeit.
    Zum gesunden Menschenverstand gehört auch die Fähigkeit gelerntes zu verallgemeinern und auf andere Anwendungsbereiche anwenden zu können. Während künstliche neuronale Netzwerke heute in Klassifizierungen grosser Datensets (z.B. Alle Thoraxröntgenbilder oder alle Tierfotographien) dem Menschen überlegen sind, sind sie heute nicht in der Lage das Gelernte auf andere Anwendungsgebiete zu transferieren und sie können auch nicht dazulernen ohne dass bestehendes Wissen durch neues verdrängt wird (katastrophales Vergessen).
    Mein Verdacht: Der Mensch ist zu besseren, kostengünstigeren Abstraktionen als heutige KNNs in der Lage. Überhaupt spart der Mensch auf raffinierte Weise Speicherplatz ein, indem er schon Bekanntes gar nicht mehr „richtig“ wahrnimmt. Das kann aber nur mit den richtigen Abstraktionen und vor allem den richtigen Abstraktionstechniken funktionieren!

    • Martin Holzherr: “Gesunder Menschenverstand ist mehr als eine Sammlung von Fakten. Nicht etwa das Wissen, dass Zitronen sauer sind ist entscheidend, sondern wie der Mensch sich
      1) dieses Wissen aneignet und
      2) wie er es präsent hält und schnell abrufbar macht.”

      Jaromir: Das stimmt, dass der gesunde Menschenverstand mehr als eine Ansammlung von Fakten ist. Nur sollten wir dabei nich vergessen, dass ein künstliches neuronales Netz (KNN) lernen und anschließend im engen Bereich seiner Aufgabe generalisieren kann. Es ist also nicht auszuschließen, dass eine sinnvolle Überlagerung von vielen künstlichen neuronalen Netzen (vergleichbar der unseres Gehirns) und die Verkopplung ihrer Fähigkeiten zu generalisieren mit einem breiten Wissen über seine Umwelt und mit guter Sensorik, die Reize aus dieser Umwelt als Input verwerten kann, etwas ähnliches wie den gesunden Menschenverstand hervorbringt.

      Die Frage ist also: Ist unser gesunder Menschenverstand MEHR als das Ergebnis einer hochkomplexen Verschachtelung von Millionen neuronalen Netzen in unserem Gehirn zusammen mit der Gehirnaktivität, die in ihnen stattfindet? (Und unseres Wissens und “Embodiments” in unserer Umwelt.) Wenn ja, dann was ist das “Mehr”?

      Das einzige “Mehr”, das ich hier sehe, ist der Beitrag der einzelnen Neuronen im Hirn, die nicht punktuell sind, wie in einem KNN, sondern in vielen Funktionen autonome und hochkomplexe Zellen. Diese Neuronen sind aber für die Gehirnaktivität verantwortlich, stecken also schon in der Gleichung drin:

      Komplexes System v. neuronalen Netzen + Hirnaktivität + Wissen + Embodiment = Verstand bzw. Bewusstsein

  31. @Dr. Webbaer /
    26. September 2018 @ 07:39

    Diese Funktion als Muster sozusagen.

    Oder: Jedem Punkt auf der Netzhaut entspricht ein Neuron, das über eine Synapse mit einem Neuron einer zweiten Schicht verbunden ist – es konvergiert mit anderen Neuronen auf dieses der zweiten Schicht.Neurone der zweiten Schicht können verschiedene Muster von Übergangsgewichten haben, insofern, ja: ok, insofern kan man ein Neuron der zweiten Schicht als Musterdetektor bezeichnen.

    Nur wie gesagt, so funktioniert es im Gehirn eben nicht. 🙁

    Zu Alpha Go:

    Die (…)Firma Deepmind fütterte das Programm erst mit mehreren Dutzend Millionen Zügen aus Spielen menschlicher Meister. Dann spielte die Software Millionen Partien gegen sich selbst – und analysierte, welche Züge sie ans Ziel brachten.

    Ich finde die Studie leider nicht mehr, in der die Augenbewegungen von Anfängern nd Meistern im Schachspiel analysiert wurden: Anfänger schauen auf die Figuren bzw. den Zug einer Figur zum Zielfeld, Meister schauen zwischen die Figuren und Felder.
    Könnte natürlich genauso funktionieren wie eben beschrieben, nur: was für ein Muster sollte das ergeben, das detektiert bzw. erkannt werden soll?

    26. September 2018 @ 09:15
    Ich:

    wir begreifen, wie erfassen,

    Sie:

    “Wir” begreifen, d-sprachig, in anderen Sprachen, vgl. bspw. mit dem Begriff, äh, ‘Term’, ist eher die Zeitlichkeit gemeint, die Entwicklung von Etwas.

    Ich hatte es schlicht etymologisch gemeint: greifen von ahd: grifan, mhd:grifen, got. gripan; und erfassen von ahd. fazzon (ergreifen, fangen), usw.
    Wenn Sie die Zeitlichkeit mit hineinnehmen wollen, also den Prozess, der sich vom Wahrnehmen bis zum Begreifen bzw. Erfassen vollzieht, ist das tatsächlich ein Entwicklungsprozeß, hirnphysiologisch wie kognitionspsychologisch gesehen.

    In diesem Zusammenhang vielleicht interessant: In einem Test untersuchte Schwank, worauf zweijährige Kinder zum Zweck des Erkennens achten: sie baute eine Holzeisenbahnstrecke mit einer Brücke auf, unter der Brücke befand sich ein Glockenspiel. Dazu gab es zwei Lokomotiven, eine graue und eine rotgrüne. Fuhr die graue über die Brücke, passierte nichts, fuhr die rot-grüne über die Brücke erklang das Glockenspiel. Anschließend durften die Kinder das ausprobieren. Die meistenKinder nahm die rotgrüne Lokomotive und ließen sie mehrmals über die Brücke fahren. Einige wenige nahmen ebenfalls die rotgrüne, aber sie untersuchten sie vorher und stellten fest, dass die einen Hebel hatte, der die Töne verursachte.

    Ein KNN würde sicherlich auch nach zigmaligem Vorführen gelernt haben, dass (sofern es auch Geräusche verarbeiten kann) die rotgrüne Lok Klingeltöne erzeugt. Aber ich bezweifle, dass es je auf den Gedanken käme, bei der Lok nach der Ursache zu suchen.

  32. Zitat Golzower: “Tiere und Menschen werden täglich /stündlich/sekündlich einer Unzahl von Reizen ausgesetzt. Da das Gehirn eine “Reizbewertungsmaschine” ist, bewertet es alle Reize nach dem Schema: bekannte, unbekannte; gefährlich bzw. ungefährlich;angenhem oder unangenehm ,befriedigende und unbefriedigende etc.) Für diese Bewertung hat die Evolution uns Menschen und den Tieren auch die die Emotionen gegeben. Wir können aber REIZE nur einordnen, wenn wir vorher bereits eine Erfahrung (Erlebnis) dazu gemacht haben.

    .
    Diesen Ansatz finde ich einleuchtend und für mich bedeutet es: Es gibt kein Denken ohne Fühlen. Der Spruch von Descartes sollte nicht heißen „Ich denke, also bin ich“, sondern „Ich fühle, also bin ich“.

    Das bedeutet wiederum, dass man eine Maschine zum selbständigen Denken, zum individuellen Lernen und individuellen Problemlösungen bauen kann, nur wenn man herausgefunden hat, wie Gefühle im Gehirn entstehen und wenn man sie in eine Maschine einprogrammieren kann. Wie die Informationsverarbeitung funktioniert ist aus meiner Sicht nämlich nur die halbe Miete, wir müssten den Antrieb der Informationsverarbeitung auch einprogrammieren, die Gefühle. Und dann stellt sich natürlich in erster Linie eine grundsätzliche ethische Frage: Darf man eine Maschine bauen, die leiden kann?

  33. @Jocelyne Lopez betreffend Gefühle: Denken kann man auch ohne Gefühle – es gibt ja auch gefühlsarme Menschen. Gefühle sind aber eine Art Bewertung von etwas Erlebtem oder einem Reiz. Und wir bewerten ja ständig und filtern damit für uns Wichtiges von weniger wichtigem aus. Letztlich geht es auch um die Sinnhaftigkrit des Denkens und Erlebens. Gefühle und Gefühlsentwicklungen erleben wir meist in einem Sinnzusammenhang.

  34. @Trice // 25. September 2018 @ 15:46

    Schönen guten Abend, ich habe zu einigen Ihrer Aussagen mal wieder ein paar Fragen. Sie schreiben:

    »Erkennen ist eine der drei Leistungen im Dienst der sogenannten Informationsverarbeitung, die erst an zweiter Stelle (beim prädikativen Denken) vorkommt, nach der Wahrnehmung. Wahrnehmen tut Mensch über seine Sinnesorgane, bei KNN gibt es die nicht.«

    Einverstanden, erst kommt die Perzeption an den Sinnesorganen, dann die Wahrnehmung irgendwo im Hirn und schließlich das Erkennen (deuten, werten), auch irgendwo im Gehirn.

    Aber wieso soll ein KNN nicht über einen sensorischen Input verfügen können? Irgendwie müssen die Daten ja ins KNN gelangen können, damit Informationsverarbeitung überhaupt stattfinden kann. Entsprechend ausgerüstet, könnte eine künstliche Hand die Rauheit einer Oberfläche prüfen, den pH-Wert von Wasser testen, dessen genaue Temperatur oder die Leitfähigkeit, oder was auch immer technisch irgendwann mal möglich sein wird.

    »Das menschliche Gehirn mag zwar vom Aufbau her Ähnlichkeit mit künstlich neuronalen Netzen haben, aber es arbeitet völlig anders.«

    Daran habe ich bislang noch gar nicht gedacht: Eigentlich sollte es doch möglich sein, ein KNN so zu konstruieren, dass es wenigstens prinzipiell wie ein „funktional arbeitendes“ Gehirn (oder zumindest Teile davon) funktioniert. Oder sehen Sie da nicht überwindbare Hürden grundsätzlicher Art?

    » Und es [das Gehirn] erkennt keine Muster, das können nur wir.«

    Wenn ich (als Person, Subjekt, Organismus) ein Muster erkenne, dann tue ich das mittels meines (eines, des) Gehirns. Und da im Schädel nichts anderes ist als das Gehirn und seine „Hilfsstrukturen“, dann kann ich doch auch gleich sagen, dass das Gehirn Muster erkennt. Jedes Organ hat seine Funktion(en), die Leber produziert unter anderem Galle, die Niere Urin und das Gehirn erkennt u.a. eben Muster.

  35. @Golzower // 25. September 2018 @ 09:55

    » Man kann also kein Auto bauen, wenn man die Konstruktionspläne der EVOLUTION nicht kennt. «

    Na ja, wo liefert denn die Evolution Baupläne für Autos? Oder Diesel-Motoren mit Schummel-Software?

    Richtig ist, dass die Evolution zufällig eine grandiose „Denkmaschine“ zustande gebracht hat, sogar eine mit Bewusstsein.

    Aber es gibt auch evolutionäre Mängelwesen. Beziehungsweise biologische Konstruktionen, die nur für einen winzig kleinen Bereich tauglich sind.

    Nehmen wir z. B. das Fliegen, da gibt es ganz unterschiedliche Fähigkeiten bei Insekten und Vögeln. Der Mensch hat für sich ganz eigene Lösungen gefunden, die es so im Tierreich nicht gibt.

    Vielleicht geht es in der Informationstechnologie ja ganz ähnlich: KNN sind möglicherweise nur eine Variante, andere Verfahren könnten sich, je nach Aufgabe und Problemstellung, als viel leistungsfähiger und effektiver erweisen.

    Vielleicht müssen wir auch in der KI-Forschung das Fliegen neu erfinden.

  36. Die bisherige Ingenieurskunst will Dinge eigentlich nicht nachbauen, sondern augrund grundlegender physikalischer Prinzipien unter Berücksichtigung real vorhandener Materialien, ein System nach eigenen Vorstellungen realisieren. So gesehen spricht nicht die Analogie, die biomimetische Ähnlichkeit zwischen natürlichen und künstlichen neuronalen Netzen für künstliche neuronale Netze, sondern allein der Erfolg, der mit künstlichen neuronalen Netzen erreicht wird, spricht dafür sie weiter einzusetzen und zu untersuchen. Untersuchen bedeutet auch sie zu verstehen und das wiederum heisst die dahinterliegende Mathematik verstehen. Der Mensch als Ingenieur gibt sich (im Unterschied zur Natur?) eigentlich nie damit zufrieden, dass etwas funktioniert – er will es auch verstehen. Der letzte Satz von Richard Feyman vor seinem Tod war zwar: „What I cannot create, I do not understand“, doch damit meinte er auch, dass man Dinge mit denen man umgeht auch verstehen sollte. Bei künstlichen neuronalen Netzen ist es aber eher so, dass man sie zwar kreieren, erschaffen kann, sie aber heute noch nicht vollständig versteht – für einen ingenieursmässig denkenden Mensch ziemlich unbefriedigend.
    Gibt es denn überhaupt Alternativen zu tief verschachtelten künstlichen neuronalen Netzen beim maschinellen Lernen, beispielsweise beim klassifizieren/kategorisieren?
    Die Antwort ist ja. Es ist vor allem der Bayessche Ansatz, der viel versprechend ist und auch zu kürzen Lernzeiten mit wenig Lernschritten führt. Allerdings ist der Rechenaufwand dafür heute oft noch zu gross. Beim Bayes‘schen Schlussfolgern kann man zudem angeben, mit welcher Wahrscheinlichkeit ein Resultat, zum Beispiel eine Klassifizierung eines Gefährts als Mercedes Modell XY korrekt ist – etwas was man bei tiefen neuronslen Netzen nicht kann.
    Mit Bayes-Methoden meint man generell Methoden, die mit Wahrscheinlichkeiten und Wahrscheinlichkeitsentwicklungen arbeiten und wo Lernen bedeutet, dass die Sicherheit der Aussage steigt. Auch unser eigenes Denken ist übrigens stark von Wahrscheinlichkeiten geprägt. Wenn wir beispielsweise etwas nicht genau erkennen können sagen wir schnell: entweder ist es „das“ oder „das“ oder aber das. So etwas kann aber ein konventionelles neuronales Netz nicht.
    Besonders vielversprechend ( aber auch extrem rechenaufwendig ) für KI-Anwendungen sind die ebenfalls zu den Bayes-Methoden gehörigen Gaussian Processes (Zitat Wikipedia übersetzt von DeepL): Ein maschineller Lernalgorithmus, der einen Gaußschen Prozess beinhaltet, verwendet lazy Learning und ein Maß für die Ähnlichkeit zwischen Punkten (die Kernelfunktion), um den Wert für einen unsichtbaren Punkt aus Trainingsdaten vorherzusagen. Die Vorhersage ist nicht nur eine Schätzung für diesen Punkt, sondern hat auch Unsicherheitsinformationen – es ist eine eindimensionale Gaußsche Verteilung (die zu diesem Zeitpunkt die Randverteilung ist)[1].
    Gaussian Processes machen also Voraussagen und es gibt viele Anzeichen dass auch unser Hirn ständig Voraussagen macht.
    Eine andere Bayes-Methode sind Bayes Neural Networks (Zitat): Neuronale Netze verfügen über kontinuierliche Funktionsannäherungsfunktionen. Stochastische Modelle ermöglichen die direkte Spezifikation eines Modells mit bekannter Interaktion zwischen den Parametern zur Datengenerierung. Während der Vorhersagephase erzeugen stochastische Modelle eine vollständige posteriore Verteilung und erzeugen probabilistische Garantien für die Vorhersagen. Somit sind BNNs eine einzigartige Kombination aus neuronalen Netzen und stochastischen Modellen, wobei das stochastische Modell den Kern dieser Integration bildet. BNNs können dann probabilistische Garantien für ihre Prognosen geben und auch die Verteilung der Parameter generieren, die sie aus den Beobachtungen gelernt haben. Das heißt, im Parameterraum kann man die Art und Form der erlernten Parameter des neuronalen Netzes ableiten.

    Fazit: in der KI ist noch vieles (fast alles?) offen. Anstatt neuronale Netze könnten in naher Zukunft auch Gaussian Processes zur Standardmethode werden.

  37. @Balanus / 26. September 2018 @ 21:55

    Guten Morgen, 🙂
    (naja, eigentlich schon Mittag, aber ich bin Abendmensch)

    Aber wieso soll ein KNN nicht über einen sensorischen Input verfügen können? Irgendwie müssen die Daten ja ins KNN gelangen können, damit Informationsverarbeitung überhaupt stattfinden kann. Entsprechend ausgerüstet, könnte eine künstliche Hand die Rauheit einer Oberfläche prüfen, den pH-Wert von Wasser testen, dessen genaue Temperatur oder die Leitfähigkeit, oder was auch immer technisch irgendwann mal möglich sein wird.

    Es dürfte vermutlich kein Problem sein, ein KNN zu bauen, das auch sensorischen Input als Information empfangen und verarbeiten kann. Nur schrieb ich ja schon mehrfach, dass das menschliche Gehirn als System nicht offen für Information ist. Offen ist es ausschließlich für Energiedurchflüsse. Das heißt aber auch, dass es auf andere Weise arbeiten muss, damit Wahrnehmen, Verstehen und Erkennen gelingen kann. Wenn ein KNN also den pH-Wert von Wasser testet oder dessen Temperatur, heißt das noch nicht, dass es ein Temperaturempfinden hat (und den pH-Wert kann man auch mit Lackmuspapier testen). Darüber hinaus: Sie erinnern sich sicher an Windmanns Brief an einen Zombie. Darin schrieb sie, dass jeder psychische Vorgang aus zwei (A-undB-consciousness) Perspektiven betrachtet werden kann – nur von außen lässt sich nicht beurteilen, ob der Schmerzschrei beim “Messen” der Temperatur nur auf die Verknüpfung zweier Systeme zurückzuführen ist, oder ob tatsächlich Schmerz empfunden wird.

    Daran habe ich bislang noch gar nicht gedacht: Eigentlich sollte es doch möglich sein, ein KNN so zu konstruieren, dass es wenigstens prinzipiell wie ein „funktional arbeitendes“ Gehirn (oder zumindest Teile davon) funktioniert. Oder sehen Sie da nicht überwindbare Hürden grundsätzlicher Art?

    Ob die Hürden unüberwindbar sind, kann ich nicht beurteilen, da ich nicht weiß, ob nicht dann, wenn man herausgefunden hat, wie menschliche Gehirne tatsächlich arbeiten, nicht auch möglich wäre, solche KNNe zu konstruieren – wobei man dazu allerdings auch noch einen Körper braucht, der konstruiert werden muss.
    Ein fundamentaler Unterschied besteht derzeit darin, dass die Arbeitsweise menschlicher Gehirne nicht nur auf elektrophysikalischer Basis, sondern auch auf biochemischer Basis abläuft – womit ich nicht nur beispielsweise den Einstrom von Kalium- oder Natriumionen, oder den Neurotransmitterstoffwechsel meine, sondern auch das auf Kommunikationssystem der Astrozyten, das auf rein chemischer Basis funktioniert.
    Möglich, dass sich das alles konstruieren lässt, aber der entscheidende Punkt ist, dass menschliche Gehirne keine von außen kommende Information verarbeiten können. Weshalb sie nach einem anderen Prinzip vorgehen, um das, was wir erleben, sind, tun und können, zu bewerkstelligen: es arbeitet nach denselben Regeln, nach denen auch unsere Umwelt(en) funktionieren – anderenfalls wäre kaum gewährleistet, dass das Gehirn sie intern richtig “konstruiert”, nachdem es sie per Sinnessysteme erst einmal als Wellenlängen registriert und zerlegt hat. Wir würden nicht überleben bzw. es würde uns nicht geben, wenn unsere gehirne nach anderen Regeln arbeiteten als die Welt “da draußen”.
    Solange man aber diese Regeln und die dazu gehörigen Gesetze nicht kennt: keine Chance!

    Wenn ich (als Person, Subjekt, Organismus) ein Muster erkenne, dann tue ich das mittels meines (eines, des) Gehirns. Und da im Schädel nichts anderes ist als das Gehirn und seine „Hilfsstrukturen“, dann kann ich doch auch gleich sagen, dass das Gehirn Muster erkennt.

    Nein, können Sie nicht, das ist ein Fehler. Das Gehirn erkennt keine Muster, sondern das neuronale Netz produziert Muster, und das Astrozyten-Netz wirkt daran mit und vermutlich ist das unser “Übersetzer”.
    Und um auf Ihr Beispiel zurückzukommen: Die Leber produziert zwar u.a. Galle , aber deshalb muss sie Galle nicht “erkennen”.

  38. @Trice // 27. September 2018 @ 12:03

    » Offen ist es [das menschliche Gehirn als System] ausschließlich für Energiedurchflüsse. Das heißt aber auch, dass es auf andere Weise arbeiten muss, damit Wahrnehmen, Verstehen und Erkennen gelingen kann. «

    Keine Frage, ein evolviertes (hochentwickeltes) neuronales Netz funktioniert und arbeitet anders als ein KNN. Ansonsten könnte es nicht das leisten, wofür es evolviert ist. Es muss schließlich den Organismus, von dem es ein Teil ist, zielgerichtet durch die Umwelt steuern. Die Art und Weise seiner Entstehung im Evolutionsprozess bedingt eine Reihe von Eigenschaften und Funktionen, die für ein KNN vermutlich überhaupt nicht relevant sind.

    » Wenn ein KNN also den pH-Wert von Wasser testet oder dessen Temperatur, heißt das noch nicht, dass es ein Temperaturempfinden hat«

    Wozu braucht es ein Temperaturempfinden? Im Hirn dient das Empfinden dazu, qualitative Unterscheidungen treffen zu können. Ein KNN kann hierfür die gewonnenen Messwerte nutzen, auf Zehntelgrad genau, wenn’s erforderlich ist.

    » Ob die Hürden unüberwindbar sind, kann ich nicht beurteilen, da ich nicht weiß, ob nicht dann, wenn man herausgefunden hat, wie menschliche Gehirne tatsächlich arbeiten, nicht auch möglich wäre, solche KNNe zu konstruieren – wobei man dazu allerdings auch noch einen Körper braucht, der konstruiert werden muss. «

    Legt man Ihre Hypothese/Theorie zugrunde, dann simuliert ein KNN derzeit wohl eher die prädikative Arbeitsweise eines Gehirnes denn die funktionale. Ich hatte mir überlegt, was man an der Vernetzung wohl ändern müsste, damit ein KNN ähnlich wie die funktionale Gehirnvariante funktioniert: Das KNN sozusagen als Test für die Richtigkeit der Hypothese von den zwei kognitiven „Geschlechtern“ (aber das müssen wir hier jetzt nicht vertiefen, war nur so ein Gedanke).

    Irritierend finde ich die Einlassung, menschliche Gehirne könnten „keine von außen kommende Information verarbeiten“. Genau genommen gibt es außerhalb der Gehirne sowieso keine „Information“. Statt von ‚Informationsverarbeitung‘ sollte man vielleicht besser von ‚Datenverarbeitung‘ sprechen, beim Gehirn und auch bei einem KNN. In beiden Systemen gibt es bloß „Energiedurchflüsse“ und keine Information im engeren Sinne.

    Und ich denke schon, dass wir uns ganz auf diese energetische Seite der Hirnfunktionen konzentrieren können, wobei jedes Neuron einem Knotenpunkt in einem KNN entspricht. Für das Wiedererkennen eines Gesichts innerhalb weniger Millisekunden spielt die Funktion der Astrozyten wohl keine wesentliche Rolle. Das Bewusstwerden dieses Erkennungsprozesses, woran vielleicht die Astrozyten beteiligt sind, ist ja bereits der Output, das Ergebnis der neuronalen, unbewusst ablaufenden elektrophysiologischen Aktivitäten, die durch den sensorischen Input angestoßen werden.

    » Das Gehirn erkennt keine Muster, sondern das neuronale Netz produziert Muster,… «

    Vorab: Mustererkennung durch das Gehirn impliziert in meinem Sprachgebrauch nicht, dass einem dieses Muster bewusst wird oder dass dies mit bewussten Sinnesempfindungen einhergehen muss.

    ‚Muster‘ bedeutet, dass es hinsichtlich des sensorischen Inputs Unterschiede gibt, weil eben die physikalische Welt nicht homogen ist. Diese physikalischen Unterschiede sind die „Muster“, die erkannt werden oder eben nicht erkannt werden, weil das neuronale Netz nicht darauf trainiert ist. Produziert werden diese Unterschiede jedenfalls nicht erst im Gehirn.

  39. @Balanus / 28. September 2018 @ 11:57

    Wozu braucht es ein Temperaturempfinden?

    Um festzustellen, dass ein Gegenstand, mit dem ich in Berührung komme, zu heiß ist, als es für meine Gesundheit gut ist? Wenn ich die Temperatur empfinde, zucke ich blitzschnell zurück; fehlt mir dieses Empfinden, tragen die entsprechenden Hautstellen u.U. schwere Schäden davon. Die natur hätte uns auch ohne ein Temperatur- und Schmerzempfinden ausstatten können, aber offensichtlich hat es sich bewährt – weshalb wir es haben.

    dann simuliert ein KNN derzeit wohl eher die prädikative Arbeitsweise eines Gehirnes denn die funktionale. Ich hatte mir überlegt, was man an der Vernetzung wohl ändern müsste, damit ein KNN ähnlich wie die funktionale Gehirnvariante funktioniert

    Ein KNN simuliert weder die eine, noch die andere. An der Vernetzung bzw. Verschaltungsarchitektur liegt es nicht. Wäre es so, hätte man den Unterschied schon längst bemerkt.

    Genau genommen gibt es außerhalb der Gehirne sowieso keine „Information“. Statt von ‚Informationsverarbeitung‘ sollte man vielleicht besser von ‚Datenverarbeitung‘ sprechen, beim Gehirn und auch bei einem KNN.

    Es werden doch aber auch keine Daten im Gehirn verarbeitet, das hilft also nicht wirklich weiter. Und zwar deshalb nicht:

    Und ich denke schon, dass wir uns ganz auf diese energetische Seite der Hirnfunktionen konzentrieren können, wobei jedes Neuron einem Knotenpunkt in einem KNN entspricht.

    Da liegt, wenn man so will, der “Fehler”.Vielleicht wird es so verständlicher: Nehmen Sie an, sie haben eine Menge zu einem Netz verbundener Neurone, und jedem dieser Neurone ordnen Sie einen Buchstaben zu. Dann verbinden Sie jeden Buchstaben mit jedem anderen. Nun wollen Sie, dass das Netz den Satz schreibt: “Der Blitz schlaegt in den Baum ein”, und jedes Neuron feuert bei seinem Buchstaben. Für diesen Satz muss das D-Neuron zweimal feuern, das B-Neuron ebenfalls zweimal , das E-Neuron viermal usw. Erkennen und verstehen können Sie den Satz aber erst, wenn Sie den Neuronen eine Regel vorgeben, die besagt, wann, an welcher Stelle sie feuern müssen und wann nicht und an wen (welches Neuron) dieses Signal weitergeleitet werden soll, damit auch die Reihenfolge stimmt.
    Es kommt also nur insofern auf die Knoten (Neurone) an, als ohne sie der Satz nicht geschrieben werden könnte. Es kommt vielmehr auf die Regel an.

    Für das Wiedererkennen eines Gesichts innerhalb weniger Millisekunden spielt die Funktion der Astrozyten wohl keine wesentliche Rolle. Das Bewusstwerden dieses Erkennungsprozesses, woran vielleicht die Astrozyten beteiligt sind, ist ja bereits der Output,

    Ich weiß nicht, wie gut Sie die Forschung auf diesem Gebiet kennen, aber ich denke, Sie kennen den Begriff tripartite Synapse. Eine solche Synapse wird gebildet aus den Endplatten zweier Neurone bzw. Axon /Dendrit und einer Gliazelle oder Astrozyten. Diese sind an der Übertragung am synaptischen Spalt beteiligt, bilden aber auch ein eigenes Netzwerk. Und die derzeitige Vermutung geht dahin, dass Astrozyten für das Bewusstsein maßgeblich sind. Das würde heißen, das Bewusstwerden ist kein Output, sondern basiert auf einem eigenen Netzwerk auf rein chemischer Basis und greif an den synaptischen Verbindungen auf die “Kommunikation” der Neurone zu.
    Und wenn Sie an das sogenannte Bindungsproblem denken bzw. an das synchrone Feuern , wen Neurone ein Neuronenensemble bilden – also sich darauf verständigt haben, an der Darstellung desselben Objekts beteiligt zu sein – , dann können Sie diese Synchronien durchaus auch “Muster” nennen.

    Muster‘ bedeutet, dass es hinsichtlich des sensorischen Inputs Unterschiede gibt, weil eben die physikalische Welt nicht homogen ist. Diese physikalischen Unterschiede sind die „Muster“, die erkannt werden oder eben nicht erkannt werden, weil das neuronale Netz nicht darauf trainiert ist. Produziert werden diese Unterschiede jedenfalls nicht erst im Gehirn.

    Worin sehen Sie den Unterschied? Was die Nervenimpulse oder Aktionspotenziale angeht, sieht man denen nicht an, von welchem Sinnessystem sie kommen, auch wenn das von verschiedenen Zelltypen eine unterschiedliche Amplitude haben kann. Aber im Prinzip wandeln alle Rezeptorzellen der Sinnessysteme Wellenlängen in Aktionspotenziale um.
    Eben das macht es ja für die Hirnforschung so schwierig, zu erkennen, wie das Gehirn arbeitet.

  40. @ Trice 27. September 2018 12:03

    Ich fürchte, werte „Trice“ Sie ignorieren grundlegende Prinzipien der Informationsverarbeitung.

    Zitat Wiki: „…Information (von lateinisch in-formare ‚formen‘, ‚bilden‘, ‚gestalten‘, ‚ausbilden‘, ‚unterrichten‘, ‚darstellen‘, ‚sich etwas vorstellen‘)[1] ist eine Teilmenge an Wissen, die ein Absender einem Empfänger über ein bestimmtes Medium (in der Informationstheorie auch als „Informationskanal“ bezeichnet) in einer bestimmten Form (Signale, Code) vermitteln kann und die beim Empfänger in einem für diesen bedeutsamen Kontext zu einem ‚Wissenszuwachs‘[2] führt.“

    Dies würde ganz banal. auch die sprachliche Kommunikation zwischen Menschen enthalten.

    Diese Definition scheint zwar nicht absolut perfekt, ist aber doch recht brauchbar.
    Information muss nicht unbedingt (sofort) „übertragen“ werden. Sie kann einfach nur gespeichert oder in einem internen System verarbeitet (z.B. Google) und sozusagen „auf Vorrat gehalten“ werden und vielleicht nur „irgend einmal“ (oder gar nicht) ausgegeben werden.

    Sie behaupten: „Offen ist es (das Gehirn) ausschließlich für Energiedurchflüsse.“

    Dies trifft nur teilweise zu. Der Energie ist jedoch Information „aufgedrückt“, man nennt dies „Modulation“. Genau die Modulation (Codierung) ist es, die in der Elektronik/Informatik aber auch bei den „Denkprozessen“, neben dem „Wissen“, von Bedeutung ist.
    Die Energie hat nur „Trägerfunktion“, wie ein Blatt Papier.
    Wissen ist besonders strukturierte Information.

    In Information verarbeitenden Systemen treten „Zustände“ (die jeweils Information abbilden können) auf, die sich bei einer Aktivität laufend verändern können. Dies nennt man „Prozess“. Der Ort an dem dies geschieht, ist ganz allgemein, ein „Prozessor“.
    Prozessor – Prozess – und Information stehen in systematischen Wechselwirkungen und sind heutzutage absolut grundlegend in der Technik (vom Kühlschrank, Auto, PC, TV, Handy….).

    Technische Computer als auch das Gehirn „realisieren“ die Codierungstheorie und die Boolesche Algebra.

    Beim Gehirn kommt zusätzlich hinzu, dass an elektrisch – chemischen Schnittstellen das Empfindungsphänomen auftreten kann.

    Sie können als Systemanwender, z.B. bei einem Excel Arbeitsblatt, dies „prädikativ“ sehen, weil sie immer nur „fertige“ Zustände sehen wollen, nicht aber die dahinter stehenden „funktionellen“ Abläufe, die die Programmierer von Excel natürlich entwickeln mussten.

    Im Gehirn können Sie immer nur die Bewusstseinszustände (normalerweise nicht aber die dahinterstehenden Prozesse) betrachten, was der Nutzer auch macht.
    Wollen Sie es aber genauer erkunden, so sollten Sie die in den Strukturen ablaufenden Prozesse und die dahinter stehende Information (es wird auch viele Regeln geben, davon sogar einige grundlegende Regeln wie die Neuronenfunktion) beachten.

  41. @Jaromir Konecny

    (Sorry, ich habe Ihre Antworten spät entdeckt; habe nicht bedacht, dass Sie üblicherweise die Antwortfunktion nutzen)

    @26. September 2018 @ 14:54

    » Einfach gesagt bezieht sich das Wort “Vorkenntisse” auf das Wissen eines Menschen und eines künstlichen Netzes eben vor diesem einem Spiel und relativ dazu.«

    Ok, danke, ich habe verstanden 🙂

    @26. September 2018 @ 15:20

    » Auch bei der Entladung strömen Ionen aus und in und durch die Zelle. Das alles ist Biochemie. Bitte um Entschuldigung, dass ich das hier sehr vereinfacht zusammengefasst habe. Diese Prozesse sind viel komplexer, trotzdem biochemisch. Was sonst? «

    Da gibt es nichts zu entschuldigen, ich habe meine Einlassung offenbar missverständlich vorgetragen.

    Was ich meinte, war, dass das biologische Substrat, das Biochemische eben, für die Unterscheidung kognitiver Leistungen nicht wesentlich ist. Die biochemischen Prozesse als solche sind immer die gleichen, ein Aktionspotential ist ein Aktionspotential, Transmitter sind Transmitter, egal, ob es ums Hören oder ums Sehen geht.

    Wenn Sie nun schreiben:

    Die Neuronen im Gehirn dagegen sind kleine autonome Fabriken, sie produzieren ständig Enzyme, Hormone, Neurotransmitter und Unmengen andere funktionelle Proteine (siehe oben). Diese beeinflussen wiederum die Aktivität ihres Neurons und somit des ganzen Neuronenverbands,

    dann ist das für sich genommen natürlich richtig (klar, was sonst), aber man könnte das, so halt meine Befürchtung, womöglich auch so verstehen, dass die Funktion der Neuronen bzw. deren Biochemie über das Bereit- und Herstellen des Substrats für die alles entscheidenden elektrophysiologischen Vorgänge wesentlich hinausgeht.

    Aber vermutlich hat das ohnehin keiner falsch verstanden…

    (Oder ich bin diesbezüglich einfach nicht auf dem aktuellen Stand der Hirnforschung…)

  42. @Trice // 28. September 2018 @ 20:06

    » Wozu braucht es ein Temperaturempfinden?

    Um festzustellen, dass ein Gegenstand, mit dem ich in Berührung komme, zu heiß ist, als es für meine Gesundheit gut ist? «

    Die Frage war eigentlich, wozu ein KNN ein Temperaturempfinden braucht—oder überhaupt irgendein Empfinden, oder Verständnis und dergleichen. Da gab es wohl ein kleines Missverständnis meinerseits.

    » An der Vernetzung bzw. Verschaltungsarchitektur liegt es nicht. Wäre es so, hätte man den Unterschied [zwischen prädikativer und funktionaler Arbeitsweise] schon längst bemerkt.«

    An den einzelnen Hirnzellen selbst oder am neuronalen Stoffwechsel kann es aber doch auch nicht liegen. Was liegt denn dann Ihrer Vermutung nach diesem Unterschied zugrunde, wenn es nicht die Struktur ist?

    » Das würde heißen, das Bewusstwerden ist kein Output, sondern basiert auf einem eigenen Netzwerk auf rein chemischer Basis und greif an den synaptischen Verbindungen auf die “Kommunikation” der Neurone zu. «

    Worauf das Bewusstsein konkret basiert, ist m. E. nicht wichtig für die Frage, ob das Bewusstwerden eines Sinneseindrucks als Output der hirninternen Prozesse verstanden werden kann. Gäbe es ein Bewusstsein als umschriebene Entität, dann wäre dieses Bewusstsein sozusagen der selektierende „Empfänger“ des neuronalen Outputs.

    Bei Organismen ohne Bewusstsein wäre aber der erzeugte, wenn auch nicht bewusst erlebte, Sinneseindruck das Ergebnis der neuronalen Verarbeitung der Sinnesreize. Ob man das nun bereits Output nennen kann, oder erst das, was danach als motorische Aktion und Reaktion folgt, mag Geschmackssache sein.

    » Worin sehen Sie den Unterschied? Was die Nervenimpulse oder Aktionspotenziale angeht, sieht man denen nicht an, von welchem Sinnessystem sie kommen, … «

    Ich bin mir nicht sicher, ob ich die Frage verstanden habe. Der Anblick einer grünen Birne dürfte eine andere neuronale Aktivität (oder ein anderes neuronales Aktivitätsmuster) zur Folge haben, als der Anblick eines roten Apfels. Wäre es anders, könnten wir nicht Äpfel von Birnen unterscheiden.

  43. @ Jaromir Konecny 26. September 2018 15:20
    Antwort an @Balanus.

    Es ist natürlich selbstverständlich dass die neuronale Biochemie auch die Grundlage aller Hirnaktivität, somit vor allem der elektrischen Ströme/Signale, die durch Neuronen und Neuronenverbände fließen ist und die die „eigentliche Musik“ machen.

    Es ist letztlich so, dass die Anwender eines Laptop vielmehr interessiert wie kratzfest der Bildschirm ist, oder die Festigkeit des Gehäuse, der Scharniere, die Schnelligkeit oder natürlich der Stromverbrauch und der Akku. Alles ganz wichtige Sachverhalte für die sich Nutzer hauptsächlich interessieren.

    Allerdings meine ich, dass man sich, besonders in diesem Forum, für den für viele noch rätselhaften Aspekt der Informationsverarbeitung im Gehirn interessiert. Wie es dazu kommt dass ein Computer Information verarbeitet und wie es sich im Vergleich mit dem Gehirn verhält, ob es womöglich Gemeinsamkeiten oder Ähnlichkeiten gibt?

    Besonders für „Balanus“, ich vermute er ist Biologe, sind die biologischen Aspekte wohl selbstverständlich und er interessiert sich für den Aspekt der Informationsverarbeitung.

    Sowohl technische Computer als auch das Gehirn „realisieren“ die Codierungstheorie und die Boolesche Algebra.

    Die Sensorik setzt die jeweils anliegende Information in elektrische Impulse um, codiert sie dabei, und die Motorik liefert letztlich den Output. Die Neuronen entsprechen annähernd UND Gatter und erledigen sozusagen ganz grundsätzlich die Informationsverknüpfung im Sinne der Booleschen Schaltalgebra.
    Mittels eines Effekts den Mathematiker „Faltung“ nennen, wird die einlangende Information zunächst (mittels Neuronen) aufgespalten und die dabei entstehenden (räumlich – zeitlichen) „Mikromusterabbildungen“ werden über verschiedene Hierarchiestufen zu „Mustern“, letztlich z.B. zum Muster (Objekt) „Katze“. ….
    Lange komplexe Kettenanordnungen dieser „Neuronengatter“ bewirken eine Signalverarbeitung die letztlich eine realisierte Informationsverarbeitung ist.
    In diesem Sinne hat W. McCulloch (als Neurologe) die Informationsverarbeitung erklärt.

    E. Kandel hat die synaptische Wissensspeicherung (biochemisch) erklärt. Wie Martin Holzherr so treffend bemerkt hat, ist die Informationsspeicherung auch noch extrem Speicherplatz sparend und außerdem mit besten Zugriffseigenschaften versehen, wie sie eben Baumstrukturen eigen sind.

    Ich möchte auch den „funktionalen Aspekt“ der Neuronen betonen. „Spiegelneurone“ sind nicht etwa winzige Spiegel, sondern ganz normale Neuronen. Sie wirken nur ähnlich wie ein Spiegel.
    Lt. Wikipedia sind Spiegelneuronen ein Resonanzsystem im Gehirn, das Gefühle und Stimmungen anderer Menschen beim Empfänger zum Erklingen bringt. Das Einmalige an den Nervenzellen ist, dass sie bereits Signale aussenden, wenn jemand eine Handlung nur beobachtet.

    Es ist hier alles extrem stark zusammengefasst, kommt nur den Aspekten der „reinen Informationsverarbeitung“ nahe, berücksichtigt nicht die biologischen Aspekte ohne die „nichts geht“.

  44. @ Balanus 30. September 2018 11:46

    Zitat: „» Worin sehen Sie den Unterschied? Was die Nervenimpulse oder Aktionspotenziale angeht, sieht man denen nicht an, von welchem Sinnessystem sie kommen, … «

    Ich bin mir nicht sicher, ob ich die Frage verstanden habe. Der Anblick einer grünen Birne dürfte eine andere neuronale Aktivität (oder ein anderes neuronales Aktivitätsmuster) zur Folge haben, als der Anblick eines roten Apfels. Wäre es anders, könnten wir nicht Äpfel von Birnen unterscheiden.“

    Dies ist in der Tat eine gute Frage.

    Ich hoffe ich kann sie Ihnen als Nachtrag zu meinem vorigen Text beantworten.
    Der Unterschied liegt darin, dass die „elektrische Signalkaskade“ strukturell (also meistens im schon früher durch Lernen entstandenen neuronalen Netz verläuft) entweder von rot (Apfel) oder grün (Birne) abbildenden Farbpunkten der Netzhaut ausgeht. Beim Kleinkind werden die Strukturen gebildet, danach nur mehr erweitert. Bei anderen Kombinationen von Farbpunkten (Mikromuster) werden andere Objekte abgebildet. Selbstverständlich werden auch andere „Mustermerkmale“ (z.B. Krümmungen) außer nur Farben abgebildet.

    Wie in meinem letzten Text aufgezeigt, läuft es bei der Signalverarbeitung auf eine Signalverknüpfung auf einer Gatterstruktur auch im neuronalen System, letztlich wie früher in elektronischen Systemen, hinaus.

    Mittels eines Effekts den Mathematiker „Faltung“ nennen, wird die einlangende Information zunächst (mittels Neuronen) aufgespalten und die dabei entstehenden (räumlich – zeitlichen) „Mikromusterabbildungen“ werden über verschiedene Hierarchiestufen zu „Mustern“ verknüpft, letztlich z.B. zum Muster (Objekt) „Apfel“ oder „Birne“.
    In weiteren Hierarchiestufen können diese Objekte, genau so wie die Inputmuster auf vorher gelernten „Strukturen“, weiter verarbeitet werden. Am Bewusstsein zur „Abbildung“ kommen, oder ein Output generiert werden. Die Objekte wie „Apfel“ können auch über andere gelernte Muster (z.B. „Hunger“) „referenziert“ werden, ohne dass tatsächlich ein Apfel gesehen wird.

    Die Nervenimpulse oder Aktionspotenziale gehen sehr wohl von einer bestimmten Quelle aus, man kann sie derzeit nur nicht, z.B. optisch, verfolgen.

  45. Dieser Beitrag von Jaromir Konecny läuft ja unter dem Blog-Thema GEHIRN & KI und die Firma DeepMind mit ihrem Mitbegründer Demis Hassabis widmet sich tatsächlich in vielen seiner Publikationen und Forschungen genau dem Verbindenden von Künstlichen Neuronalen Netzen/MaschinenLernen und Vorgängen die man im Gehirn entweder beobachtet hat oder dort vermutet.

    Der Artikel Neuroscience-Inspired Artificial Intelligence ist quasi eine tour d’horizon über den Transfer von Wissen und Erkenntnis gewonnen in der Hirnforschung zu Anwendungen in der Künstlichen Intelligenz. Schon zu Beginn liest man da: Deep Learning und Bestärkungslernen (Reinforcement Learning) wurzeln beide in Ideen der Neurowissenschaften.

    Aufmerksamkeit im Hirn und in der KI
    Später wird auf aufmerksamgesteuertes Lernen eingegangen, das heute in der künstslichen Intelligenz eine wichtige Rolle spielt, aber zuerst in der Hirnforschung gefunden wurde. In der künstlichen Intelligenz begann man bei der Verarbeitung von Bildern mit künstlichen neuronalen Netzen, die jeden Teil des Gesamtbildes gleich behandelten und baute dann Fokussierungen der Aufmerksamkeit auf “wichtige” Teilbilder ein, was es ermöglichte, für die zu lösende Aufgabe irrelevante Objekte zu ignorieren und das erst noch mit geringerem Rechenaufwand und besseren Resultaten.

    Episodisches Gedächtnis: Erinnerungen als Hilfe für das Lernen
    Auch die verschiedenen Gedächtnisbereiche , die man in Hirnen fand wurde in der KI nachgebildet. So zum Beispiel das episodische Gedächtnis, welches Erlebtes schnell abrufbar so speichert, dass es über Assoziationen wieder abgerufen werden kann. Zitat: Ein jüngster Durchbruch in der KI war die erfolgreiche Integration von RL (Reinforcement Learning) mit Deep Learning (Mnih et al., 2015, Silver et al., 2016). So zeigt beispielsweise das Deep Q-Network (DQN) ein Expertenspiel zu Atari 2600 Videospielen, indem es lernt, einen Vektor von Bildpunkten in eine Richtlinie zur Auswahl von Aktionen (z.B. Joystickbewegungen) zu transformieren. Ein wesentlicher Bestandteil von DQN ist “Experience Replay”, bei dem das Netzwerk eine Teilmenge der Trainingsdaten instanzbasiert speichert und dann offline “abspielt” und aus Erfolgen oder Misserfolgen der Vergangenheit neu lernt. Die Erfahrungswiedergabe ist entscheidend für die Maximierung der Dateneffizienz, vermeidet die destabilisierenden Effekte des Lernens aus aufeinander folgenden korrelierten Erfahrungen und ermöglicht es dem Netzwerk, auch in komplexen, hochstrukturierten sequentiellen Umgebungen wie Videospielen eine funktionierende Wertefunktion zu erlernen.
    Neurdings werden für die Anwendung im Lernen über Versuch und Irrtum (Reinforcement Learning) auch Erinnerungssequenzen zusammen mit den erhaltenen Belohnungspunkten abgespeichert. Neue Erfahrungen werden dann auf Ähnlichkeit mit den Erinnerungen verglichen und bei genügend grosser Ähnlichkeit nach einer Anpassung übernommen. Damit wurde das Lernen über Versuch und Irrtum erheblich beschleunigt. Diese Form des Lernen benötigt nämlich ohne solche Hilfen extrem lange Trainingsphasen bis es auf Touren kommt.

    Auch in Bezug auf das Arbeitsgedächtnis und das kontinuierliche Lernen (lebenslanges Lernen) wurde gemäss Hassabis in der Künstlichen Intelligenz sehr viele Anregungen aus Beobachtungen bei Hirnaktivitäten entnommen.

    Insgesamt handelt es sich bei Neuroscience-Inspired Artificial Intelligence um eine Sicht von Hassabis und Mitautoren, welche Erkenntnisse aus Hirnforschung und Kognitionspsychologie in das junge Feld der Künstlichen Intelligenz eingeflossen sind.
    Sehr dicht uns inspirierend geschrieben.

    • Martin Holzherr: “Der Artikel Neuroscience-Inspired Artificial Intelligence ist quasi eine tour d’horizon über den Transfer von Wissen und Erkenntnis gewonnen in der Hirnforschung zu Anwendungen in der Künstlichen Intelligenz. Schon zu Beginn liest man da: Deep Learning und Bestärkungslernen (Reinforcement Learning) wurzeln beide in Ideen der Neurowissenschaften.”

      Jaromir: Vielen Dank für den wunderbaren Artikel. Den kannte ich komischerweise nicht, obwohl ich mich doch recht viel mit DeepMind beschäftige.

  46. @ Balanus / 30. September 2018 @ 11:46

    » An der Vernetzung bzw. Verschaltungsarchitektur liegt es nicht. Wäre es so, hätte man den Unterschied [zwischen prädikativer und funktionaler Arbeitsweise] schon längst bemerkt.«

    An den einzelnen Hirnzellen selbst oder am neuronalen Stoffwechsel kann es aber doch auch nicht liegen. Was liegt denn dann Ihrer Vermutung nach diesem Unterschied zugrunde, wenn es nicht die Struktur ist?

    Ich hatte gemeint, diese Frage bereits beantwortet zu haben, als ich schrieb:”Nehmen Sie an, sie haben eine Menge zu einem Netz verbundener Neurone, und jedem dieser Neurone ordnen Sie einen Buchstaben zu. Dann verbinden Sie jeden Buchstaben mit jedem anderen. Nun wollen Sie, dass das Netz den Satz schreibt: “Der Blitz schlaegt in den Baum ein”, und jedes Neuron feuert bei seinem Buchstaben. Für diesen Satz muss das D-Neuron zweimal feuern, das B-Neuron ebenfalls zweimal , das E-Neuron viermal usw. Erkennen und verstehen können Sie den Satz aber erst, wenn Sie den Neuronen eine Regel vorgeben, die besagt, wann, an welcher Stelle sie feuern müssen und wann nicht und an wen (welches Neuron) dieses Signal weitergeleitet werden soll, damit auch die Reihenfolge stimmt.
    Es kommt vielmehr auf die Regel an.
    Und die von der jeweiligen Regel vorgegebene Reihenfolge, in der die Neurone nicht nur feuern, sondern mittels derer sie sich auch daraufhin verständigen, an der Repräsentation desselben Objekts beteiligt zu sein, diese Reihenfolge ist bei der prädikativen Variante eine andere, als bei der funktionalen. Am “Bindungsproblem” demonstriert: prädikativ: 1.Form, 2.Ort, 3. Farbe ; funktionale: 1. Form, 2. Farbe, 3. Ort. Ergebnis ist in beiden Fällen dasselbe: gemeinsam ergeben sie das Objekt, das man wahrnimmt. Auf der Wahrnehmungsebene scheint der Unterschied keine Rolle zu spielen, weshalb wir uns darauf verständigen können, dasselbe Objekt zu sehen. Wenn Sie das Objekt dagegen erkennen oder gar in seiner Funktion,seinem Zweck verstehen wollen, macht sich der Unterschied deutlich bemerkbar.
    Übrigens ist es keine Vermutung: wir haben es experimentell nachweisen können.

    Worauf das Bewusstsein konkret basiert, ist m. E. nicht wichtig für die Frage, ob das Bewusstwerden eines Sinneseindrucks als Output der hirninternen Prozesse verstanden werden kann.

    Eben deshalb ist es wichtig, weil das Bewusstwerden dessen, was auf neuronaler Basis “konstruiert” wird, nicht der Output des Konstruktionsprozesses ist. Als Ouput enthalten sie stets nur wieder entweder Feedback- oder Feedforward-“Signale”.

    Gäbe es ein Bewusstsein als umschriebene Entität, dann wäre dieses Bewusstsein sozusagen der selektierende „Empfänger“ des neuronalen Outputs.

    Wie gerade geschrieben: Nein, ist es nicht. Was die Selektion betrifft, kommt dabei die Aufmerksamkeit ins Spiel und die Reizstärke.

    Bei Organismen ohne Bewusstsein wäre aber der erzeugte, wenn auch nicht bewusst erlebte, Sinneseindruck das Ergebnis der neuronalen Verarbeitung der Sinnesreize. Ob man das nun bereits Output nennen kann, oder erst das, was danach als motorische Aktion und Reaktion folgt, mag Geschmackssache sein.

    Woran wollen Sie denn festmachen, ob Organismen Bewusstsein haben oder nicht, wenn Sie Bewusstsein nicht an etwas Konkretem festmachen können? Schmerz ist z. B. etwas, das bewusst, als eigener Schmerz, erlebt wird. Wie wollen Sie bestimmen, ob ein Fisch am Angelhaken leidet, oder eine Fliege, der man die Flügel ausreißt?

    » Worin sehen Sie den Unterschied? Was die Nervenimpulse oder Aktionspotenziale angeht, sieht man denen nicht an, von welchem Sinnessystem sie kommen, … «

    Ich bin mir nicht sicher, ob ich die Frage verstanden habe. Der Anblick einer grünen Birne dürfte eine andere neuronale Aktivität (oder ein anderes neuronales Aktivitätsmuster) zur Folge haben, als der Anblick eines roten Apfels. Wäre es anders, könnten wir nicht Äpfel von Birnen unterscheiden.

    Mit dem Aktivitätsmuster bin ich einverstanden, wenn wir uns darauf einigen können, dass es sich dabei um das Schwingungsmuster handelt. Nur ist dieses synchrone Schwingen nicht auf die Farbe oder das Objekt zurückzuführen, sondern darauf, dass die Neurone, die an der Repräsentation beteiligt sind, sich darauf geeinigt haben, dass die Regel erfüllt ist.

  47. @ Trice 28. September 2018 20:06

    Zitat: „Ich weiß nicht, wie gut Sie die Forschung auf diesem Gebiet kennen, aber ich denke, Sie kennen den Begriff tripartite Synapse. Eine solche Synapse wird gebildet aus den Endplatten zweier Neurone bzw. Axon /Dendrit und einer Gliazelle oder Astrozyten. Diese sind an der Übertragung am synaptischen Spalt beteiligt, bilden aber auch ein eigenes Netzwerk. Und die derzeitige Vermutung geht dahin, dass Astrozyten für das Bewusstsein maßgeblich sind. Das würde heißen, das Bewusstwerden ist kein Output, sondern basiert auf einem eigenen Netzwerk auf rein chemischer Basis und greift an den synaptischen Verbindungen auf die “Kommunikation” der Neurone zu.“

    Diese Aussage würde meiner vagen Vermutung bezüglich der Realisierung des „Empfindungsbewusstseins“ nahekommen, sofern tatsächlich auf die elektrische “Kommunikation” der Neurone zugegriffen würde.

    Das „informelle Bewusstsein“, das Netz dass z.B. veranlasst den Satz zu schreiben: “Der Blitz schlägt in den Baum ein”, dürfte eher an Zwischen bzw. Endschichten “informell abgebildet” werden, wovon die steuernden Signale ausgehen. Die nachgeschalteten Verknüpfungen kann man sich nicht einfach „linear“ vorstellen, sondern im Prinzip “baumartig“, so dass nicht nur eine Dekodierung (welcher Buchstabe) sondern auch eine Sequenzierung (ein Buchstabe nach dem anderen) erfolgt.

    Was Sie unter „Regel“ verstehen, dürften so etwas wie „Zuordnungsvorschriften“ wie sie bei Kodierungs/Dekodierungsprozessen (mittels Gatteranordnungen im Sinne von McCulloch) auftreten, sein. Das „Sequenzierungsproblem“ kann mittels besondere Gatterstrukturen die von einer Art von „Takt“ gesteuert werden, in der Elektronik und wohl auf ähnliche Weise auch in der Neurologie, relativ einfach gelöst werden.

    Das „Bindungsproblem“ das Prof. Singer entdeckt hat, „passt“ vorzüglich zu McCullochs Gatterkonzept, weil Synchronitäten mittels Gatteranordnungen ausgewertet werde können. Physiker haben das „Bindungsproblem“ als grundlegend bestätigt und das Konzept z.B. im „Hirnschrittmacher“ (Parkinson, Epilepsie …) erfolgreich zur Anwendung gebracht.

    Solange man das Empfindungsbewusstsein nicht sicher (wie z.B. oben vage angedeutet) zuordnen und die Aktivitäten sicher messen kann, kann man nur aus dem Verhalten Vermutungen anstellen ob z.B. ein Fisch oder eine Fliege Empfindungen hat. Ich würde meinen, zumindest alles „Tierische“ was sich geschlechtlich vermehrt und vor Gefahr fliehen will, hat ein Empfindungsbewusstsein.

  48. Liebe Kommentatoren,

    eigentlich habe ich mir vorgenommen, jeden Ihrer Kommentar zu beantworten, und so arbeite ich die Kommentare der Reihe nach chronologisch ab, wenn ich etwas Freizeit finde, was bei mir selten passiert. Chronologisch mache ich das, damit ich keinen Kommentatoren bevorzuge. Kommentare, die sich nicht direkt auf meinen Text beziehen, beantworte ich oft nicht.

    Irgendwann muss ich aber wieder einen neuen Blogtext schreiben, und so schaffe ich’s einfach nicht, alle Kommentare abzuarbeiten.

    Ich weiß, ich sollte mich disziplinieren und kürzere Blogtexte verfassen, damit für die Kommentare mehr Zeit bleibt, und das wird auch sicher bald passieren, nur waren die Themen für mich bis jetzt grundsätzlich und somit relativ “breit”.

    Trotzdem freue ich mich sehr, dass die “Gehirn & KI”-Texte und ihre Themen hier von Ihnen so enthusiastisch, mit viel Spaß am Thema und fundiert diskutiert werden. Das zeigt nur, wie wichtig und interessant das Gebiet künstliche Intelligenz und künstliche neuronale Netze im Vergleich zur Hirnforschung sind.

    Ich hoffe, Sie verzeihen mir, wenn einige Ihrer Kommentare von mir unbeantwortet bleiben und diskutieren lustvoll weiter. Zum Glück gibt es hier genug versierte Diskutanten. Ihre Kommentare zu lesen schaffe ich auf jeden Fall. 🙂

    Auf meiner Facebookseite “Maschinenlernen” poste ich nahezu jeden Tag Neues zu künstlichen neuronalen Netzen und maschinellem Lernen – dort sind die Beiträge und die Kommentare viel kürzer, da es dort nicht so ins Philosophische geht wie hier. Eher werden im “Maschinenlernen” einzelne konkrete News aus der Welt der künstlichen Intelligenz verlinkt und gepostet. 🙂

    Ich würde mich sehr freuen, wenn Sie meine “Maschinenlernen”-Seite besuchen und dort auch mitdiskutieren könnten. Bald schließe ich der Seite eine Facebookgruppe an.

    Herzliche Grüße aus dem virtuellen Raum

    Jaromir

  49. Zitat Elektroniker: „Das „Bindungsproblem“ das Prof. Singer entdeckt hat, „passt“ vorzüglich zu McCullochs Gatterkonzept, weil Synchronitäten mittels Gatteranordnungen ausgewertet werde können. Physiker haben das „Bindungsproblem“ als grundlegend bestätigt und das Konzept z.B. im „Hirnschrittmacher“ (Parkinson, Epilepsie …) erfolgreich zur Anwendung gebracht.“
    .

    Ich erlaube mir hier nur eine Anmerkung am Rande: Prof. Wolf Singer hat nichts entdeckt und das Konzept der „Hirnschrittmacher“ zur Behandlung von Parkinson oder Epilepsie wurde nicht durch Physiker erfolgreich zur Anwendung gebracht, siehe z.B. folgende Studie: Parkinson-Behandlung mit Tiefenhirnstimulation (Hirnschrittmacher)

  50. @Elektroniker /1. Oktober 2018 @ 21:50

    Das „informelle Bewusstsein“, das Netz dass z.B. veranlasst den Satz zu schreiben: “Der Blitz schlägt in den Baum ein”, dürfte eher an Zwischen bzw. Endschichten “informell abgebildet” werden, wovon die steuernden Signale ausgehen.

    So stellt man es sich jedenfalls vor, bzw. geht davon aus, dass die “Information” in diesen Schichten verschmiert ist.
    Wenn ich Analogien verwende, dann tue ich das in dem Wissen, dass sie sehr grobschlächtig sind und nur ein ganz bestimmter Aspekt dem entspricht, was ich als analog empfinde. Sie sind also mit Vorsicht zu behandeln, wobei ich immer hoffe, dass das, worauf ich hinauswill, auch durchkommt.
    Ich denke, es ist schon klar, dass das Netz keinen Satz schreibt, wenn, dann bin ich oder irgendein andere Mensch derjenige, die/der ihn schreibt. Denn …

    Die nachgeschalteten Verknüpfungen kann man sich nicht einfach „linear“ vorstellen, sondern im Prinzip “baumartig“, so dass nicht nur eine Dekodierung (welcher Buchstabe) sondern auch eine Sequenzierung (ein Buchstabe nach dem anderen) erfolgt.

    …auch wenn die synaptischen Verbindungen tatsächlich strauchartig verzweigt sind, die Ähnlichkeit mit dem Beispiel endet da, wo man von einem Satz aus Wörtern und Buchstaben ausgeht. Denn so arbeitet das Gehirn nicht.

    Was Sie unter „Regel“ verstehen, dürften so etwas wie „Zuordnungsvorschriften“ wie sie bei (…)

    Mit Ordnung hat die Sache zu tun, das stimmt, aber nicht mit Zuordnung und nicht mit Vorschrift. Mit den Regeln kann man beschreiben, was passiert, aber interessanterweise ist es die Materie, die sich darauf einigen muss, wie sie die Regel erfüllt. Was die Zuordnung betrifft, wird die von einem Gesetz vorgegeben, und dabei geht es nur um Zeitfolgen, also Vergangenheit, Gegenwart, Zukunft.

  51. @Trice // 1. Oktober 2018 @ 14:50

    » Es kommt vielmehr auf die Regel an. «

    Aber diese „Regel“ muss doch in der Struktur oder in den Eigenschaften der beteiligten Neuronen irgendwie verankert sein. Wie sonst könnte die „funktionale“ Arbeitsweise eines Gehirns auf einer anderen Regel (oder anderen Regeln) basieren als bei der „prädikativen“ Variante. So, wie den Geschlechtern ja auch unterschiedliche physische Strukturen zugrunde liegen.

    Deshalb liegt es nahe, anzunehmen, dass die jeweils beteiligten Neuronen doch gewisse unterschiedliche Eigenschaften besitzen müssen, wenn sie sich bei dem einen so und bei der anderen anders auf etwas „einigen“ können, so dass am Ende „die Regel erfüllt ist“.

    Bekanntlich gleicht kein Gehirn absolut dem anderen. Die Spanne der verschiedenen Fähigkeiten und Begabungen ist immens. Diese Verschiedenheit lässt sich meines Erachtens am besten durch eine unterschiedliche Feinstruktur der Gehirne erklären (etwa bei der Empfindlichkeit oder Anzahl der Neuronen, dem Ausmaß der Verknüpfungen, was auch immer).

    Was aber aus meiner Sicht überhaupt nicht geht, ist zu sagen, dass zwei hypothetische Gehirne, die strukturell vollkommen gleich sind, dennoch eine unterschiedliche Performance (funktional/prädikativ) aufweisen können.

    Das heißt, wenn es tatsächlich einen fundamentalen Unterschied zwischen den prädikativ und funktional arbeitenden Gehirnen gibt, derart, dass man sogar von zwei mentalen Geschlechtern reden könnte, dann müsste man dementsprechend (im Prinzip) auch unterschiedliche KNN konstruieren können, die entweder nach der einen oder nach der anderen Variante funktionieren. Es sei denn, dass spezifische Eigenschaften der Neuronen der Knackpunkt sind und diese nicht nachgebildet oder simuliert werden können.

    (Soweit fürs erste… vielleicht lege ich noch nach)

  52. @ Balanus 3. Oktober 2018 14:13

    Ihrer Sicht, werter “Balanus”, stimme ich durchwegs fast schon begeistert zu.

    Würde „Trice“ formulieren „n“ Regeln, sich nicht festlegen auf eine bestimmte Anzahl, wäre die Aussage eine Tautologie, immer richtig. Praktisch alles geschieht nach Regeln. Aber man möchte die Regeln zumindest annähernd kennen. Nur dann gibt es Sinn, selbst wenn man nicht alle Regeln vollständig kennt.

    Der Lösung des ADHS Problems könnte man vielleicht mittels CT näher kommen.

    Man hat z.B. nachgewiesen dass die besondere Fähigkeit von Spitzengeigern darauf beruht, dass bestimmte Feinstrukturen im Gehirn die die Fingerfertigkeit steuern, besonders stark ausgeprägt sind, im Vergleich mit Durchschnittsmenschen.

    Ähnliches hat man mit Kellnern versucht die sich viel merken müssen. Kann allerdings nicht sagen ob etwas herausgekommen ist. Es hängt von der Auflösung der CT Geräte ab und von der Größe uns Art der beteiligten Neuronen.

  53. @Elektroniker // 3. Oktober 2018 @ 18:26

    Freut mich, dass Sie die Dinge ähnlich sehen wie ich, dann kann es so falsch ja nicht sein 😉

    Am 30. September 2018 @ 16:25 haben Sie geschrieben:

    » Die Nervenimpulse oder Aktionspotenziale gehen sehr wohl von einer bestimmten Quelle aus, man kann sie derzeit nur nicht, z.B. optisch, verfolgen.«

    Dazu fiel mir noch ein, dass man ja auch ohne Beteiligung der Netzhaut Bilder sehen kann, insbesondere beim Träumen. Manche hören gelegentlich auch Stimmen, ohne dass jemand etwas sagt. In diesen Fällen ist die Wahrnehmung kein Resultat einer von außen kommenden Signal- oder Informationsverarbeitung, sondern wird systemintern generiert.

    Könnte dereinst ein hochentwickeltes KNN so etwas im Prinzip auch leisten? „Power On“ und es beginnt im Netz zu arbeiten, ohne dass es einen speziellen Input gibt, lediglich ein Speicher, auf den das Netz „nach Belieben“ zugreifen kann.

  54. @Balanus / 3. Oktober 2018 @ 14:13

    Aber diese „Regel“ muss doch in der Struktur oder in den Eigenschaften der beteiligten Neuronen irgendwie verankert sein. Wie sonst könnte die „funktionale“ Arbeitsweise eines Gehirns auf einer anderen Regel (oder anderen Regeln) basieren als bei der „prädikativen“ Variante. So, wie den Geschlechtern ja auch unterschiedliche physische Strukturen zugrunde liegen.

    Sie ist ja auch verankert, nur nicht in der Struktur oder den Eigenschaften der Neurone, sondern in der Verschaltungsarchitektur des Gehirns. Das ist doch schon seit Jahren bekannt. Wolf Singer schrieb schon 1997,”Dies weist darauf hin, daß in der Hirnrindepluripotente Verarbeitungsalgorithmen realisiert sind, die für eine Vielzahl verschiedener Funktionen verwendet werden können und deren Iteration allein zur Emergenz qualitativ neuer Leistungen führen kann.” Nicht anders habe ich es beschrieben, außer dassich nicht von Verarbeitungsalgorithmen,sondern von Regeln spreche.

    Deshalb liegt es nahe, anzunehmen, dass die jeweils beteiligten Neuronen doch gewisse unterschiedliche Eigenschaften besitzen müssen, wenn sie sich bei dem einen so und bei der anderen anders auf etwas „einigen“ können, so dass am Ende „die Regel erfüllt ist“.

    Warum sollte das nahe liegen? Noch einmal Singer: ” (…) ergeben sich auf allen Verarbeitungsstufen kombinatorische Probleme, deren Grundstruktur immer die gleiche bleibt.” Nichts anderes ist mit “einigen” gemeint

    Was aber aus meiner Sicht überhaupt nicht geht, ist zu sagen, dass zwei hypothetische Gehirne, die strukturell vollkommen gleich sind, dennoch eine unterschiedliche Performance (funktional/prädikativ) aufweisen können.

    Also erst einmal sind es reale und keine hypothetischen Gehirne, zweitens “vollkommen gleich” sind keine zwei Gehirne, es gibt immer individuelle Unterschiede, schon deshalb, weil wir alle unterschiedliche Eigenschaften und Fähigkeiten haben, unterschiedliche Erfahrungen machen usw. und deshalb auch ständig im Gehirn neue Verbindungen entstehen und andere abgebaut werden.
    Woran man den Unterschied zwischen einem funktionalen und einem prädikativen Gehirn bisher festmachen kann, ist der unterschiedliche Dopaminstoffwechsel, also die Gehirnchemie. Das würde nach meiner Auffassung heißen: eine interne Kommunikation und “Verständigung” auf der Basis einer anderen Regelvariante bedingt einen anderen neurochemischen Stoffwechsel.

    Das heißt, wenn es tatsächlich einen fundamentalen Unterschied zwischen den prädikativ und funktional arbeitenden Gehirnen gibt, derart, dass man sogar von zwei mentalen Geschlechtern reden könnte, dann müsste man dementsprechend (im Prinzip) auch unterschiedliche KNN konstruieren können, die entweder nach der einen oder nach der anderen Variante funktionieren. Es sei denn, dass spezifische Eigenschaften der Neuronen der Knackpunkt sind und diese nicht nachgebildet oder simuliert werden können.

    Naja, der Knackpunkt dürfte die Chemie sein. Ob man das irgendwie nachbilden kann, weiß ich nicht. Andererseits lässt sich der Unterschied inzwischen auch im EEG sichtbar machen: Im Gegensatz zu dem EEG-Bild bei prädikativen Personen, bei denen man zu Beginn der Ableitung eine kontinuierliche Alpha-Grundaktivität feststellen kann, wechselt bei funktionalen Personen das Vigilanzniveau zu Beginn alle zwei bis drei Sekunden. Der Grund dafür könnte im o.g. Stoffwechsel liegen: Dopamin wird bei funktionalen Personen am synaptischen Spalt deutlich schneller in die präsynaptische Endplatte zurücktransportiert.

    Wie gesagt, etwas komplexer ist es halt schon. Weshalb ich denke, dass man solche Fragen erst einmal gelöst haben sollte, bevor man von Bewusstsein oder Intelligenz bei KNNen sprechen kann.

    (Soweit fürs erste… vielleicht lege ich noch nach)

    Ok

  55. @ Balanus 4. Oktober 2018 21:25

    Zitat: „Dazu fiel mir noch ein, dass man ja auch ohne Beteiligung der Netzhaut Bilder sehen kann, insbesondere beim Träumen. Manche hören gelegentlich auch Stimmen, ohne dass jemand etwas sagt. In diesen Fällen ist die Wahrnehmung kein Resultat einer von außen kommenden Signal- oder Informationsverarbeitung, sondern wird systemintern generiert.“

    „Traumbilder“ dürften in „Bewusstseinsschichten“ generiert werden, ähnlich wie reale Bilder (vom Input). Allerdings nicht vom realen Input ausgehend, sondern z.B. auch im technischen Sinne von „Störimpulsen“ stammend. Es könnten „Restladungen“ in Neuronen sein, die doch noch bei etwas veränderten chemischen Verhältnissen in der Nacht, oder wegen Störimpulsen (wenn auch nur kleine Störimpulse das Triggern von Neuronen auslösen können) neue Denkprozesse die über die „Bewusstseinsanzeigestrukturen“ führen, generieren. Die Restladungen könnten von am Tag vorher stattfindenden Denkprozessen stammen. Dies würde begründen, warum „Fragmente“ von den Denkprozessen vom Vortag in den Träumen „vorkommen“. Eine (fehlerhafte) Einspeisung (Koppelung) von (einzelnen) Signalen kann Signalkaskaden auslösen und auch zu absurden Denkprozessen führen.

    So etwas ähnliches wie „Bewusstseinsanzeigestrukturen“ grid cells (engl., etwa ‚Koordinaten-Zellen‘ oder ‚Raster-Zellen‘) hat Maybrit Moser im Hippocampus und im entorhinalen Cortex, identifiziert. Über Ratten ins Gehirn eingepflanzte Mikroelektroden konnte sie nach Auswertung der Signale gut voraussagen welche Futterstelle in einem Labyrinth das Versuchstier auswählen wird. Sie soll übrigens aus ihrem im Büro stehenden Lautsprecher, allein aus den Signalgeräuschen der Ableitungen, bereits erkannt haben wie sich das Tier entschieden hat, bevor es seinem Weg im Labyrinth antrat und noch vor der systematischen Auswertung im Computer.

    Was hier als (informelles) Bewusstsein bezeichnet wird, hat eine gewisse Ähnlichkeit mit Akkustrukturen (Datensammler) in der Informatik. Sie sind sozusagen der „Mittelpunkt“ der Informationsverarbeitung. Früher (als die Systeme noch „einfach“ waren) haben sich Techniker mit einem 2. Computer und passenden Schnittstellen, hauptsächlich beim Akku „aufgeschaltet“ um sozusagen mit dem 2. Computer (und passender Software) den 1. (z.B. defekten Computer) sozusagen „beim Denken zuzuschauen“ und Fehler zu ermitteln. Den 1. Computer wurden Prüfsignale eingespeist.

    Zitat: „Könnte dereinst ein hochentwickeltes KNN so etwas im Prinzip auch leisten? „Power On“ und es beginnt im Netz zu arbeiten, ohne dass es einen speziellen Input gibt, lediglich ein Speicher, auf den das Netz „nach Belieben“ zugreifen kann.“

    Derartiges ist bei Computersystemen völlig selbstverständlich. Wenn ein Computer keinen Input vom Nutzer erhält „beschäftigt“ sich das System sozusagen „mit sich selbst“. Er „prüft“ sich selbst auf Integrität, oder beschäftigt sich mit seiner internen Organisation, er nutzt sogar das Internet.

  56. Balanus, Trice

    Zitat: „Sie ist ja auch verankert, nur nicht in der Struktur oder den Eigenschaften der Neurone, sondern in der Verschaltungsarchitektur des Gehirns.“

    Ich meine, da liegt ein semantisches Problem vor.
    Unter „Struktur oder den Eigenschaften der Neurone“ ist nicht nur die Struktur eines einzelnen Neuron gemeint, sondern auch die Struktur des Neuronenverbandes bis hinauf zur Verschaltungsarchitektur des Gehirns.

    Für die Wissensabbildung sind hauptsächlich die synaptischen Verknüpfungen zuständig.

    Zwei hypothetische Gehirne können philosophisch gesehen völlig gleich sein, aber so gut wie niemals in der Realität.

    Dass es Wechselwirkungen zwischen den elektrischen Prozessen mit den chemischen Prozessen in neuronalen Systemen gibt erscheint klar, allerdings besteht hier offenbar noch großer Forschungsbedarf.

    Bewusstsein oder Intelligenz können mehr oder weniger genau in der Technik „nachgebildet“ werden. Je mehr darüber bekannt ist, desto besser wird die „Nachbildung“.

  57. @Elektroniker

    Für die Wissensabbildung sind hauptsächlich die synaptischen Verknüpfungen zuständig.

    Wo steht das bzw. wer behauptet das? Und falls Sie die tripartite Synapse meinen – auch da wüsste ich nicht, wie es zu eine “Wissensabbildung” kommen sollte.

    Dass es Wechselwirkungen zwischen den elektrischen Prozessen mit den chemischen Prozessen in neuronalen Systemen gibt erscheint klar, allerdings besteht hier offenbar noch großer Forschungsbedarf.

    Vielleicht sollten wir erst einmal unterscheiden zwischen chemischen und elektrischen Synapsen (gap junctions). Über letztere laufen Signale schneller ab und können in beide Richtungen übertragen werden. Chemische Synapsen dagegen haben in den Endplatten Vesikel, in denen die Botenstoffe enthalten sind, die am synaptischen Spalt ausgeschüttet werden, wenn das elektrische Signal am Axon entlang die Endplatte erreicht. Das Signal wird dann mittels Botenstoffen zur postsynaptischen Platte übertragen, wo es als elektrisches Signal zum Zellkern läuft – diese Übertragung ist aber keine Wechselwirkung. Das ist relativ gut untersucht.

  58. @ Trice 5. Oktober 2018 19:41

    Zitat: „Für die Wissensabbildung sind hauptsächlich die synaptischen Verknüpfungen zuständig.
    Wo steht das bzw. wer behauptet das? Und falls Sie die tripartite Synapse meinen – auch da wüsste ich nicht, wie es zu eine “Wissensabbildung” kommen sollte.“

    Abgesehen davon dass es „synaptische Verknüpfungen“ sind und genau genommen nicht „die synaptischen Verknüpfungen“ die eine „Wissensabbildung“ bewirken, halte ich dies für korrekt.

    Dies behauptet E. Kandel (wurde im Jahr 2000 mit dem Nobelpreis für Physiologie oder Medizin ausgezeichnet) und er hat es im Prinzip nachgewiesen und auch erklärt.
    Ich kann zwar die Chemie hinter den Prozessen höchstens grob verstehen, aber dass die Wissensabbildung mittels derartiger Strukturen erfolgt, ist für Elektroniker/Informatiker völlig plausibel.

    In der Informatik bezeichnet man derartige Strukturen als „Bäume“ und es erscheint zweckmäßig diesen Begriff in die Neurologie zu übertragen. Im Internet gibt es einfache Erklärungen zu „Wissen“, „Baumstruktur“ (beschreibt hierarchische Zusammenhänge) usw.
    Mittels „Baumstrukturen“ könnten Sie das was sie unter „Regeln“ umschreiben, genauer formulieren und auch Antworten auf Ihre offenen Fragen finden.

    Es sind höchst effiziente Strukturen die in der Informatik absolut grundlegend und alltäglich sind. „Wissen“ wird letztlich in der Informatik auf „baumartigen Strukturen“ abgebildet. Außerdem haben derartige Strukturen erstklassige und einfach zu realisierende Eigenschaften wie z.B. einfache Strukturerweiterung bei Wissenszuwachs (neue Neuronen und freie Dendriten werden eingebunden, bestehende Verbindungen „verstärkt“) und beste Zugriffseigenschaften. Es dürfte weitgehend unbestritten sein, dass die Neuronenverbände allein schon optisch erkennbar, derart strukturiert sind und auch dass sie sich bei offensichtlichem Wissenszuwachs erweitern.

    Ich vertrete weiters die Sichtweise von McCulloch der mit seinem „Gatterkonzept“, die Prädikatenlogik, die Grundlage für die Informationsverarbeitung (Boolsche Algebra) in der Elektronik/Informatik ist, auf neuronale Systeme überträgt und damit die Informationsverarbeitung im neuronalen System nachvollziehbar macht.

    Dass es Wechselwirkungen zwischen den elektrischen Prozessen mit den chemischen Prozessen in neuronalen Systemen gibt ist eine Vermutung von mir.

    Es geht nicht nur um die Vorgänge die Sie im Detail beschrieben haben. Kombinationen elektrischer Signale bewirken letztlich Empfindungen und dürften sogar organische Krankheitsprozesse auslösen (Psychosomatik) können.

  59. @Elektroniker: Wissensabbildung

    Dies behauptet E. Kandel (wurde im Jahr 2000 mit dem Nobelpreis für Physiologie oder Medizin ausgezeichnet) und er hat es im Prinzip nachgewiesen und auch erklärt.

    Kandel habe ich gelesen, dort aber nichts Deratiges gefunden. Im “Journal of Physiology” schrieb er nur: ” Der Umstand, das die verbindungen zwischen nervenzellen über eine halbe Stunde durch eine Versuchsanleitung verstärkt werden können, die darauf ausgelegt ist, ein behavioristisches Konditionierungsparadigma zu stimulieren, ässt darauf schließen , dass die begleitenden veränderungen in der syaptischen Stärke möglicherweise einfachen Formen der Informationsspeicherung zugrunde liegen.”

    Von Wissensabbildung steht da nichts. Was das behavioristische Konditionierungsparadigma angeht habe ich nebenan im Blog von Stephan Schleim am Beispiel eines KNN beschrieben, wie genau das funktioniert. Die verschiedenen Arten von Netzen (assoziative, autoassoziative,kompetitive usw.) sowie das operante und klassische Konditionieren eines Netzes beschreibt Frank Rösler in “Psychophysiologie der Kognition” sehr ausführlich. Von Wissensabbildung findet sich auch bei ihm nichts, wohl aber ein Kapitel “Wie wird Information repräsentiert?”:
    “Es ist offensichtlich nicht so sehr ein spezifischer Ort an einer eng umschriebenen Stelle der Großhirnrinde, an dem ein bestimmter Inhalt reaktiviert wird. Vielmehr gibt es beim Gedächtnisabruf immer ein großflächiges, weit ausgedehntes Aktivierungsmuster.” Diese Muster überlappen sich zu einem großen Teil und Untersuchungen haben ergeben, dass es sich beim Aufruf eines Inhalts um eine Mischung aus langfristigen gedächtniseinträgen und kurzfristigem Behalten handelt, die in der fMRT sichtbar gemacht werden kann. Allerdings wird dabei die Abhängigkeit des Signals vom Sauerstoffgehalt der roten Blutkörperchen gemessen.

    Nichts gegen Kandel, aber inzwischen ist die Forschung am Gehirn doch schon etwas weiter.

    Ich kann zwar die Chemie hinter den Prozessen höchstens grob verstehen, aber dass die Wissensabbildung mittels derartiger Strukturen erfolgt, ist für Elektroniker/Informatiker völlig plausibel.

    Was nicht daran hindern sollte, sich auf dem laufenden Stand zu halten, ;-).

    In der Informatik bezeichnet man derartige Strukturen als „Bäume“ und es erscheint zweckmäßig diesen Begriff in die Neurologie zu übertragen.

    Das liegt nicht in meiner Entscheidung, :-). Aber wenn Sie sich einmal ausschnittweise eine neuronale Verschaltung angesehen haben, dann trifft “strauchartig” weitaus besser zz als “baumartig”.

    Mittels „Baumstrukturen“ könnten Sie das was sie unter „Regeln“ umschreiben, genauer formulieren

    Mit Sicherheit nicht, soviel ist schon klar. Wir haben es mal mit Prädikatenlogik versucht, aber sie erwies sich als ungeeignet. In der Mathematik versucht man derzeit, eine neue Mathematik zu entwickeln, da die bisherige – von der Arithmetik bis zur Kategorientheorie – nur analytisch ist und nur Objekte zu beschreiben vermag. Aber für Disziplinen wie Systemtheorie, DATA Science, Strukturtheorie, Informationswissenschaften, Process Science, Organisationswissenschaften und Wissenswissenschaften ist sie nicht geeignet. Im Unterschied zur Mathematik soll diese neue Mathematik sich mit synthetischen Urteilen befassen – ich bin gespannt, was die machen.

    und auch Antworten auf Ihre offenen Fragen finden.

    Momentan ist es eher so, dass ich offene Fragen beantwort 😉

  60. @ Trice

    Dass E. Kandel möglicherweise selbst die große grundsätzliche Bedeutung seiner Entdeckung nicht völlig klar war, ist gut möglich. Er erklärt den Lernprozess und die Entstehung des Kurzzeit/Langzeitgedächtnis. Obwohl McCulloch das „Auswerteprinzip“ von Information mittels „Gatteranordnungen“ bereits in den 1940 er Jahren entdeckt hat, dürfte dies Kandel nicht bekannt gewesen sein.

    Aber dem Nobelpreiskomitee war dies offensichtlich bekannt.

    Dies belegt die Pressemitteilung:
    Zitat: „Den Nobelpreis des Jahres 2000 in Physiologie oder Medizin erhält:
    ….

    Eric Kandel, Center for Neurobiology and Behavior, Columbia University, New York, wird belohnt für seine Entdeckung, wie die Effektivität der Synapsen verändert werden kann und mit welchen molekularen Mechanismen das erfolgt. Anhand des Nervensystems einer Meeresschnecke als Modell, hat er gezeigt, daß Veränderungen der Funktion der Synapsen zentral für Lern- und Erinnerungsvermögen sind. Für die Entstehung einer Form von Kurzzeitgedächtnis spielt die Phosphorylierung in der Synapse eine wichtige Rolle. Für die Entstehung eines Langzeitgedächtnisses ist außerdem die Neubildung von Proteinen erforderlich, die u.a. dazu führen, daß sich Form und Funktion der Synapse ändern.“

    Wissen ist jedenfalls besonders strukturierte Information und wird nun einmal im (strukturierten) Gedächtnis strukturiert gespeichert. In den mir zugänglichen Publikationen wurde „Gedächtnisbildung“ mit „Wissen“ im Zusammenhang gebracht.

    Zitat Trice: “Es ist offensichtlich nicht so sehr ein spezifischer Ort an einer eng umschriebenen Stelle der Großhirnrinde, an dem ein bestimmter Inhalt reaktiviert wird. Vielmehr gibt es beim Gedächtnisabruf immer ein großflächiges, weit ausgedehntes Aktivierungsmuster.” Diese Muster überlappen sich zu einem großen Teil und Untersuchungen haben ergeben, dass es sich beim Aufruf eines Inhalts um eine Mischung aus langfristigen Gedächtniseinträgen und kurzfristigem Behalten handelt, die in der fMRT sichtbar gemacht werden kann. Allerdings wird dabei die Abhängigkeit des Signals vom Sauerstoffgehalt der roten Blutkörperchen gemessen.“

    Dem kann ich aus meiner Sicht zustimmen. Würde jedoch hinzufügen:
    Die Aktivierungen, (z.B. bei der Auswertung) ergeben sich durch letztlich elektrische Signalflüsse durch die kaskadiert und hoch komplex angeordneten Neuronen.
    Es verhält sich so ähnlich wie ehemals bei komplex und kaskadiert angeordneten Gatteranordnungen der Elektronik.
    Mathematische Grundlage ist die Boolsche Algebra.

    Ihren Einwand bezüglich der noch fehlenden Mathematik, sehe ich auch.
    Die zeitlichen und statistischen Effekte (der redundanten) Speicherung und der Sachverhalt dass die „Neuronengatter“ ihre Funktion nicht präzise wie technische Gatter ausführen, kann vermutlich derzeit nicht ausreichend beschrieben werden.

    Ein Neuron erfüllt eine „Gatterfunktion“, im Gegensatz zur Elektronik, sozusagen nur statistisch.

    Ein Neuron triggert dann, wenn der Schwellwert erreicht wird, wenn auf möglichst vielen Eingängen (Dendriten) möglichst gleichzeitig Impulse eintreffen. Ich würde dies „qualifiziertes UND“ nennen.
    In der Elektronik sind derartige „Gatterverknüpfungen“ nicht redundant und entsprechen exakt der Boolschen Algebra. Die Prozesse die in Prozessoren (von Neuman) ablaufen, werden mittels Programmiersprachen bestens beschrieben.

  61. @ Elektroniker: Konzepterwerb

    Es ist vielleicht nicht ganz klar geworden, dass ich vom menschlichen Gehirn und seiner Arbeitsweise spreche – zu künstlich intelligenten Wesen (KI) kann ich dagegen nichts sagen und
    zu Netzwerken auch nur wenig.

    Was das Gehirn betrifft sieht das ganz anders aus. Ich wäre auf die Unterscheidung zwischen einem prädikativ und einem funktional arbeitenden Gehirn vermutlich nicht gekommen, wenn ich nicht die Frage gestellt hätte, wie eigentlich das Wissen “ins Gehirn kommt”, bzw. wie der Konzepterwerb funktioniert.
    Diese Frage hätte ich nicht gestellt, wenn mir nicht der Unterschied zwischen diesen beiden Gruppen aufgefallen wäre. Dem bin ich mit einer Reihe von Tests nachgegangen. In diesen Tests zeigte sich, dass bei funktionalen Personen kein Lerneffekt eintrat, wenn das Wissen in der falschen Reihenfolge präsentiert wurde. Das ging teilweise soweit, dass diese Personen, wen ihnen ein Bild präsentiert wurde, nichts erkennen konnten, auch wenn es sich um einfache Abbildungen handelte, die die Leute der anderen Gruppe spontan erkannten; dass sie einfache Sätze, mitunter sogar Wörter nicht verstanden und deshalb nicht in der Lage ware, sie zu wiederholen. Änderte ich die Reihenfolge , in der ih das, was gelernt werden sollte, änderte, klappte es auf Anhieb – dann hatten allerdings die Personen der anderen Gruppe Schwierigkeiten.
    Das war der Grund, weshalb ich anfing, mich mit Hirnforschung zu beschäftigen, um herauszufinden, wie verläuft der Prozess des Wahrnehmens, des Erkennens und des Verstehens im menschlichen Gehirn, und worin unterscheidet sich dieser Prozess bei den einen und bei den anderen, bzw. wie arbeitet das Gehirn der einen Gruppe im Unterschied zur anderen.
    Mein größtes Problem dabei war, dass ich in Lehrbüchern, Fachbüchern, wissenschaftlichen Artikeln zwar jede Menge von dem lesen konnte, was Sie und Balanus hier schreiben, aus diesen Unmengen an Fakten aber nicht extrahieren konnte, was den Unterschied ausmachte – die Veränderung an den Synapsen finden bei der einen Gruppe ebenso statt wie bei der anderen, die Neuronen unterscheiden sich nicht, auch Verschaltungsarchitektur und Hirnstrukturen sind nicht signifikant anders – und trotzdem dieser gravierende Unterschied, der sich nur an der unterschiedlichen Reihenfolge, die man als Regel formulieren kann, festmachen lässt. Und ich habe mich immer wieder gefragt, worauf die Wissenschaftler da alle bloß gucken und was sie da teilweise in ihre Ergebnisse hineininterpretieren.

    Trotzdem gab es in den Bergen von Literatur immer wieder etwas, wonach ich gesucht hatte und von dem ich wusste, es muss da irgendwo sein. Gut, ich hatte Hilfe, aber auch denen musste ich sagen, wonach ich suche und was mir fehlt. Aber irgendwann hatte ich es dann.
    Es war dann gar nicht mehr so schwierig zu beschreiben, wie das Gehirn arbeitet, und wie wir zu unserem Wissen, zu den Inhalten unseres Gedächtnisses kommen und neues Wissen erwerben usw. Das lässt sich ganz gut im Modell darstellen, es wird allerdings zunehmend unübersichtlicher, je höher man in der Hierarchie kommt, aber die Grundstruktur blebt immer dieselbe.

    Weitaus schwieriger war und ist, diese von Singer erwähnten Verarbeitungsalgorithmen in ein Regelwerk zu übersetzen – ein prädikatives und ein funktionales – , zumal die Mathematiker, mit denen ich zusammengearbeitet habe, mir nicht mehr weiterhelfen konnten.

    Jedenfalls solange Sie alle sich auf die Netzwerke inklusive Synapsen konzentrieren, wird niemand herausfinden, wie ein menschliches Gehirn arbeitet. OK?

  62. @ Trice

    Zitat: “Dem bin ich mit einer Reihe von Tests nachgegangen. In diesen Tests zeigte sich, dass bei funktionalen Personen kein Lerneffekt eintrat, wenn das Wissen in der falschen Reihenfolge präsentiert wurde. Das ging teilweise soweit, dass diese Personen, wen ihnen ein Bild präsentiert wurde, nichts erkennen konnten, auch wenn es sich um einfache Abbildungen handelte, die die Leute der anderen Gruppe spontan erkannten; dass sie einfache Sätze, mitunter sogar Wörter nicht verstanden und deshalb nicht in der Lage waren, sie zu wiederholen. Änderte ich die Reihenfolge , in der ich das, was gelernt werden sollte, änderte, klappte es auf Anhieb – dann hatten allerdings die Personen der anderen Gruppe Schwierigkeiten.“

    Derartige Phänomene interessieren mich.
    Ich verstehe allerdings nicht, wie Sie ein Bild in der falschen Reihenfolge „eingeben“ können?
    Wenn ein linearer Prozess falsch „ abgebildet“ würde, wäre das Verständnisproblem naheliegend.

    Es gibt ein irgendwie ähnliches Phänomen, das „Balint Syndrom“. Es ging ursprünglich um eine Grundschullehrerin die einen Kopfschuss abbekam und danach z.B. einen am Tisch liegenden Füllhalter nicht wahrnehmen konnte, aber wenn man sie aufforderte eine Unterschrift zu leisten konnte sie das anstandslos mit dem Füller. Ursache dürfte die hoch komplexe redundante Informationsspeicherung sein, wobei es Ausfälle gibt wenn assoziative Verbindungen gestört werden, oder möglicherweise nicht vorhanden sind, was beim Balint Syndrom erforscht sein dürfte.

    In der EDV gibt es das Problem, dass manche Menschen sehr gut z.B. mit Excel Tabellen umgehen können, aber sich beim funktionalen Programmieren mitunter sehr schwer tun.

    Für diejenigen die das Gehirn letztlich für eine „Musterverarbeitungsmaschine“ halten, könnte das von Ihnen angesprochene Phänomen damit zusammenhängen, dass die Musterkomponenten die die „örtliche“, oder „zeitliche“ Musterkomponente abbilden unterschiedlich stark ausgeprägt sind.
    Bei „prädikativen Typen“ dürften die örtlichen-, bei „funktionalen Typen die zeitlichen Musterkomponenten bevorzugt werden. Dies wäre letztlich ein Strukturproblem, so wie eben z.B. Berufsgeiger eine besonders ausgeprägte Feinsteuerung der Fingerfertigkeit besitzen.

    Herr Holzherr hat einige Ansätze der Strukturbildung erklärt (Faltung) wie sie auch in natürliche neuronalen Netzen auftreten dürften.

  63. @Trice // 6. Oktober 2018 @ 19:58

    Ihre Antwort an @Elektroniker zum Konzepterwerb hat mir noch mal verdeutlicht, wie unterschiedlich wir bereits den Begriff „Arbeitsweise“ zu verstehen scheinen, soweit es um das Gehirn geht: Ich nämlich denke dabei zuvörderst an die elementaren organischen Prozesse und Strukturen, Sie offenbar an höhere kognitive Funktionen, wie sie im Begriffspaar „prädikativ/funktional“ zum Ausdruck kommen.

    Ich habe kein Problem damit, mir vorzustellen, dass das Erkennen logischer und/oder kausaler Zusammenhänge bei Menschen derart unterschiedlich abläuft, dass man diese beiden Gruppen (prädikativ/funktional) bilden kann (auch wenn ich dazu tendiere, dass es dabei auch Überschneidungen oder Mischformen geben muss, aus biologischen Gründen).

    Aber wenn es so ist und es diesen prädikativ/funktional-Unterschied tatsächlich gibt, dann muss es dafür einen Grund geben, und diesen Grund sehe ich eben in den basalen neuronalen Strukturen und Prozessen. Ob man diese nun kennt oder nicht, spielt zunächst mal keine Rolle, es muss sie einfach geben, wiederum aus sozusagen bio-logischen Gründen.

    Einen Hinweis liefert ja bereits der Befund, dass es zwischen den besagten Gruppen offenbar einen Unterschied im Dopaminstoffwechsel gibt. Sie schreiben hierzu:

    » [E]ine interne Kommunikation und “Verständigung” auf der Basis einer anderen Regelvariante bedingt einen anderen neurochemischen Stoffwechsel«

    Nun rätsele ich noch darüber, was genau mit „bedingt“ gemeint ist: „bedingt“ im Sinne von „erfordert“, oder im Sinne von „bewirkt“?

    Aus meiner Sicht müsste „erfordert“ gemeint sein: die Regelvariante „funktional“ setzt einen anderen neurochemischen Stoffwechsel voraus als die Variante „prädikativ“. Die Neurochemie bzw. Neurophysiologie würde demnach darüber entscheiden, ob ein Gehirn funktional oder prädikativ arbeitet (vereinfacht gesagt, es geht mir nur ums Prinzip, andere mögliche Faktoren/Bedingungen/Voraussetzungen lasse ich außen vor).

    Nebenan auf Menschen-Bilder fragen Sie (5. Oktober 2018 @ 12:59):

    » Warum meinen eigentlich alle, dass sich die Arbeitsweise des menschlichen Gehirns mal eben so auf ca. zwanzig Seiten und mit einem einzigen Experiment beschreiben und erklären lässt? «

    Zwanzig Seiten, ja, die sollten genügen, um das Prinzip zu erläutern, ein einziges Experiment, nein, das würde nicht weiterhelfen.

    Ich meine, es dürfen auch 2 x 20 Seiten sein (Teil 1 und Teil 2), wenn es der Sache bzw. dem Verständnis dient.

  64. @Elektroniker: Reihenfolge

    Ich verstehe allerdings nicht, wie Sie ein Bild in der falschen Reihenfolge „eingeben“ können?

    Sie präsentieren ja nicht nur ein Bild. Würden Sie einer x-beliebigen Zahl von Leuten nur ein Bild hinlegen, würden die einen vielleicht einen Blick darauf werfen und sich wieder einer anderen Sache widmen, einige würden es anschauen und vielleicht “schön” ,”uninteressant” oder “Na und?” finden wieder ander würden es wegwerfen, usw.

    Also, im Normalfall präsentiert man ein Bild mit einer Aussage, die darauf zielt, eine Antwort zu erhalten. Das heißt, die Leute müssen Bild und Aussage in einen Zusammenhang bringen.
    Die “normale” Reihenfolge ist also:
    1. Präsentation des Bildes 2. Aussage zum Vorgehen oder Frage, 3. Antwort,

    Funktioniert bei allen prädikativen Leuten, bei funktionalen nur, wenn die sich mit einem Trick behelfen. Für die muss die Reihenfolge lauten
    1. Aussage zum Zweck , 2. Präsentation des Bildes, 3. Antwort

    Wenn in 1. der Zweck nicht enthalten ist, hat die Person drei Möglichkeiten: entweder sie setzt willkürlich einen (sie rät), oder sie fragt, worum es geht, oder sie steht , sitzt einfach da und macht nichts. Wenn man dann nachfragt, stellt sich heraus, sie erkennt auf dem Bild nichts (heißt: sie sieht zwar etwas, aber das ergibt keinen Sinn), sie hat auch die Aussage oder Frage nicht verstanden.

    Das Problem, das die Hirnforschung hat – und vermutlich auch die KI-Forschung: sie geht induktiv vor, d.h., sie versucht, von den Teilen zum Ganzen zu kommen.
    Ich bin den umgekehrten Weg gegangen: vom Ganzen zu den Teilen.

  65. @Balanus:

    Ich nämlich denke dabei zuvörderst an die elementaren organischen Prozesse und Strukturen, Sie offenbar an höhere kognitive Funktionen, wie sie im Begriffspaar „prädikativ/funktional“ zum Ausdruck kommen.

    Ich denke an beides, weil eins nicht geht oder das andere: neuronale Strukturen und Prozesse und kognitive Funktionen – und ich denke daran, beides miteinander zu verbinden.
    Neuronale, organische Strukturen und Prozesse sind sinn- und nutzlos, wenn es keine kognitiven Funktionen gibt, die auf sie zugreifen können. Und kognitive Funktionen sind sinnlos, wenn es keine neuronalen Strukturen und Prozesse gibt.

    Ich habe kein Problem damit, mir vorzustellen, dass das Erkennen logischer und/oder kausaler Zusammenhänge bei Menschen derart unterschiedlich abläuft, dass man diese beiden Gruppen (prädikativ/funktional) bilden kann (auch wenn ich dazu tendiere, dass es dabei auch Überschneidungen oder Mischformen geben muss, aus biologischen Gründen).

    Mischformen kann es nicht geben, weil die “Verbindung” auf der Reihenfolge der Variablen einer Regel basiert, die bereits in der Verschaltungsarchitektur realisiert ist. ich kann mir auch nicht vorstellen, wie das funktionieren soll: ein Gehirn, das bei jedem einzelnen Prozess wählen soll, ob es nach dieser oder der anderen Variante vorgehen soll. Was es dagegen gibt, sind “Übersetzungen” vom Funktionalen ins Prädikative. Denn letzteres ist der Ablauf der Realität, und ein funktionales Gehirn muss sich dem anpassen knnen.

    » [E]ine interne Kommunikation und “Verständigung” auf der Basis einer anderen Regelvariante bedingt einen anderen neurochemischen Stoffwechsel«

    Nun rätsele ich noch darüber, was genau mit „bedingt“ gemeint ist: „bedingt“ im Sinne von „erfordert“, oder im Sinne von „bewirkt“?

    Sowohl als auch, deshalb habe ich ja auch “bedingt” geschrieben. Bewirkt kommt der Sache zwar näher, aber es hätte ja auch andere Lösungen für das Problem geben können.

    Aus meiner Sicht müsste „erfordert“ gemeint sein: die Regelvariante „funktional“ setzt einen anderen neurochemischen Stoffwechsel voraus als die Variante „prädikativ“.

    Sie erfordert eine Lösung, mit der sie erfüllt werden kann. Wie diese aussieht, ist nicht festgelegt. Aber diese hat sich offenbar als erfolgreich erwiesen

    Die Neurochemie bzw. Neurophysiologie würde demnach darüber entscheiden, ob ein Gehirn funktional oder prädikativ arbeitet (vereinfacht gesagt, es geht mir nur ums Prinzip, andere mögliche Faktoren/Bedingungen/Voraussetzungen lasse ich außen vor).

    Nein, das geht ja nun doch nicht, :-). Die Regel bzw. die beiden Varianten sind ja unendlich viel älter.

    » Warum meinen eigentlich alle, dass sich die Arbeitsweise des menschlichen Gehirns mal eben so auf ca. zwanzig Seiten und mit einem einzigen Experiment beschreiben und erklären lässt? «

    Zwanzig Seiten, ja, die sollten genügen, um das Prinzip zu erläutern, ein einziges Experiment, nein, das würde nicht weiterhelfen.
    Ich meine, es dürfen auch 2 x 20 Seiten sein (Teil 1 und Teil 2), wenn es der Sache bzw. dem Verständnis dient.

    Nun, theoretisch geht es sogar noch kürzer:

    Es existieren zwei in sich homogene menschliche Gehirne, die sich darin unterscheiden, dass ihre Arbeitsweise auf einem universalen Gesetz beruht, das zwei Varianten vorliegt. Die Gehirnprozesse beruhen dabei auf Regeln, die entweder der einen oder der anderen Variante unterliegen. Die Varianten nennen wir Prädikativ- und Funktionalgesetz. Das Prädikativgesetz lautet: Weil an Vergangenem(X) Gegenwärtiges (Y) ansetzt, deshalb wird Zukünftiges (Z) (nicht mehr) existieren. Das Funktionalgesetz lautet. Weil Zukünftiges (Z) im Vergangenem(X) vorkommt, deshalb setzt Gegenwärtiges (Y) an Zukünftigem an. Die Regeln beschreiben – in der Wenn, dann-Form – Abläufe und Erzeugungsprozesse, basierend auf entweder der prädikativen oder der funktionalen Variante.

    Das wäre das Prinzip. Nur glaube ich nicht, dass eine solche Aussage auch nur ansatzweise verstanden würde.

  66. @Balanus: Erklärungsprobleme

    Dass dieses Prinzip, wenn man es so hinschreibt, nichts erklärt, dürfte evident sein. Wen es dennoch interessiert, der wird nachfragen: Wie kommt man überhaupt darauf, dass es zwei in sich homogene Gehirne geben könnte; woran machen Sie das fest; was ist das für ein Gesetz, was sind das für Regeln; was bedeuten die Aussagen; wieso können es nicht Denkstile sein, warum nur zwei Gehirne – ohnehin gleichen sich doch keine zwei Gehirne vollständig, usw.

    Also muss man das ausführen, und das geht dann schon weit über das Prinzip hinaus, davon abgesehen, dass ich anfangs nicht mehr als die beiden Regeln hatte, aber kein Gesetz.
    Wenn Sie an Singers Aussage der “pluripotenten Verarbeitungsalgorithmen” denken, die “für eine Vielzahl verschiedener Funktionen verwendet werden können und deren Iteration allein zur Emergenz qualitativ verschiedener Leistungen führen können”, dann betrifft das zwar die Regeln, aber es gibt von ihnen Variationen. Nichtsdestotrotz ist es das, was man – wenn man sie kennt – dann auch kann: sie mit den verschiedenen Funktionen in Verbindung bringen, und zeigen, wie diese Iteration funktioniert und wie dadurch, hören, sehen, fühlen möglich wird – sowohl auf prädikative als auch auf funktionale Weise. Ein Experiment hat man damit immer noch nicht, ganz abgesehen davon, dass man mit dem Experiment nur das Zutreffen der Regel belegen kann, aber keine Regel erhält.

    Imgrunde macht man, wenn man einem KNN oder einer KI haufenweise Bilder im Internet präsentiert, nicht viel anderes: Aus der Regel kommt man nicht aus, die bleibt dieselbe. Das heißt, man baut die KI, schon dabei hält man sich an die universale Regel bzw. geht nach ihr vor, dann präsentiert man ihr Bilder, und dann fragt man das Ergebnis, die Antwort ab. Deshalb sind aber beide noch lange nicht dasselbe.

  67. @Trice // 8. Oktober 2018 @ 11:55

    » Neuronale, organische Strukturen und Prozesse sind sinn- und nutzlos, wenn es keine kognitiven Funktionen gibt, die auf sie zugreifen können. «

    Ich würde es anders formulieren: Höhere kognitive Funktionen setzen besondere neuronale, organische Strukturen und Prozesse voraus. Deshalb denke ich bei ‚Arbeitsweise‘ zuvörderst an die der Kognition zugrundeliegenden Prozesse und Strukturen.

    » ich kann mir auch nicht vorstellen, wie das funktionieren soll: ein Gehirn, das bei jedem einzelnen Prozess wählen soll, ob es nach dieser oder der anderen Variante [prädikativ/funktional] vorgehen soll.«

    Bei jedem einzelnen Prozess? Ich dachte, der Unterschied zwischen den beiden Varianten würde sich nur bei höheren kognitiven Funktionen zeigen (wie bei jenen Testaufgaben, von denen Schwank berichtet). Allem Anschein wäre demnach nur ein kleiner Bereich der kognitiven Funktionen betroffen, nämlich der, der für das Erkennen von Sach- und Kausalzusammenhängen zuständig ist, was im Weiteren dann auch für eine angemessene Prädiktion relevant ist.

    Ich sage nicht, dass ein Individuum (oder Gehirn) zwischen den beiden Varianten hin- und herschalten kann, sondern meine, dass es jeweils verschieden starke Ausprägungen dieser Varianten geben könnte, womöglich auch in ein und demselben Individuum. Welche Arbeitsweise dann letztlich zum Zuge kommt, hängt von den Begleitumständen ab.

    »____ Die Neurochemie bzw. Neurophysiologie würde demnach darüber entscheiden, ob ein Gehirn funktional oder prädikativ arbeitet (…).
    Nein, das geht ja nun doch nicht, :-). Die Regel bzw. die beiden Varianten sind ja unendlich viel älter.«

    Inwiefern ist das Alter der Regelvarianten von Relevanz für die Funktion von Organen?

    Ihrer Theorie nach entscheidet es sich bereits bei der Befruchtung der Eizelle, ob sich ein funktional oder prädikativ arbeitendes Gehirn entwickeln wird. Alle Entwicklungsprozesse verlaufen regelkonform. Irgendwo im Entwicklungsgang müsste die Entwicklung des zentralen Nervensystems dann divergieren, so dass am Ende nur eine der beiden Varianten zum Tragen kommt. Bisher ist der Dopaminstoffwechsel der einzig bekannte Unterschied zwischen den beiden Varianten. Also ist die Entwicklung der Neurochemie ein (mit-)entscheidender Faktor dafür, welche Variante realisiert wird.

    In einer Antwort an die Adresse von @Elektroniker haben Sie am Ende geschrieben:

    » Das Problem, das die Hirnforschung hat – und vermutlich auch die KI-Forschung: sie geht induktiv vor, d.h., sie versucht, von den Teilen zum Ganzen zu kommen.
    Ich bin den umgekehrten Weg gegangen: vom Ganzen zu den Teilen.
    «

    Die Fragen, die wir an die Natur stellen, gehen fast immer von etwas Ganzem aus. Etwa wenn wir fragen, wie ein System funktioniert. So kommt man vom Ganzen zu den Teilen, die das System konstituieren — und selbst wiederum Systeme darstellen. Dieses Spiel kann man weitertreiben bis hin zu den elementarsten Teilchen, womit wir dann die Grenze unserer Erkenntnisfähigkeit erreicht hätten.

    Bei der Konstruktion eines Systems kann man aber nicht anders vorgehen, als Teile zu einem Ganzen zusammenzufügen: Atome organisieren sich zu Molekülen, Moleküle zu Zellen, Zellen zu Organismen, Organismen zu Gesellschaften.

    Diese Selbstorganisation kann natürlich nur im Rahmen der naturgegebenen Gesetzmäßigkeiten oder „Regeln“ ablaufen. Und dieser Ablauf kann nur von unten nach oben erfolgen, vom Einfachen zum Komplexen, von den Teilen zum Ganzen.

    Das heißt, die KI-Forschung kann gar nicht anders, als zu versuchen, von den Teilen zum Ganzen zu gelangen, wenn sie verstehen und erklären will, wie das Ganze funktioniert.

    Ich halte es für einen wichtigen Punkt, dass man eine Vorstellung davon hat, wie aus dem Neuroektoderm entweder ein funktional oder ein prädikativ arbeitendes Gehirn wird, wo und wann die Weichen dafür gestellt werden.

  68. @Balanus / 11. Oktober 2018 @ 00:15

    » Neuronale, organische Strukturen und Prozesse sind sinn- und nutzlos, wenn es keine kognitiven Funktionen gibt, die auf sie zugreifen können. «

    Ich würde es anders formulieren: Höhere kognitive Funktionen setzen besondere neuronale, organische Strukturen und Prozesse voraus. Deshalb denke ich bei ‚Arbeitsweise‘ zuvörderst an die der Kognition zugrundeliegenden Prozesse und Strukturen.

    Nein, das wäre nicht richtig: Gehirn (Neuronale Verschaltungsarchitektur) und Funktion bedingen sich wechselseitig, d.h., das Eine setzt das Andere voraus und umgekehrt. Ein Bekannter meinte einmal, das Cerebellum sei anfangs ohne Funktion gewesen, die sei erst entstanden, nachdem sich das Cerebellum entwickelt hätte. Das ist jedoch völlig unmöglich: bevor sich eine Struktur entwickelt, muss es eine Notwendigkeit für sie und ihre Funktion geben. Die Strukturen entwickeln sich also gemäß ihrer (kognitiven) Funktion, umgekehrt leistet die Funktion nur das, was die Struktur hergibt.

    » ich kann mir auch nicht vorstellen, wie das funktionieren soll: ein Gehirn, das bei jedem einzelnen Prozess wählen soll, ob es nach dieser oder der anderen Variante [prädikativ/funktional] vorgehen soll.«

    Bei jedem einzelnen Prozess? Ich dachte, der Unterschied zwischen den beiden Varianten würde sich nur bei höheren kognitiven Funktionen zeigen (wie bei jenen Testaufgaben, von denen Schwank berichtet).

    Ich habe es bisher vermieden, das erneut anzusprechen: Frau Schwank konnte als Mathematikdidaktikerin nie mehr behaupten als das, was sich innerhalb ihres Forschungsbereichs untersuchen lässt, sie ist keine Hirnforscherin und keine Psychologin. Diese Beschränkung habe ich nicht, weshalb ich weitergehen und den Unterschied bis auf Hirnebene und darüber hinaus zeigen konnte: indem ich auf zwei Regeln rekurrierte, die bedauerlicherweise nur die kognitiven Psychologen zu kennen scheinen.
    Ich habe mit Mathematikern dazu diskutiert, die zwar nichts gegen meine modifizierten Regeln hatten, mir aber klarmachten, dass sie damit nichts anfangen können. Es hat lange gedauert, aber vor einiger Zeit sagte mir einer von ihnen, der sich sehr lange damit beschäftigt hat, ich müsse ein Gesetz postulieren, zu dem diese Regeln gehören. Wenn dieses Gesetz in zwei Varianten vorläge, wäre das ok, aber ich müsse dann außerdem sagen: Was ist das für ein Gesetz, welche Aussage macht das Gesetz und welche Aussage machen die Varianten. Und da ich schon früher gesagt habe, es handele sich bei den Regeln um Kausalität, was reichlich schwamig war, wurde es mit dieser Forderung einfacher: Kausalität ist ein Gesetz, das in zwei Varianten vorliegt und mit kausalen Regeln ausgeführt wird. Deshalb ja: jeder einzelne Prozess im Gehirn unterliegt dem Gesetz und einer seiner Regeln – daher die Aussage von Singer, dem das aufgefallen war. Ausführlich schreibt er:

    “Das Gehirn des Menschen unterscheidet sich von den Gehirnen anderer Säugetiere lediglich durch die gewaltige Zunahme des Volumens der Großhirnrinde undder mit ihr in Beziehung stehendenStrukturen. Selbst die Binnenorganisation der Großhirnrinde wurde seit ihrem ersten Auftreten im wesentlichen beibehalten. Dies weist darauf hin, daß in der Hirnrinde pluripotente Verarbeitungslgorithmen realisiert sind, die für eine Vielzahl verschiedener Funktionen verwendet werden können, und deren Iteratin allein zur Emergenz qualitativ neuer Leistungen führen kann. (…) Wahrnehmen, dDnken, Erinnern, Sprachproduktion und Sprachverstehen, das Planen von Handlungsentwürfen und die Programmierung von Bewegungsabläufen erscheinen als recht unterschiedliche Leistungen und doch beruhen sie allesamt im wesentlichen auf Funktionen der Großhirnrinde. Die Analyse der histologischen Feinstruktur der Hirnrinde stützt die Hypothese, daß mit der Evolution dieses Netzwerkes von Nervenzellen ein Modus der Informationsverarbeitung erfunden wurde, der zur bewältigung unterschiedlicher Aufgaben taugt.” *
    Nichts anderes behaupte ich – außer dass ich den Verarbeitungsalgorithmen einen Namen gebe: ich nenne sie kausale Regeln, die alle das gleiche Grundmuster aufweisen; dass bewegungsabläufe nicht programmiert werden, sondern ebenfalls diesen Regeln folgen; und dass diese Modus nicht erfunden wurde, er – die Kausalität – war schon da. Ockhams razor

    Ich sage nicht, dass ein Individuum (oder Gehirn) zwischen den beiden Varianten hin- und herschalten kann, sondern meine, dass es jeweils verschieden starke Ausprägungen dieser Varianten geben könnte, womöglich auch in ein und demselben Individuum. Welche Arbeitsweise dann letztlich zum Zuge kommt, hängt von den Begleitumständen ab.

    🙂 Genau das sagte mir damals auch der Wissenschaftler, mit dem ich mehrere Jahre zusammengearbeitet habe,und er lachte, als ich sagte, um das zu bestätigen, müsste ich meine Seele verkaufen und das tue ich nicht. Aber nachdem ich mit den Regeln grob erklären konnte, dass es um die Arbeitsweise des Gehirns geht, hat er verstanden und zugestimmt.

    »Nein, das geht ja nun doch nicht, :-). Die Regel bzw. die beiden Varianten sind ja unendlich viel älter.«

    Inwiefern ist das Alter der Regelvarianten von Relevanz für die Funktion von Organen?

    Kausalität als Gesetz in zwei Varianten gab es schon, bevor es Menschen gab.

    Ihrer Theorie nach entscheidet es sich bereits bei der Befruchtung der Eizelle, ob sich ein funktional oder prädikativ arbeitendes Gehirn entwickeln wird. Alle Entwicklungsprozesse verlaufen regelkonform.

    Bis hierher: ja. Aber das verstehe ich nicht:

    Irgendwo im Entwicklungsgang müsste die Entwicklung des zentralen Nervensystems dann divergieren, so dass am Ende nur eine der beiden Varianten zum Tragen kommt.

    Nein, das stand doch schon mit der Befruchtung der Eizelle fest. Weshalb sollte im Entwicklungsprozess die Entscheidung noch einmal getroffen werden?

    Bisher ist der Dopaminstoffwechsel der einzig bekannte Unterschied zwischen den beiden Varianten. Also ist die Entwicklung der Neurochemie ein (mit-)entscheidender Faktor dafür, welche Variante realisiert wird.

    Nicht unbedingt: ADHS ist eine extreme Ausprägung der funktionalen Art, und ADHS ist genetisch bedingt.

    Die Fragen, die wir an die Natur stellen, gehen fast immer von etwas Ganzem aus. Etwa wenn wir fragen, wie ein System funktioniert. So kommt man vom Ganzen zu den Teilen, die das System konstituieren — und selbst wiederum Systeme darstellen. Dieses Spiel kann man weitertreiben bis hin zu den elementarsten Teilchen, womit wir dann die Grenze unserer Erkenntnisfähigkeit erreicht hätten.

    So gehen Sie und Ihre Kollegen aber nicht vor, sondern so:

    Bei der Konstruktion eines Systems kann man aber nicht anders vorgehen, als Teile zu einem Ganzen zusammenzufügen: Atome organisieren sich zu Molekülen, Moleküle zu Zellen, Zellen zu Organismen, Organismen zu Gesellschaften.

    Doch, das kann man, indem man (wie bei einem Puzzle) erst einmal den Rahmen erstellt, um eine Vorstellung vom Ganzen zu haben. Und wenn man den Rahmen und mit ihm die Regeln für die Anordnung der Teile hat, dann kann man rückwärts zu immer kleineren Teilen gelangen, die alle nach denselben Regeln zu größeren Strukturen zusammengesetzt sind.

    Diese Selbstorganisation kann natürlich nur im Rahmen der naturgegebenen Gesetzmäßigkeiten oder „Regeln“ ablaufen. Und dieser Ablauf kann nur von unten nach oben erfolgen, vom Einfachen zum Komplexen, von den Teilen zum Ganzen.

    Der Ablauf selbst, ja. Aber wir müssen ja rekonstruieren, also erst einmal rückwärts von größeren Strukturen ausgehen, diese zerlegen, um auch diese wieder zu zerlegen, usw. Und ich habe dabei die Regeln und ihre Variablen zugrunde gelegt: Über die X-Variable kommt man in der Hierarchie nach oben über die Y-Variable nach unten.

    Das heißt, die KI-Forschung kann gar nicht anders, als zu versuchen, von den Teilen zum Ganzen zu gelangen, wenn sie verstehen und erklären will, wie das Ganze funktioniert.

    Das kann ich nicht beurteilen, aber wenn man wissen will, wie ein menschliches Gehirn funktioniert, muss man umgekehrt vorgehen.

    Ich halte es für einen wichtigen Punkt, dass man eine Vorstellung davon hat, wie aus dem Neuroektoderm entweder ein funktional oder ein prädikativ arbeitendes Gehirn wird, wo und wann die Weichen dafür gestellt werden.

    Die Vorstellung stimmt nicht: Ob ein Gehirn prädikativ oder funktional arbeitet, ist genetisch festgelegt. Der Ablauf der gesamten Entwicklung von befruchteter Eizelle bis zum fertigen Menschen folgt dagegen der prädikativen Variante, also dem Zeitpfeil.

    *Wolf Singer (1997) : Der Beobachter im Gehirn. In: Meier, H. und Plog,D. (Hrsg.) Der Mensch und sein Gehirn. München: Piper . S.36

  69. @Trice // Erklärungsprobleme

    » Wen es dennoch interessiert, der wird nachfragen: Wie kommt man überhaupt darauf, dass es zwei in sich homogene Gehirne geben könnte; woran machen Sie das fest; was ist das für ein Gesetz, was sind das für Regeln; was bedeuten die Aussagen; …«

    Was mir da noch in den Sinn kommt: Warum reichen die bisherigen Erklärungen nicht hin? Wenn z. B. zwei Individuen beim Betrachten des gleichen (Test-)Bildes oder Musters etwas anderes sehen oder erkennen, dann liegt es nahe anzunehmen, dass es gewisse Unterschiede in der neuronalen Informationsverarbeitung gibt, die begründet sind in unterschiedlichen neuronalen Vernetzungen und Schwellenwerten an den Synapsen, wobei auch die Hirnchemie (Neurotransmitter) beteiligt sein kann.

    Diese Unterschiede sind natürlich gerade bei höheren kognitiven Funktionen äußerst diffizil, am leichtesten lässt sich wohl noch die Hirnchemie messtechnisch erfassen.

    Eine solche Erklärung mag unvollständig oder gar falsch sein, aber sie funktioniert, ist sparsam und erscheint (mir) plausibel.

  70. @Jaromir Konecny

    Sie fragen auf Ihrer Facebook-Seite:

    » Ist aber unsere Intuition nicht unbewusste Mustererkennung? «

    So weit würde ich nicht gehen. Zur Intuition gehört unbewusste Mustererkennung, das ja, aber Intuition als solche erfordert wohl doch noch etwas mehr. Was genau, wäre noch zu klären…

  71. @Balanus: Erklärungsprobleme und Nachtrag

    Danke für den Nachtrag, Ihre Antwort hätte mich zwar im ersten Moment verwirrt, aber es geht ja aus ihr hervor, dass sie sich auf einen früheren Beitrag bezieht.

    » Wen es dennoch interessiert, der wird nachfragen: Wie kommt man überhaupt darauf, dass es zwei in sich homogene Gehirne geben könnte; woran machen Sie das fest; was ist das für ein Gesetz, was sind das für Regeln; was bedeuten die Aussagen; …«

    Was mir da noch in den Sinn kommt: Warum reichen die bisherigen Erklärungen nicht hin?

    Sie hatten gemeint, zwanzig Seiten müssten reichen, wenn man nur das Prinzip beschreibt. Und ich schrieb, dann ginge es sogar noch kürzer, nämlich wenn ich nur das, und sonst nichts schreibe -womit niemand, wenn er nicht weiß, worum es überhaupt geht, etwas anfangen kann.

    Wenn z. B. zwei Individuen beim Betrachten des gleichen (Test-)Bildes oder Musters etwas anderes sehen oder erkennen, dann liegt es nahe anzunehmen, dass es gewisse Unterschiede in der neuronalen Informationsverarbeitung gibt, die begründet sind in unterschiedlichen neuronalen Vernetzungen und Schwellenwerten an den Synapsen, wobei auch die Hirnchemie (Neurotransmitter) beteiligt sein kann.

    Wenn aber fünf oder mehr Individuen beim Betrachten des gleichen Bildes etwas anderes sehen, kann man, je nachdem wie und womit man misst, bei allen fünfen Unterschiede feststellen. Deshalb gibt es aber trotzdem nicht fünf in sich homogene Gehirne, die sich alle darin unterscheiden, dass ihre Arbeitsweise auf einem Gesetz beruht, das in fünf Varianten vorliegt (ganz abgesehen davon, dass ich 17 Teilnehmer bei diesem ersten Test hatte ).

    Diese Unterschiede sind natürlich gerade bei höheren kognitiven Funktionen äußerst diffizil, am leichtesten lässt sich wohl noch die Hirnchemie messtechnisch erfassen.

    Das ist die Frage. Denn es kommt wie gesagt darauf an, was und wie man untersucht. Für Dopamin sprach damals, dass es dicht im präfontalen Cortex, im Striatum und den Assoziationsbahnen zu den temporalen und parietalen Lappen vertreten ist. Und Produktionsort sind Kerngebiete im Mittelhirn. Das mesostriatale System wird als wesentlich u.a. für die Aufrechterhaltung der Aufmerksamkeit angesehen, also wurde diese Hirnregion im SPECT-Verfahren (Single photon emission computed tomography) untersucht, wo man denn auch eine erhöhte Dichte der striatären Dopamintransporter nachweisen konnte.
    Wenn man allerdings Hirnaktivität misst, während die Probanden Aufgaben lösen, kommen andere Verfahren zum Einsatz, z. B. das EEG oder das quantitative EEG.
    Schwank und Mölle stellten beispielsweise fest, dass beim prädikativen Denken die EEG-Komplexität im Vergleich zum funktionalen Denken und zur mentalen Entspannung abnimmt, und diese Reduktion im parietalen und rechten Cortex am stärksten ausgeprägt war, während sich beim funktionalen Denken eine dimensionale Reduktion im linken Cortex konzentrierte, die aber weniger klar, wenngleich signifkant war.

    Eine solche Erklärung mag unvollständig oder gar falsch sein, aber sie funktioniert, ist sparsam und erscheint (mir) plausibel.

    So einfach ist es eben doch nicht, 🙁

  72. @Balanus: Unterschiede und Messtechniken

    Die oben beschriebenen Unterschiede zur Dichte der Dopamintransporter wurden in Deutschland von Krause, Dresel und Krause durchgeführt. Als ich damals Frau Krause anrief und sagte, was ich herausgefunden hätte, meinte sie auch, dann ließen sich ihre Untersuchungen immer noch dazu verwenden, den Unterschied zwischen den beiden Gruppen herauszufinden, zumal die Untersuchungen der beiden anderen Teams in England und USA zum gleichen Ergebnis geführt hätten. Allerdings wurden diese Untersuchungen unter dem Aspekt durchgeführt, der Ursache einer psychischen Störung nachzugehen, und wenn man so will, haben diese Untersuchungen die Annahme bestätigt.
    Es ist also nicht so, dass man sagen könnte, generell deute eine abweichende Hirnchemie darauf hin, dass es zwei Arten von Gehirnen gibt, die sich in der Arbeitsweise unterscheiden. Genauso gut lässt sich behaupten, es handele sich um eine Störung. Denn diese Unterschiede wirken sich im Verhalten aus, und da kommt es darauf an, welches Verhalten man als normal ansieht und wie man das andere beurteilt, und wo man die Linie zwischen normal und nicht normal ziehen will.
    Bei solchen Untersuchungen kommt es entscheidend auf die Interpretation an, der Spielraum muss also möglichst so klein sein, dass er nicht mehrere Deutungen des Ergebnisses zulässt.
    Wenn ich daher den Unterschied an der Arbeitsweise des Gehirns festmache und behaupte, diese beruhe auf Regeln, die in zwei Varianten vorliegen und ein Gehirn arbeite entweder nach der einen oder der anderen Variante, dann lässt sich das zum einen untersuchen, sofern ich Kriterien benennen kann, an denen sich der Unterschied feststellen lässt, und zum anderen schließt die “Berufung” auf Varianten einer Regel Mehrdeutigkeit aus: Wen beides auf Varianten derselben Regel bzw. desselben Gesetzes beruht, kann nicht eine Variante richtig und die andere falsch sein.
    Zu den Kriterien gehört ann auch, festzustellen, welcher der beiden Leistungen Erkennen und Verstehen Priorität zukommt. Zwischen diesen beiden Leistungen liegt ein minimaler zeitlicher Unterschied und es sind verschiedene Hirnregionen, die an diesen Leistungen beteiligt sind. D.h., es müsste sich messen lassen, in welchen Hirnregionen sich eine erhöhte Aktivität zuerst zeigt.

    Stichwort Intuition: Sie beruht auf Erfahrung bzw. der Summe gemachter Erfahrungen. Ich habe kein Problem damit, auch einer KI bzw. einem KNN Intuition zuzuerkennen (ich würde es dann allerdings anders nennen). Wenn ein solches Netz bzw. ein solches System bei der Lösung einer Aufgabe, deren Ziel es kennt, x-mal in einer bestimmten Weise vorgegangen ist, dann spricht nichts dagegen, dass es von dieser Weise abweichen und eine andere Vorgehensweise praktizieren kann, die schneller und effizienter zum Ziel führt. Letztlich entspricht der gesamte Vorgang ja einem IST-Soll-Verfahren: es wird permanent gemessen, wie weit man mit der Handlungsweise vom IST zum SOLL gekommen ist.
    Gleiches gilt, wenn KNN unsichtbare Merkmale auf Bildern von Tumoren erkennen können – wobei definiert sein sollte, was man unter unsichtbar zu verstehen hat, z. B. Abweichungen in Nukleotidfolgen – und sie diese mit bestimmten Nukleotidfolgen in der DNA in Verbindung bringen können. Inwieweit man das als Intuition bezeichnen kann, hängt dann z. B. davon ab, worauf das KNN trainiert wurde, zu achten.

  73. @Trice // Erklärungen

    Die folgende Aussage ist in meinen Augen von zentraler Bedeutung:

    » Ob ein Gehirn prädikativ oder funktional arbeitet, ist genetisch festgelegt. «

    Denn „genetisch festgelegt“ bedeutet, dass irgendwann im Entwicklungsgang bestimmte Gene exprimiert werden, die letztlich dafür sorgen, dass sich die für die Funktion notwendigen Strukturen und Eigenschaften ausprägen können.

    Worin sich prädikativ und funktional arbeitende Gehirne strukturell genau oder im Einzelnen unterscheiden, weiß man also nicht, allenfalls gibt es erste Hinweise. Aber dass es strukturelle Unterschiede geben muss, davon können wir ausgehen. Unterschiedliche Funktionen bedingen unterschiedliche Strukturen. „Bedingen“ im Sinne von „erfordern“.

    Soweit, so gut. Für mich könnte die Geschichte hier enden, denn die Herkunft der genetischen Information für die beiden Varianten ist dem Prinzip nach ja klar.

    Jetzt bleibt aus meiner Sicht nur noch, spezifische Kognitions-Tests zu entwickeln, um die beiden Varianten sicher zu identifizieren, und wenn man das erst mal kann, dann lassen sich auch die Gene identifizieren, die die Entwicklung dieser beiden Varianten steuern. Da diese Verschiedenheit die Menschheit in zwei mentale Gruppen teilt, sollte das eigentlich leicht möglich sein.

    In diesem von mir skizzierten Szenario braucht es keine neuen Regelvarianten, die bekannten physikalischen, chemischen und biologischen Gesetzmäßigen reichen völlig hin, die regelgerechte Entwicklung der beiden kognitiven Funktionstypen (grob) zu erklären.

    Was wirklich schwierig zu erklären und zu begründen ist, scheint mir die Sache mit der Kausalität und ihren zwei Varianten zu sein. Zumindest, soweit es die Naturwissenschaften betrifft. Philosophisch mag das anders aussehen. Denn welche Ereignisse in der gesetzmäßigen oder regelhaften Abfolge zahlloser Einzelereignisse letztlich in einen sogenannten Kausalzusammenhang gestellt werden, bleibt ja weitestgehend dem Betrachter überlassen.


    Noch zu etwas anderem, ich hatte geschrieben: „Bei der Konstruktion eines Systems kann man aber nicht anders vorgehen, als Teile zu einem Ganzen zusammenzufügen“, und hatte dann die Selbstorganisation bestimmter Systeme ins Spiel gebracht.

    Sie meinten, man könne doch anders vorgehen, nämlich
    »indem man (wie bei einem Puzzle) erst einmal den Rahmen erstellt, um eine Vorstellung vom Ganzen zu haben. Und wenn man den Rahmen und mit ihm die Regeln für die Anordnung der Teile hat, dann kann man rückwärts zu immer kleineren Teilen gelangen, die alle nach denselben Regeln zu größeren Strukturen zusammengesetzt sind.«

    Mal abgesehen vom Rahmen und der Puzzleanalogie: dass man vom Ganzen ausgehend zu den Teilen gelangt, war ja meine Rede. Das Ganze ist schließlich das System, dessen Funktionsweise aufgeklärt werden soll. Mein Punkt war aber, dass bei der Konstruktion (Bau, Herstellung, Anfertigung) eines Systems *umgekehrt* vorgegangen werden muss, von den Teilen zu dem Ganzen.

    Natürlich muss es bei Organismen und z. B. Maschinen einem Bauplan geben, der festlegt, welche Teile wie zusammenzufügen sind (bei Organismen ist der „Bauplan“ bekanntlich Teil des Genoms). Insofern ist vorneherein mehr oder weniger klar, wie das Ganze am Ende auszusehen hat.

    Bei Systemen, von denen wir selbst ein Teil sind oder dessen Funktionsweise wir aufgrund ihrer Komplexität nicht überblicken können, sieht die Sache etwas anders aus.

  74. @Balanus

    » Ob ein Gehirn prädikativ oder funktional arbeitet, ist genetisch festgelegt. «

    Denn „genetisch festgelegt“ bedeutet, dass irgendwann im Entwicklungsgang bestimmte Gene exprimiert werden, die letztlich dafür sorgen, dass sich die für die Funktion notwendigen Strukturen und Eigenschaften ausprägen können.

    Dann will ich mal hoffen, dass Biologen und Mediziner dasselbe verstehen mit “genetisch festgelegt”. Denn zunächst einmal sind es die Mediziner – der Mainstream – die davon ausgehen, dass ADHS genetisch bedingt ist, und die dazu forschen – und die suchen nach Genen, die ihre Annahme stützen, es handele sich um eine Krankheit. Da Schwank und ich mit einer Studie nachweisen konnten, dass Menschen mit ADHS zur funktionalen Art gehören, sollte das “genetisch bedingt” generell für die Gruppe funktional denkender Menschen zutreffen – denn beides, das Denken und das Verhalten, gehören zusammen.

    Worin sich prädikativ und funktional arbeitende Gehirne strukturell genau oder im Einzelnen unterscheiden, weiß man also nicht, allenfalls gibt es erste Hinweise. Aber dass es strukturelle Unterschiede geben muss, davon können wir ausgehen.

    Ja.

    Unterschiedliche Funktionen bedingen unterschiedliche Strukturen. „Bedingen“ im Sinne von „erfordern“.

    Und unterschiedliche Strukturen bedingen unterschiedliche Funktionen, “bedingen” im Sinne von “bewirken” – und vice versa. Denn auch die Strukturen ändern sich, wenn die Funktionen sich aus Gründen der Anpassung verändern müssen.

    Jetzt bleibt aus meiner Sicht nur noch, spezifische Kognitions-Tests zu entwickeln, um die beiden Varianten sicher zu identifizieren, und wenn man das erst mal kann, dann lassen sich auch die Gene identifizieren, die die Entwicklung dieser beiden Varianten steuern. Da diese Verschiedenheit die Menschheit in zwei mentale Gruppen teilt, sollte das eigentlich leicht möglich sein.

    Das habe ich auch einmal gemeint, aber so ist es nicht. Denn es müssen ja Kriterien genannt werden, anhand derer sicher entschieden werden kann. Das ist schon deshalb schwierig, weil viele (funktionale) Leute im Laufe ihrer Entwicklung gelernt haben, worauf sie achten sollen. Einer meiner ersten Tests war die Aufgabe, Kugelschreiber und Bleistift miteinander zu vergleichen. Dazu hatte ich zwei Gruppen gebildet: bei der einen Gruppe lagen Stifte beider Sorten die ganze Zeit auf dem Tisch, waren Anschauungsmaterial; bei der zweiten Gruppe habe ich sie nach der Hälfte der vorgesehenen Zeit weggeräumt. In dieser Gruppe hörte eine probandin sofort auf, zu schreiben, sie hatte auch bis dahin nur drei Sätze zu Papier gebracht, nicht ohne sich unentwegt mit Blick auf die Stifte zu “vergewissern”. Diese Sätze entsprachen exakt denen der prädikativen Personen, waren also Gegenstandsbeschreibungen. Die Frau erzählte im anschließenden Gespräch, sie sei als Kind ständig geschlagen worden, wenn sie etwas nicht verstanden habe. Deshalb habe sie aufgehört zu schreiben, als ich die Stifte weggenommen hatte: sie habe befürchtet, etwas falsch zu machen.
    Menschliches Verhalten spielt also immer mit.
    Geeigneter sind Tests wie “Plus ist über dem Stern”,mit dem das “Erkennen” gegen das “Verstehen” abgeglichen werden kann.

    In diesem von mir skizzierten Szenario braucht es keine neuen Regelvarianten, die bekannten physikalischen, chemischen und biologischen Gesetzmäßigen reichen völlig hin, die regelgerechte Entwicklung der beiden kognitiven Funktionstypen (grob) zu erklären.

    Und das stimmt nicht:
    Denn wie wollen Sie bestimmen, ob es sich bei den physikalischen, chemischen und biologischen Befunden um Gesetzmäßigkeiten handelt, oder ob sich diese nur bei den mehrheitlich erhobenen Daten finden, es sich bei den anderen dagegen um Abweichungen dieser “Gesetzmäßigkeiten” handelt? Zumal ja auch erst einmal geklärt sein muss, wann etwas als “gesetzmäßig” zu gelten hat.
    Denn selbst wenn sich diese Gene finden lassen, ist damit noch lange nicht gesagt, dass sie nicht als “fehlerhaft” bewertet werden können.
    Sie müssen also schon tiefer einsteigen, um zu erklären, wie es zu diesen zwei Varianten kommt, was sie bewirkt, verursacht – oder auch: erfordert

    Was wirklich schwierig zu erklären und zu begründen ist, scheint mir die Sache mit der Kausalität und ihren zwei Varianten zu sein. Zumindest, soweit es die Naturwissenschaften betrifft.

    Dabei betrifft es die aber in sehr viel stärkerem Maß. Fast die gesamte Naturwissenschaft ist geprägt von der prädikativen Perspektive. Die wenigen Male, in der die funktionale Sicht durchbrach – Copernicus, Darwin, Einstein -, hat jedes Mal einen fundamentalen Richtungswechsel bewirkt, der dann in die prädikative Sicht eingeordnet werden musste.

    (…) ich hatte geschrieben: „Bei der Konstruktion eines Systems kann man aber nicht anders vorgehen, als Teile zu einem Ganzen zusammenzufügen“, und hatte dann die Selbstorganisation bestimmter Systeme ins Spiel gebracht.

    Sie meinten, man könne doch anders vorgehen, nämlich
    »indem man (wie bei einem Puzzle) erst einmal den Rahmen erstellt, (…).«

    Mal abgesehen vom Rahmen und der Puzzleanalogie: dass man vom Ganzen ausgehend zu den Teilen gelangt, war ja meine Rede. Das Ganze ist schließlich das System, dessen Funktionsweise aufgeklärt werden soll.

    Da stimmen wir überein und darin auch:

    Mein Punkt war aber, dass bei der Konstruktion (Bau, Herstellung, Anfertigung) eines Systems *umgekehrt* vorgegangen werden muss, von den Teilen zu dem Ganzen.

    Hier aber haben Sie etwas erwähnt, das Sie bisher nicht genannt haben,:

    Natürlich muss es bei Organismen und z. B. Maschinen einem Bauplan geben, der festlegt, welche Teile wie zusammenzufügen sind

    Das war nämlich, was ich damals gesagt hatte, als ich auf das Regelwerk stieß, von dem ich noch nicht wusste, dass es sich um Kausalität handelt: Das ist der Bauplan!
    (Woraufhin ich sofort einen Schuß vor den Bug bekam: das dürfe ich keinesfalls behaupten, denn es gäbe niemanden, der einen solchen Plan entworfen haben könnte.)

    (bei Organismen ist der „Bauplan“ bekanntlich Teil des Genoms).

    Nein, das Genom ist nur ein Teil des gesamten Bauplans. Ich erinnere mich, als Venter damals behauptete, er habe das Genom als erster entschlüsselt (hatte er nicht) und später dann andere nachfolgten, die umfassender gearbeitet hatten, hieß es, die Sequenzierung sei noch keine Entschlüsselung …

    Insofern ist vorneherein mehr oder weniger klar, wie das Ganze am Ende auszusehen hat.

    … und auch das stimmt so nicht. Stimmen würde es eher, wenn man z. B. die gesamte DNA-Struktur eines Menschen Stück für Stück nachbaut, und aus ihr würde sich dann ein Mensch entwickeln. Aber dazu müsste man wissen, wie der dahinter stehende Bauplan aussieht, der etwas darüber aussagt, was mit jedem einzelnen Schritt “bewirkt” werden soll, damit am Ende das Ganze funktioniert. Es reicht nicht, zu sagen: erst das, dann das und dann das.

    Bei Systemen, von denen wir selbst ein Teil sind oder dessen Funktionsweise wir aufgrund ihrer Komplexität nicht überblicken können, sieht die Sache etwas anders aus.

    Nur dann, wenn man sich darin verliert. Der Soziologe Helmut Willke beschrieb das problem einmal in seiner Einführung in die Systemtheorie*, dass es zu den notorischen Klagen bei Einführungsveranstaltungen gehöre, die ST – Lektüre als schwierig, kompliziert, unverständlich abstrakt und frustrierend zu empfinden, weil” Einzelne systemtheoretische Problemaspekte (z.B. Grenze/ Struktur/ Prozess; Struktur/Funktion/ System; Handlung, /Erwartung/ System) so stark ineinander verwoben und voneinander abhängig [sind], dass sie im Grunde simultan dargestellt werden müssten. Das ist mit den Mitteln der geschriebene Sprache nicht möglich.”
    Und es ist dem prädikativen Denken auch nicht möglich, sie simultan zu denken. Das war sowohl Schwank als auch mir aufgefallen. Es entspricht aber dem funktionalen Denken (weshalb es ja auch als aufmerksamkeitsgestört gilt: man richtet seine Aufmerksamkeit nur auf den eigentlichen Gegenstand, nicht auf diverse Dinge gleichzeitig).

    *Helmut Willke (2006) Systemtheorie I: Grundlagen. Stuttgart: UTB Lucius & Lucius.S. 12

  75. @ Balanus: kleine Korrektur

    davor:
    “Und es ist dem prädikativen Denken auch nicht möglich, sie simultan zu denken. Das war sowohl Schwank als auch mir aufgefallen. Es entspricht aber dem funktionalen Denken (weshalb es ja auch als aufmerksamkeitsgestört gilt: man richtet seine Aufmerksamkeit nur auf den eigentlichen Gegenstand, nicht auf diverse Dinge gleichzeitig).”
    hatte ich vergessen, das “italic”-Ende zu setzen, 🙁

  76. @Trice

    » Denn auch die Strukturen ändern sich, wenn die Funktionen sich aus Gründen der Anpassung verändern müssen. «

    Form follows funktion“, heißt es bei den Designern. In der Natur ist es allerdings umgekehrt—und zwar nur umgekehrt, ein „vice versa“ gibt es nicht.

    Natürlich erfordert eine neue Funktion eine andere, neue Struktur. Aber diese neue Struktur kann nicht von der neuen Funktion bewirkt werden, weil es die ja erst gibt, wenn sich die Struktur entsprechend geändert hat. In der realen, physikalischen Welt ist die Funktion von der Struktur abhängig, und nicht umgekehrt.

    Wenn eine Funktionsänderung (aus Gründen der Anpassung) erfolgen soll, dann müssen sich zunächst die Strukturen ändern, damit die neue Funktion zum Tragen kommen kann. Erst mit der neuen Struktur kommt die neue Funktion. Die zukünftige neue Funktion kann nicht in der Gegenwart Strukturänderungen bewirken.

    Wenn es eine oder mehrere Ausnahmen von der Regel geben sollte, dann lassen Sie es mich bitte wissen.

    » …wie wollen Sie bestimmen, ob es sich bei den physikalischen, chemischen und biologischen Befunden um Gesetzmäßigkeiten handelt, ….«

    Es ging mir um etwas anderes. Befunde als solche sind selbst keine Gesetzmäßigkeiten, aber sie basieren auf solchen, wie alles, was in der realen Welt geschieht. Was immer auch beobachtet werden kann, es muss mit diesen Gesetzmäßigkeiten vereinbar sein, sonst haben wir ein Erklärungsproblem.

    » Denn selbst wenn sich diese Gene finden lassen, ist damit noch lange nicht gesagt, dass sie nicht als “fehlerhaft” bewertet werden können.
    Sie müssen also schon tiefer einsteigen, um zu erklären, wie es zu diesen zwei Varianten kommt, was sie bewirkt, verursacht – oder auch: erfordert
    «

    Wenn Genvarianten die Zeiten überdauert haben, darf man annehmen, dass diese für die Spezies von Vorteil sind. Sofern, und das kommt durchaus auch vor, sofern das betreffende Gen nicht an andere lebenswichtige Gene gekoppelt ist und allein darum von Generation zu Generation mitgeschleppt wird. Insoweit braucht es keine darüber hinausgehende (philosophische) Erklärungsversuche.

    » Fast die gesamte Naturwissenschaft ist geprägt von der prädikativen Perspektive. «

    Das mag ja sein, aber auch wenn es mit Blick auf das menschliche Gehirn zwei grundlegende Varianten geben sollte, folgt daraus ja noch lange nicht, dass es auch zwei Varianten der Kausalität geben müsse. Vielleicht nehmen Menschen Kausalzusammenhänge verschieden wahr oder können unterschiedlich gut funktionale Zusammenhänge erkennen, aber solche Wahrnehmungen und Denkprozesse sind nicht mit dem gesetzesmäßigen oder regelhaften Verlauf der raumzeitlichen Naturereignisse gleichzusetzen.

    » Nein, das Genom ist nur ein Teil des gesamten Bauplans.«

    Doch doch, mehr gibt es nicht. Die gesamte Information über die Gestalt des sich entwickelnden Organismus‘ steckt (verborgen) im Genom.

    Wenn man die DNA des Menschen Stück für Stück austauschen könnte gegen eine identische künstliche Kopie (etwa in den Keimzellen), dann würde sich (nach Verschmelzung der Kerne) daraus ein Mensch entwickeln. Entscheidend wäre bei diesem „Experiment“, dass die Funktion der Chromosomen (und der übrigen Zelle) erhalten bleibt. Ein bloßer DNA-Strang ohne das ganze drum herum reicht natürlich nicht. Aber die gesamte Information über die Abfolge der einzelnen Entwicklungsschritte bis hin zum reifen Organismus steckt in der DNA, im Genom.

    Kurzum, es reicht tatsächlich zu sagen: „erst das, dann das und dann das“. Der Zeitpfeil, der dem Gang der Geschichte und Ereignisse eine Richtung gibt, weist unerbittlich in Richtung Zukunft. Und zwar auch dann, wenn zielstrebig ein Bauplan für eine Maschine oder ein Bauwerk umgesetzt wird, der zweite Schritt folgt immer auf den ersten, umgekehrt funktioniert das nicht.

    Dass die einzelnen Schritte davon abhängen, was am Ende dabei herauskommen soll, das ist eben das, was der Designer meint, wenn er sagt: „Form follows function“. Pläne als solche bewirken nichts in der physikalischen, kausalen Welt.

  77. @Balanus

    Schönes Beispiel zum Unterschied zwischen prädikativem und funktionalem Denken, 🙂

    Wenn eine Funktionsänderung (aus Gründen der Anpassung) erfolgen soll, dann müssen sich zunächst die Strukturen ändern, damit die neue Funktion zum Tragen kommen kann. Erst mit der neuen Struktur kommt die neue Funktion. Die zukünftige neue Funktion kann nicht in der Gegenwart Strukturänderungen bewirken.

    Sie haben etwas außer Acht gelassen und ich habe vergessen es zu erwähnen: Struktur und Funktion machen nur Sinn, wenn es eine Umwelt gibt, an die sich ein Organismus anpassen muss. Veränderungen in der Umwelt erfordern nicht nur eine Veränderung der Struktur, die nicht sinnvoll wäre, wenn sie nicht auf die Funktion zugeschnitten wäre, die den Organismus dazu befähigen soll, adäquat auf die Veränderung zu reagieren. Wir können natürlich trefflich darüber streiten, ob erst die strukturelle Anpassung erfolgt sein muss, damit eine entsprechende Funktion folgen kann. Ich denke, aus funktionaler Sicht, dass schlicht und ergreifend der Anpassungsdruck dazu führt, dass die Struktur der Funktion folgt, jedenfalls dann, wenn die Anpassung erfolgreich sein soll. Weniger erfolgreiche Strukturen haben dann kaum Überlebenschancen.

    Mit Ausnahmen hat es also nichts zu tun, nur mit Anpassung – und insofern gibt es auch ein vice versa: Struktur ohne Funktion macht genauso wenig Sinn wie Funktion ohne Struktur.

    Es ging mir um etwas anderes. Befunde als solche sind selbst keine Gesetzmäßigkeiten,

    Und das wollte ich gern geklärt haben.

    aber sie basieren auf solchen, wie alles, was in der realen Welt geschieht. Was immer auch beobachtet werden kann, es muss mit diesen Gesetzmäßigkeiten vereinbar sein, sonst haben wir ein Erklärungsproblem.

    Da sind wir uns einig, aber ich denke doch, dass es darum auch nicht ging.

    » Denn selbst wenn sich diese Gene finden lassen, ist damit noch lange nicht gesagt, dass sie nicht als “fehlerhaft” bewertet werden können.
    Sie müssen also schon tiefer einsteigen, um zu erklären, wie es zu diesen zwei Varianten kommt, was sie bewirkt, verursacht – oder auch: erfordert«

    Wenn Genvarianten die Zeiten überdauert haben, darf man annehmen, dass diese für die Spezies von Vorteil sind. Sofern, und das kommt durchaus auch vor, sofern das betreffende Gen nicht an andere lebenswichtige Gene gekoppelt ist und allein darum von Generation zu Generation mitgeschleppt wird. Insoweit braucht es keine darüber hinausgehende (philosophische) Erklärungsversuche.

    Da machen Sie sich die Sache aber zu einfach. Bestes Beispiel ist ADHS. Aus meiner Sicht ist diese andere Art für unsere Spezies von Vorteil – es gibt sogar Vertreter des Mainstreams, die zugeben, dass diese Art Vorteile hat, nur seien die nicht von herausragender Bedeutung -, und eben deshalb wird sie als Krankheit bzw. Störung bezeichnet, auch wenn sich bisher keine Ursache hat finden lassen. Mit anderen Worten: es reicht keineswegs aus, nur die genetische Komponente ins Spiel zu bringen, um zu behaupten, es sei eine andere eigenständige,der als normal geltenden komplementäre Art.
    Oder, in den Worten des Wissenschaftlers mit dem ich anschließend mehrere Jahre lang zusammengearbeitet habe:
    “Was konstituiert „zwei eigenständige Gehirne“? Verschiedene Gehirnstrukturen? Auf welchem Auflösungsniveau? Unterschiede in Transmitterquantitäten? Dann haben also auch Depressive ein „eigenständiges Gehirn“. Unterschiede in Denk- und Gedächtnisprozessen? Dann haben alle Menschen ein „eigenständiges Gehirn“…. Ich denke wir müssen darüber weiter streiten ;-))) …….was ja Erkenntnisgewinn bringt.”
    Tja, das haben wir dann getan, und er war erst überzeugt, dann aber restlos, als ich sagen konnte, was sie konstituiert sei die Arbeitsweise, die auf einer Regel beruht, die in zwei Varianten vorliegt, der prädikativen und der funktionalen.

    Das mag ja sein, aber auch wenn es mit Blick auf das menschliche Gehirn zwei grundlegende Varianten geben sollte, folgt daraus ja noch lange nicht, dass es auch zwei Varianten der Kausalität geben müsse.

    Schwierig, gell? Aber das Problem war halt, dass die Leute auch mit dieser obigen Erklärung noch nicht zufrieden waren, sondern wissen wollten, was denn das für eine Regel in zwei Varianten sei, nach der menschliche Gehirne arbeiten. Und ich wusste es nicht, habe aber gemeint, na, es wird doch in den Wissenschaften, der Mathematik, der Physik, Leute geben, die diese Regeln kennen. Aber außer bei den Psychologen, die sie zur kognitiven Modellierung verwenden, gab es halt niemanden – und sowohl für die wie für mich war klar, dass diese basalen Regeln nur eine Variation von etwas ganz anderem, Größeren sein mussten – zumal ich sie ja auch noch variieren musste, um größere Prozesse im Gehirn beschreiben zu können.
    Ich schrieb es ja schon mehrfach: Es war ein Mathematiker, der mich darauf brachte, indem er fragte, warum ich Kausalität eigentlich immer beschreibe, als sei sie eine Regel. Woraufhin ich mir die Regeln unter diesem Aspekt noch einmal anschaute – und ja: die prädikative Regelvariante war ganz eindeutig die Beschreibung einer Ursache-Wirkungs-Beziehung: erst das (etwas, das schon da ist), dann das (etwas, das darauf einwirkt) und dann das (was daraus als Wirkung hervorgeht). Nur die funktionale Variante passte irgendwie nicht. Erfreulicherweise hatte ich zu diesem Zeitpunkt aber schon ein paar Jahre mit einer Physikerin zusammengearbeitet, von der ich auch etwas über Quantenmechanik gelernt habe – und da passte es dann.
    Sie sagte allerdings, wie Chrys, dass Kausalität in der Physik keine Rolle mehr spiele – was nicht stimmt, Herr Päs und verschiedene seiner Kollegen sehen das anders.

    Vielleicht nehmen Menschen Kausalzusammenhänge verschieden wahr oder können unterschiedlich gut funktionale Zusammenhänge erkennen, aber solche Wahrnehmungen und Denkprozesse sind

    Gehen Sie doch mal einen großen Schritt zurück und betrachten das Ganze aus einer höheren Warte…

    nicht mit dem gesetzesmäßigen oder regelhaften Verlauf der raumzeitlichen Naturereignisse gleichzusetzen.

    Ja, das ist die weitaus bessere Warte. Und nun sehen Sie Kausalität einfach mal von dieser Warte aus und versuchen Sie, es als ein fundamentales Gesetz (in zwei Varianten – für Makro- und Mikrokosmos) zu sehen, das eben für alles gilt, für menschliche Gehirne und deren Arbeitsweise ebenso wie für banale Alltagsgeschehen oder die Struktur der Raumzeit, usw. Sozusagen der Bauplan für dieses Universum.

    Und der ist alles andere als einfach: ein grundlegendes Gesetz, in zwei Varianten, die ebenfalls Gesetze mit eigener Aussage sind, plus einem Regelwerk, bestehend aus jeweils drei Klassen von Regeln, und einer Vielzahl an prädikativen und funktionalen Regeln. Aber alle – Gesetze und Regeln – haben dasselbe Grundmuster.

    » Nein, das Genom ist nur ein Teil des gesamten Bauplans.«

    Doch doch, mehr gibt es nicht. Die gesamte Information über die Gestalt des sich entwickelnden Organismus‘ steckt (verborgen) im Genom.

    Und das Genom als Bauplan folgt wiederum dem Gesetz der Kausalität als übergeordnetem Bauplan.

    Aber die gesamte Information über die Abfolge der einzelnen Entwicklungsschritte bis hin zum reifen Organismus steckt in der DNA, im Genom.

    Und jeder dieser Entwicklungsschritte folgt einer Regel der Kausalität

    Kurzum, es reicht tatsächlich zu sagen: „erst das, dann das und dann das“.

    ja, denn so lautet – grob vereinfacht – die prädikative Regel für einen solchen Vorgang.

    Der Zeitpfeil, der dem Gang der Geschichte und Ereignisse eine Richtung gibt, weist unerbittlich in Richtung Zukunft. Und zwar auch dann, wenn zielstrebig ein Bauplan für eine Maschine oder ein Bauwerk umgesetzt wird, der zweite Schritt folgt immer auf den ersten, umgekehrt funktioniert das nicht.

    Nein, in unserer Realität funktioniert es tatsächlich nicht anderes, denn der Zeitpfeil ist Teil des Bauplans – weshalb auch ein funktional arbeitendes Gehirn nicht um eine “Übersetzung” in diese für den Makrokosmos geltende prädikative Variante herumkommt.

    Dass die einzelnen Schritte davon abhängen, was am Ende dabei herauskommen soll, das ist eben das, was der Designer meint, wenn er sagt: „Form follows function“.

    Nicht nur der Designer, auch ein funktional denkender Mensch. Denn das ist, was die funktionale Variante fordert: Das Verhalten hängt vom Ziel ab, nicht von dem, was als Anfangsbedingungen gegeben ist.

  78. @Balanus: Genom

    Sie schreiben:

    Doch doch, mehr gibt es nicht. Die gesamte Information über die Gestalt des sich entwickelnden Organismus‘ steckt (verborgen) im Genom.

    Mich hatte daran etwas gestört, weshalb ich bei Ernst Peter Fischer noch einmal nachgelesen habe, genauer: in seinem Büchlein “Das Genom”. Darin schreibt er: “Das Genom stellt also nach der zitierten Definition die Anzahl aller Gene dar, und diese Menge befindet sich konkret in einer Zelle. Nun gibt es Lebensformen – wie etwa Bakterien -, die aus nur einer Zelle bestehen. (…) Dies sieht etwas anders aus bei Mäusen, Menschen und anderen komplexen Hervorbringungen der Evolution.Sie bestehen aus Billionen Zellen, und jede dieser Zellen (von wenigen Ausnahmen abgesehen) führt ihre eigene Erbanlage – ihr eigenes Genom – mit sich. Ein Mensch verfügt also genau genommen nicht über ein Genom, sondern über viele Billionen Expemplare davon. (…)Wer sic nun die Frage stellt, ob sich in den zahlreichen unterschiedlichen Zelltypen (Nervenzellen, Blutzellen, Hautzellen und viele mehr) auch entsprechend unterschiedliche Genome finden, darf auf keine einfache Antwort hoffen. (…) In vielen Fällen werden im Laufe der Entwicklung, wenn sich unterschiedliche Zelltypen herausschälen, mehrere Abschnitte des Genoms (ganze Gene oder mehr) umgruppiert, verschoben und neu zusammengefügt. Und bei zahlreichen Zellteilungen tauchen im Laufe eines langen Lebens immer wieder Varianten (Mutationen) auf, die vorher nicht vorhanden waren.”

    Ich habe dies so ausführlich zitiert – nicht, weil ich denke, Sie wüssten das nicht, sondern weil, wenn die gesamte Information über die Gestalt eines sich entwickelnden Organismus` in den jeweiligen Genomen steckt, die sich dann jeweils unabhängig voneinander entwickeln und verändern – wie, stellen Sie sich vor, sollte das ablaufen können, ohne vollständig aus dem Ruder zu laufen, wenn es nicht eine Art Regelung gäbe, die einen Rahmen vorgibt, innerhalb dessen das alles abläuft, der aber nicht überschritten werden kann?

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +