Wie funktioniert eigentlich ein künstliches Neuron?
So wie biologische Nervenzellen der Grundbaustein für unser Gehirn sind, sind künstliche Neurone der Grundbaustein für künstliche neuronale Netze und darauf aufbauender künstlicher Intelligenz. Deep Learning und andere erfolgreiche Varianten der künstlichen Intelligenz basieren auf diesem Grundbaustein. Doch wie ist so ein künstliches Neuron eigentlich aufgebaut? Und wie nah an den biologischen Vorbildern sind diese künstlichen Nervenzellen?
Aufbau biologischer Neurone
Dafür lohnt es sich, einen kurzen Blick auf biologische Neurone zu werfen. Deren Hauptaufgabe ist es, Informationen aufzunehmen, zu verarbeiten und gegebenenfalls weiterzuleiten. Für jede dieser Teilfunktionen sind bestimmte Unterbereiche des Neurons jeweils von besonderer Bedeutung.
Eine Nervenzelle kann man grob in vier Teile untergliedern: die Dendriten, den Zellkörper – auch Soma genannt –, das Axon und die Synapsen.
In Bezug auf die Informationsverarbeitung und -weiterleitung sind die Dendriten vor allem für die Informationsaufnahme zuständig. Das Axon übernimmt die Weiterleitung und die Synapsen sind für die Übertragung auf andere Neurone verantwortlich. Der Zellkörper hilft bei der Verarbeitung der Informationen, ist aber vor allem für den Stoffwechsel der Nervenzelle zuständig.
Information?
Jetzt wurde viel über Information geredet – doch was bedeutet das eigentlich in einem Kontext der Nervenzelle? Jedes Neuron besitzt – wie eigentlich jede Zelle im Körper – ein sogenanntes Membranpotential. Das bedeutet, dass eine kleine elektrische Spannung zwischen der Außen- und der Innenseite der Zellmembran anliegt. Neurone können diese Spannung selbstständig modifizieren und so Informationen speichern und weiterleiten. Was diese Spannungsunterschiede im einzelnen repräsentieren, ist abhängig vom Kontext des Neurons. Bei einem Neuron in visuellen Gehirnbereichen könnte beispielsweise ein Aktionspotential dafür stehen, dass ein bestimmter Strich blau oder horizontal orientiert ist. Für eine Nervenzelle, welche ins Hören eingebunden ist, könnte das Aktionspotential das Vorhandensein einer bestimmten Tonhöhe bedeuten.
Falls ein Neuron „sich entscheidet“, dass die eingegangene Information weitergeleitet werden soll, wird die Information über das Axon vom Zellkörper zu den Synapsen mithilfe eines Aktionspotentials übertragen. Diese “Entscheidung” und das Weiterleiteten folgt dem sogenannten „Alles-oder-Nichts-Prinzip“. Entweder es wird der Entschluss getroffen, die ankommenden Informationen nicht weiterzuleiten: Dann passiert nichts. Oder ein Aktionspotential wird am Übergang zwischen Zellkörper und Axon ausgelöst. Dies hat eine Umkehrung des Membranpotentials zur Folge, die sich über das gesamte Axon ausbreitet.
Informationsübertragung zwischen Nervenzellen
Während die Informationsübertragung innerhalb einer Nervenzelle elektrisch stattfindet, läuft sie zwischen Neuronen chemisch ab. Sogenannte Neurotransmitter werden vom ersten Neuron ausgeschüttet und überwinden per Diffusion den kleinen Spalt zu den Dendriten des zweiten Neurons. Dort aktivieren sie spezielle Rezeptoren und verändern dadurch das Membranpotential. Diese Veränderung wird dann wieder zum Übergang zwischen Zellkörper und Axon weitergeleitet, wo anhand eines bestimmten Schwellenwerts entschieden wird, ob ein Aktionspotential ausgelöst wird oder nicht. Dieser Schwellenwert entspricht einer Mindeststärke der Änderung des Membranpotentials. Wenn dieser nicht erreicht ist, wird kein Aktionspotential ausgelöst und die angekommene Information wird nicht weitergeleitet.
Und künstliche Neurone?
Ein „einfaches“ künstliches Neuron ahmt die eben genannten Bestandteile eines biologischen Neurons mathematisch nach. Es gibt eine sogenannte Übertragungs– und eine Aktivierungsfunktion. Die Übertragungsfunktion ahmt die Informationsaufnahme in den Dendriten nach, während die Aktivierungsfunktion die Entscheidung für (oder gegen) ein Aktionspotential nach dem Alles-oder-Nichts-Prinzip simuliert. Das Axon wird in seinem biologischen Sinn nicht mehr benötigt, da es vor allem für die Überwindung der physischen Abstände im Gehirn zuständig ist. Im Computer können die Informationen aber einfach zwischengespeichert werden und müssen nirgendwo hin transportiert werden.
Von der Synapse wird nur eine einzige Eigenschaft berücksichtigt, die synaptische Stärke genannt wird. Dies ist eine Grundlage des biologischen (und des künstlichen!) Lernens und entspricht der Stärke der Membranpotentialveränderung, wenn Neurotransmitter an die Dendriten des postsynaptischen Neurons gelangen. Die synaptische Stärke ist im künstlichen Neuron die sogenannte Gewichtung der einkommenden Signale. Falls eine künstliche Nervenzelle oder ein künstliches neuronales Netzwerk lernen soll, sind es diese „Gewichte“, welche angepasst werden, sodass die Berechnung im Neuron oder Netzwerk immer besser wird.
Klassische künstliche Nervenzellen
Eine klassische Variante ist, einfach eine gewichtete Summe zu verwenden für die Übertragungsfunktion, also die einkommenden Signale in Relation zu ihrer synaptischen Stärke aufzuaddieren.
In der Aktivierungsfunktion benutzt man dann eine Funktion, welche diese Summe anhand eines Schwellenwerts auf die Zahl Null oder eins abbildet. Dies ahmt das Alles-oder-Nichts-Prinzip nach, in welchem die null für keine Aktivität und die Eins für ein Aktionspotential steht.
Wenn man genau ist, gibt es das künstliche Neuron gar nicht. Je nachdem, welchen Aspekt man im jeweiligen Einzelfall simulieren möchte, können unterschiedliche Modelle herangezogen werden.
Bleibt man in der oben beschriebenen Idee eines künstlichen Neurons, kann man beispielsweise die verwendeten Übertragungs- und Aktivierungsfunktionen variieren.
Für detaillierte Modelle kann man die dreidimensionale Ausbreitung von Neuronen modellieren und deren physikalische Eigenschaften möglichst nah an die der biologischen Nervenzellen anlehnen.
Interessiert man sich dagegen eigentlich gar nicht dafür, wie die Aktionspotentiale zustande kommen, sondern vor allem über deren zeitliche Zusammenfassung, gibt es bestimmte Zufallsprozesse, welche das Auftreten gut nachahmen können – ohne eine Simulation der zugrunde liegenden Biologie.
Was kann man nun mit einem künstlichen Neuron anfangen?
Auch wenn ein einzelnes Neuron schon bestimmte Probleme erlernen und lösen kann, werden Neurone erst besonders effektiv, wenn sie in ein neuronales Netzwerk eingebaut sind – das gilt für biologische Neurone genauso wie für künstliche. Doch das ist ein eigenes Thema für sich …
Betreff künstliche Neuronen
bitte etwas konkreter.
1. wie heißen die elektronischen Bauteile , die das Eingangssignal gewichten. ?
Sind das Verstärkerschaltungen ?
Was ist mit Übertragungungsfunktion gemeint, ganz konkret, was ist das für eine Schaltung ?
Und bei welchen Schwellwert springt das Signal von 0 auf 1 ?
Sind das Schmidt-Triggerschaltungen, also Schwellwertschalter?
Hallo, wir leben in der Zeit der Elektronik, wo jeder Bastler sich damit auskennt.
Auch wenn es immer mehr Bestrebungen gibt, künstliche Neurone (kNs) mit Hardware zu simulieren, werden die kNs heute standardmäßig komplett software-mäßig modelliert. (Daher wird so viel Energie und Rechenzeit für die künstlichen neuronalen Netzwerke benötigt.)
Als Übertragungsfunktionen werden Heaviside-Funktionen, Sigmoid-Funktionen oder vor allem sogenannte ReLus, welche einen positiven Wert oder null annehmen, verwendet.
Die genauen Parameter für die Schwellenwerte können je nach Anwendungsfall variieren.
Die Hardware-Varianten, welche ich kenne, basieren beispielsweise auf sogenannten Memristoren. Andere Konzepte basieren auf ganz anderen Idee, wie beispielsweise “organic bioelectronics”.
Friedrich Schwarz,
Danke für die Auskunft,
wenn man also künstliche Neuronen mit Software simuliert, dann könnte man so eine Schaltung mit jedem Laptop machen.
Ein Entwickler, der z.B. künstliche Augen herstellen will, der könnte dann mit Licht-Sensoren und entsprechenden Logikbausteinen deren Ausgänge direkt mit dem Gehirn verbunden werden ,arbeiten. Es würde ja für den Anfang schon reichen, wenn der Blinde hell von dunkel unterscheiden kann.
Das Simulieren ist tatsächlich auf jedem Laptop möglich, dauern insbesondere bei größeren Netzwerken dann doch aber recht lange. Da viele Berechnungen identisch sind, kann eine starke Parallelisierung, wie beispielsweise durch Grafikkarten, eine Rechenzeit verkürzen.
Die künstlichen Chips für die Retina (auch für die Cochlea) gibt es bereits: Video
oder auch hier nachzulesen.
Zitat:“
Das ist mehr als eine Meinung, es gilt vielmehr:
1) Man kann ein natürliches Neuron von ihrem elektrischen Verhalten her durch ein einziges entsprechend gestaltetes künstliches/technisches Neuron annähern.
2) Man kann die Berechnungsfähigkeiten eines einzelnen biologischen Neurons durch eine bestimmte Anzahl von „richtig“ verschalteten künstlichen Neuronen wie sie heute im Deep Learning verwendet werden, nachbilden
Nachbildung der Berechnungsfähigkeit eines biologischen Neurons durch ein Netzwerk von Deep-Learning Neuronen.
Hier geht es also um den oben unter Punkt 2 aufgelisteten Ansatz.
Biologische Neurone können Berechnungen ausführen, die weit über das hinausgehen, was ein einzelnes künstliches Neuron, wie es im Deep Learning verwendet wird, berechnen kann.
In der Informatik spricht man aber von der Turing-Berechenbarkeit und die bedeutet folgendes: Alles was sich berechnen lässt, lässt sich auch durch eine Turing-Maschine (Anmerkung: eine äusserst einfach funktionierende Rechenmaschine)berechnen.
Das heisst, Berechnungshardware ist rein funktionell gesehen untereinander austauschbar. Tatsächlich können etwa die sogenannten GPUs (Graphical Processing Units) oder TPUs (Tensor Processing Units), also spezielle Computerhardware-Chips nicht mehr berechnen, als man auch mit einem hundskommunen Chip etwa aus den 1980er Jahren berechnen konnte. Sie sind nur um vieles schneller und berechnen teilweise parallel anstatt seriell. Doch die gleichen Resultate, die diese neuen Chips liefern, hätte man auch schon mit einem Intel-Chip der Generation 1 berechnen können. Nur hätte es dann für eine längere Kaffeepause gereicht bis das Resultat vorgelegen hätte.
Wenn eine bestimmte Hardware-Technologie all das berechnen kann, was eine Turing-Maschine berechnen kann, dann nennt man sie Turing-vollständig. Und ja, die künstlichen neuronalen Netze, welche man im Deep-Learning einsetzt sind Turing-vollständig und das bedeutet, dass sie eigentlich alles berechnen können, sie tun es nur auf ihre eigene Art. Zudem werden die Deep-Learning-Neuronen heute meist in Software simuliert, zumal sich herausgestellt hat, dass die zugehörigen Berechnungen sich mit Linearer Algebra, also mit Operationen wie Matrixmultiplikationen ausführen lassen und dafür gibt es inzwischen Hardwarebeschleuniger wie TPUs (Tensor Processing Unit, wobei ein Tensor eine mehrdimensionale Matrix ist).
Man kann also das, was ein biologisches Neuron berechnen kann durch eine bestimmte Anzahl von künstlichen Neuronen wie sie im Deep Learning verwendet werden, ebenfalls berechnen. Darüber berichtet der Quanta-Magazin-Artikel How Computationally Complex Is a Single Neuron?
Dort liest man dazu:
Neuronen mit Transistoren/Resistoren/Memristoren nachbilden
Dazu gibt es sehr viele Ansätze, wobei nur wenige das biologische Neuron möglichst getreu nachbilden wollen, denn es fragt sich, ob sich der Aufwand lohnt, da man das gleiche ja auch durch mehrere miteinander verschaltete Elemente erreichen kann. Denn auch hier gilt wieder das Prinzip der Turing-Vollständigkeit: Man kann etwas auf vielfältige Weise nachbilden, etwas Kompliziertes auch durch Verschaltung mehrerer einfacher Elemente.
Darüber berichtet etwa der Artikel A hardware neuron to help ‘brain-like’ computers solve difficult problems
Martin Holzherr,
Die Turingvollständigkeit reicht nicht aus, wenn es um Schnelligkeit geht.
Wenn man Logikgatter mit 8 Eingängen nimmt, dann wächst die Rechenzeit exponentiell. Beim Denken haben wir es wahrscheinlich mit noch mehr Parametern zu tun. Die Q-Bits könnten hier den Durchbruch bringen.
@lioninoil (Zitat): „ Die Turingvollständigkeit reicht nicht aus, wenn es um Schnelligkeit geht.“
Genau das habe ich oben ja geschrieben. Wobei ihre Aussage, dass man mit besserer Hardware eine exponentielle Beschleunigung erreichen kann, nicht stimmt. Ein Hardwarebeschleuniger ist X-Mal schneller, aber nicht exponentiell schneller.
Wenn ein Hardware-Beschleuniger exponentiell schneller wäre könnte man mit Hardwarebeschleunigern NP-Hard-Probleme in akzeptabler Zeit lösen, also beispielsweise das Travelling-Salesman -Problem für 5 Millionen Städte in akzeptabler Zeit. Doch das ist nicht möglich.
Martin Holzherr,
das Travelling -Salesman-Problem ist physikalisch lösbar.
Vor etwa 100 Jahren gab es ein Buch mit Modellen, die solche Probleme lösen konnten.
Leider habe ich es nicht mehr und ich weiß auch den Titel nicht mehr.
Dabei nahm man eine Holzplatte mit z.B. 5 Löchern, die im Abstand der Städte gebohrte Löcher hatte. Jetzt nahm man 5 Schnüre und knotete sie an einem Ende zusammen.
Die anderen Enden führte man durch die Löcher und hängt an jede Schnur ein Gewicht.
Jetzt weiß ich leider nicht weiter. An der Art, wie sich die Schnüre ordneten konnte man die Reihenfolge der besuchten Städte ablesen.
Und auch für andere mathematische Probleme gab es solche Art von Lösungen, die algebraisch eine unglaublich lange Zeit gebraucht hätten.
Diese Holzmodelle simulierten auch Neuronen.
@lionoil(Zitat): “ das Travelling -Salesman-Problem ist physikalisch lösbar.“
Nein, nicht lösbar, sondern nur approximierbar. Man muss unterscheiden zwischen der exakten Lösung und einer angenäherten Lösung. Angenähert bedeutet, dass nicht die optimale Lösung, sondern nur eine Lösung herauskommt, die sehr nahe bei der optimalen Lösung ist.
Im übrigen: Solange es nur um 5 oder 50 Orte geht, die optimal verbunden werden müssen, solange kann das jeder Smartphone-Prozessor lösen. Erst wenn es sehr viele Stationen gibt, wird das Travelling-Salesman Problem zur Herausforderung.
Neurone lassen sich nicht künstlich nachbauen – und solch ein Nachbau ist auch wenig sinnvoll.
Von elektronischen Schaltungen in Computern erwartet man, dass die damit angestellten Berechnungen zu 100 % reproduzierbar sind. Computer die fehlerhaft arbeiten, können gewaltige Probleme verursachen – z.B. in einem Atomkraftwerk.
Unser Gehirn mit seinen Neuronen darf zu 100 % fehlerhaft arbeiten, ohne dass uns dies irgendwie stört: z.B. Kinofilme bestehen aus statischen Fotos – wir sehen aber Bewegungen. Das Sehen von Bewegungen ist 100 % Fehler.
Unser Gehirn verarbeitet ´Erfahrungen´, die in unterschiedlichen Anteilen bestehen aus a) Faktenwissen, b) Körper-Reaktion, c) Immunsystem-Reaktion, d) Sinnes-Reaktion und e) Emotionen.
Unterschiedliche Wirkungen entstehen u.a. durch Hormone, Blutdruckschwankungen, Nährstoffschwankungen, chemische Gradienten, die Länge der Axonleitungen, durch die Dicke der Myelin-Isolierung und auch durch zufällige neuronale Aktivierungswellen, die sich wie eine La-Ola-Welle über den Cortex bewegen.
Computer-´wissen´ besteht nur aus Informationen die auf Computerchips bzw. in Software verarbeitet werden – d.h. ein Gehirn mit digitalen Neuronen verarbeitet nur Zahlenwerte.
D.h. ein menschliches Gehirn arbeitet auf völlig anderen Grundlagen wie künstliche Neuronen: biologisch Zahlenwerte
@KRichard(Zitat): „ Computer die fehlerhaft arbeiten, können gewaltige Probleme verursachen“
Auch Computer können Fehler machen, vor allem wenn die Daten verrauscht oder sonst wie fehlerhaft sind. Es gibt den Spruch: Garbage in, Garbage out oder zu deutsch: Aus Müll kann nur Müll werden.
Behauptung: Unser Denken, Handeln, Empfinden ist voller Fehler, in jeder Sekunde. Doch wir korrigieren fast alle Fehler durch Rückkoppelungsschleifen.
Es gilt also: Etwas was funktioniert, entsteht durch Korrektur von Fehlerhaftem.
@Holzherr
Dass wir fast alle Fehler durch Rückkopplungsschleifen korrigieren – ist ein sehr großer Irrtum, ein Märchen.
Buchtipps:
Julia Shaw: Das trügerische Gedächtnis – wie unser Gehirn Erinnerungen fälscht
Nick Chater: The Mind is flat – The Illusion of Mental Depth and the Improvised Mind
Neuronen: Biologie übertrifft Silicon. Ein Wunder eigentlich
Selbst die kleinsten Hirnzellen sind gigantisch gross verglichen mit den Transistoren in Halbleiterchips. Und trotzdem übertrifft das Hirn in vielerlei Hinsicht heutige Computer, am deutlichsten aber beim Energieverbrauch, denn das menschliche Hirn kommt gerade mal mit 100 Watt aus während ein K.I.-Computer mit ähnlicher Leistung heute ein Supercomputer ist mit der Leistungsaufnahme einer Kleinstadt.
Der kleinste Neuronendurchmesser beträgt 4 Mikrometer oder 4·10⁻⁶ Meter. Transistoren sind 10^-7 Meter breit. Mit anderen Worten, Sie könnten 40 Transistoren Seite an Seite in die Breite des kleinsten Neurons einbauen. Doch Transistoren verbrauchen so viel Strom, dass man sie nicht übereinander anordnen kann: man muss sie in einer Ebene anordnen, damit man die Wärme abführen kann.
Biologische Neuronen arbeiten auch sehr langsam und ihre Signale, die über ihre Axone weitergeleitet werden, sind nur gerade mit 100 Metern pro Sekunde unterwegs, also mindestens 1 Million mal langsamer als Signale in Halbleiterchips.
Fazit: Die technologischen Parameter eines biologischen Neurons sind in vielerlei Hinsicht der Halbleitertechnologie die etwa beim Transistor zum Einsatz kommt um ein Vielfaches unterlegen. Und trotzdem ist die Gesamtleistung eines Hirns erstaunlich. Nun, die Natur hatte ja auch einige Millionen Jahre Zeit aus unterlegener Technologie überlegene Leistung herauszukitzeln.
Zu KRichard
Da stimme ich ihnen zu. Neuronen sind die Boten und nicht die Nachricht. Das Aktionspotential was die Neuronen dazu bewegt Informationen weiterzuleiten,
entspringt bereit einer vorausgegangen Bewertung von Reizen. Neurone lösen also per se keine Bewertungen aus, sie überbringen nur den Code für Reize (Erfahrungen) die bereits abgespeichert sind. Das Aktionspotential, der Grad der Spannung, wird sich nach der Bedeutung der Reize für das jeweilige Subjekt richten. Dementsprechend wurden/werden auch die Anzahl der Synapsen angelegt/ausgerichtet(Hebbsche Regel) Die einzige Information in den Neuronen scheint mir also das Erregungspotential was keinerlei Aussage über den Inhalt der Erregung trifft. Ein künstliches Neuron müsste also eine oder mehrere vorangegangene Sinnes-Erfahrungen weiterleiten ,müsste also dazu angeregt werden denn ohne Aktionspotential keine Weiterleitung ….
Martin Holzherr,
wenn es nun gar keine exacte Lösung gibt. ?
Stellen Sie sich ein Vierkörperproblem vor. Meine Vermutung, es gibt mehrere Lösungen. Und dabei werden wir uns mit einer Approximation begnügen müssen.
@hwied
Da kann ich Sie beruhigen. Der Beweis dafür, dass jeweils eine exakte Lösung existiert: Jedes Travelling-Salesman-Problem ist endlich.
Das ist jeweils möglich.
@Golzower
Bei biologischen Neuronen spielt nicht nur das Aktionspotential eine Rolle – für seine Funktionsweise sind auch noch andere Faktoren wichtig, z.B.:
Synapsen und deren Aktivitäten
Die Länge der Nervenleitungen – beeinflusst die Zeitdauer des Übertragungswegs
Die Anzahl der Myelinschichten um die Nervenleitungen – beeinflusst die Geschwindigkeit der Signalweiterleitung
Priming – d.h. der Zustand einer Nevenzelle bevor ein ankommender Reiz verarbeitet wird, beeinflusst, dass ein identischer Reiz völlig verschieden weiter verarbeitet werden kann
Neuronale Aktivierungswellen, die sich wie eine LaOla-Welle über das Gehirn bewegen, können zufällig verschiedene Neuronen bzw. neuronale Netzwerke so weit aktivieren – dass diese zu einer bewussten Wahrnehmung führen. D.h. es entstehen zufällige Zusammenhänge
Nicht das Neuron ist interessant, sondern ihre Zusammenarbeit
Im menschlichen Hirn gibt es 80 Milliarden Neurone. Kann man durch Aufklärung der Arbeitsweise eines Neurons die Arbeitsweise des Gehirns schliesslich verstehen?
Ich behaupte: Genau so wenig wie man den Autoverkehr verstehen kann, wenn man weiss wie ein Auto arbeitet, genau so wenig kann man das Gehirn verstehen, wenn man ein einzelnes Neuron versteht.
Wie im Autoverkehr im Durchschnitt das einzelne Auto keine grosse Rolle spielt, spielen bei Gehirnaktivitäten die einzelnen Neurone auch keine entscheidende Rolle. Doch es kann vorkommen, dass ein einzelnes Auto den Verkehr durcheinander bringt. Dann nämlich wenn es einen Unfall baut. Vielleicht ist das auch im menschlichen Gehirn so, dass in bestimmten Fällen, ein oder ein paar wenige falsch funktionierende Neurone die Aktivität in ganzen Hirnregionen durcheinander bringen. Es scheint aber, dass wir noch wenig darüber wissen.
Die Tatsache, dass nach Jahrzehnten von Hirnforschung das Hirn als Ganzes immer noch sehr wenig verstanden wird, ist wohl ein wichtiger Grund, dass die Forscher der künstlichen Intelligenz zwar immer wieder nach Anregungen durch die Hirnforschung suchen, dass sie aber inzwischen recht unabhängig von Hirnforschungsergebnissen, je ihre eigenen Wege verfolgen. Denn: Es kommt vor allem auf das Resultat an und weniger wie es erreicht wird. KI-Forscher versuchen heute etwa auf unterschiedlichen Wegen, KI-Systemen kausales Denken zu ermöglichen oder beizubringen, aber biologisch begründet werden die verschiedenen Ansätze nicht. Denn darüber weiss eigentlich niemand etwas gesichertes. Alles was man heute weiss ist, dass kausales Denken sehr wichtig ist, weil es weit grössere Verallgemeinerungen und weit grössere Wissenstransfers von einem Wissensgebiet auf ein anderes erlaubt, als die meisten anderen kognitiven Fähigkeiten. Wer beispielsweise weiss, dass alle massenbehafteten Objekte auf der Erde der Schwerkraft unterliegen, der kommt später auch gut mit Objekten auf dem Mond zurecht, denn auch dort wirkt die Schwerkraft, wenn auch schwächer als auf der Erde.
weitere Gründe, warum sich die Funktion von Neuronen nicht künstlich nachbilden lässt
Gedanken haben keine Dauer: Die einzelnen Reize werden völlig unabhängig voneinander verarbeitet. D.h. ein ´Gedanke´ hat nichts mit dem nächsten ´Gedanken´ zu tun. Nur durch die rasche Abfolge dieser Aktivitäten entsteht die Illusion von Kontinuität/Zusammengehörigkeit.
Diese Arbeitsweise kann man per Computerchip nicht sinnvoll nachbauen.
Wir haben die Wahrnehmung unseres Körpers und unserer Umgebung – als wichtigen Anteil unserer Reizverarbeitung. Denn durch deren Existenz entsteht der Eindruck von Kontinuität – von zusammengehörenden Ereignissen.
Das fehlen externer Reize kann zu Problemen führen – deswegen zählt die reizarme Isolationshaft zu den Foltermethoden
Für die Arbeitsweise müsste von künstlichen Neuronen müsste man eine spezielle Umgebung erzeugen.
Unser Gehirn arbeitet immer gleich – der Unterschied zwischen bewusster und unbewusster Wahrnehmung entsteht nur durch die Reizintensität: über einer bestimmten Reizschwelle = bewusste Wahrnehmung, unter einer bestimmten Reizschwelle = Unterbewusstes.
Solch eine Reizschwelle dürfte bei künstlichen Neuronen schwierig festzulegen sein.
@ Martin Holzherr 11.04.2022, 22:55 Uhr
Zitat: „Nicht das Neuron ist interessant, sondern ihre Zusammenarbeit ….Genau so wenig wie man den Autoverkehr verstehen kann, wenn man weiss wie ein Auto arbeitet, genau so wenig kann man das Gehirn verstehen, wenn man ein einzelnes Neuron versteht.“
Dass sehe ich anders. In den Anfangszeiten der Computers wurden Elektroniker zur Programmierung eingesetzt.
Ganz einfach deswegen, weil sie Problemlösungen mittels Elektronik, damals mittels „Gatterschaltungen“, „gewöhnt“ waren. Sie hatten genau gewusst, wie man umgekehrt, vom Problem ausgehend die Schaltungsstrukturen entwickelt. Dann ist völlig klar, dass sie z.B. auch verstehen könnten, was geschieht, wenn viele Autos, allenfalls sogar mit betrunkenen Fahrern, unterwegs sind.
Alle „Verrücktheiten“ die einen Elektroniker bei seinen „Schaltungen untergekommen“ sind, und bitte glauben Sie mir, es waren sehr viele „Verrücktheiten“, an denen konnte man lernen, die kommen auch einen Psychiater unter.
Ihr Sicht ist „philosophisch“ völlig ok. Aber ein Neuron verhält sich nun einmal ähnlich wie ein Gatter, das Gehirn wie verknüpfte Gatterschaltungen. Abgesehen von den grundsätzlichen Unterschieden, weil die Funktionen auch weitaus stärker als elektronische Gatter, von chemischen Einflüssen abhängen. Was übrigens KRichard weiter oben recht gut beschrieben hat.
Es gibt sehr viele verschiedene „System übergreifende Muster“ die allgemeine Funktionsmechanismen beschreiben. Physiker sprechen von einer Art von “Dualismus“. Dieser Ansatz ist offensichtlich im Gehirn realisiert und Techniker benutzen ihn, absichtlich und bewusst, um Sachverhalte kreativ weiter zu entwickeln.
Das entscheidende ist doch, dass es 80 Milliarden Neurone sind, die unser Gehirn ausmachen und sie sind nach völlig anderen Prinzipien angeordnet und haben eine völlig andere Dynamik als Transistoren in einem Monsterchip.
Um das Gehirn zu verstehen muss man nicht nur das Konnektom (die Verbindungen lokal, regional und global) kennen, sondern auch wie es sich auf äussere und innere Anreize hin verändert, wann also was wächst oder schrumpft, warum Synapsen entstehen und vergehen und das alles sehr detailliert.
Ich lese hin und wieder Artikel zur Hirnforschung und die meisten Forscher sagen, dass sie meist einfach Hypothesen aufstellen und sie dann testen müssen und dass das unheimlich zeitaufwendig sei, weil es nur schon schwierig ist eine plausible Hypothese aufzustellen. Neuerdings hat man sogar entdeckt, dass die gleichen Hirnstrukturen gleichzeitig unterschiedliche Aufgaben wahrnehmen.
Fazit: Das Hirn scheint alles andere als klar designt. Vielleicht kommen die Forscher irgendwann mit künstlicher Intelligenz weiter, denn KI-Systeme stören sich weniger an scheinbarem Chaos und sie sind in der Lage Muster zu finden, wo Menschen keine sehen.
@Holzherr
Bei einer ´Nahtod-Erfahrung´(NTE) kann man bewusst erleben, wie das Gehirn einen einzelnen Reiz systematisch und strukturiert verarbeitet.
Das ist ein direkter Zugang zur Arbeitsweise des Gehirns – denn man kann dabei viele gleichartige Abläufe, Strukturen, Muster deutlich erkennen. Und es gibt Berichte über Tausende von NTEs, so dass eine systematische Auswertung möglich wäre.
Aber ausgerechnet die bei NTEs deutlich erkennbaren Arbeitsweisen des Gehirns werden von den Gehirnforschern nicht untersucht – weil man das Thema ´NTE´ der Esoterik überlassen hat.
Das man diesen direkten Zugang zum Gehirn nicht nutzt um über diesen Weg die Arbeitsweise des Gehirns besser zu verstehen – ist mehr als peinlich. Zumal ich seit 2006 ein komplettes Erklärungsmodell für NTEs entwickelt und veröffentlicht habe. D.h. eine Rückfrage wäre möglich, um Unklarheiten zu klären.
´Wissenschaftler´ reagieren noch nicht einmal, wenn man sie unter ausdrücklicher Berufung auf den Qualitätsstandard ´Gute wissenschaftliche Praxis´ darauf aufmerksam macht – dass eine Lehrmeinung nicht stimmen kann. (Bei NTEs ist deutlich erkennbar, dass Erlebnisse ab dem 5. Schwangerschaftsmonat LEBENSLANG dem bewussten Erinnern zugänglich sind – die Lehrmeinung ´infantile Amnesie besagt aber, dass man sich an Erlebnisse aus der frühen Kindheit nicht erinnern kann. Dies bedeutet, dass die GESAMTE Fachliteratur umgeschrieben werden muss.)
Meine bisherige Erfahrung ist, dass ich von Kognitionswissenschaftlern mit 100%iger Sicherheit keine passende Reaktion bekomme – wenn ich unter ausdrücklichem Bezug auf den Qualitätsstandard ´Gute wissenschaftliche Praxis´ auf dieses Problem aufmerksam mache.
Von Ombuds-Büros bekam ich bisher nur die Antwort, dass man für meine Beschwerde nicht zuständig ist – da man nur prüft, ob wissenschaftliche Arbeiten formal korrekt ausgeführt wurden.
@ KRichard 12.04.2022, 15:20 Uhr
Ich fürchte dass Ihre Aussage „…dass Erlebnisse ab dem 5. Schwangerschaftsmonat LEBENSLANG dem bewussten Erinnern zugänglich sind – die Lehrmeinung ´infantile Amnesie besagt aber, dass man sich an Erlebnisse aus der frühen Kindheit nicht erinnern kann. Dies bedeutet, dass die GESAMTE Fachliteratur umgeschrieben werden muss.“ so nicht realistisch ist.
Es kann vorkommen, dass man sich an einzelne vage Erlebnisse aus früher Kindheit erinnern kann, aber es ist eher die Ausnahme. Ich persönlich kann mich nur sehr vage an den Krach einschlagender Bomben im Nachbarort erinnern, und etwas besser an einem Stromschlag, den ich beim Spiel mit einer Nachttischlampe abbekommen habe.
An spätere Ereignisse habe ich wesentlich mehr und bessere Erinnerungen.
Es wäre sogar denkmöglich, dass NTEs das Erinnern an besonders frühe Erlebnisse fördern, die normalerweise „verschüttet“ sind. Wenn z.B. aus „technischen Gründen“ nur frühe Strukturen beim „Auslesen referenziert“ werden können. Aber im „Normalfall“ verhält es sich anders.
Das ist so ähnlich wie heutzutage, wenn Bein amputierte Sportler mit ihren „Rennprothesen“ schneller laufen können als „Normalos“.
@Elektroniker
1) Es ist gut bekannt, in welcher Reihenfolge sich die physikalischen Sinne beim Fötus entwickeln: Tastsinn (Wärme, Druck) > Hörsinn (Schall) > Sehsinn (Licht) > Geburt …
2) Im Rahmen von NTEs werden LEBENSLANG Erlebnisse berichtet, die vom Inhalt genau der gleichen Reihenfolge entsprechen, wie sich die physikalischen Sinne entwickeln – d.h. Korrelation = 1 (mehr geht nicht).
3) Es gibt so viele Berichte von NTEs, in denen genau diese Reihenfolge erkennbar ist – so dass man nicht mehr von zufälliger Übereinstimmung, sondern von einer systematischen Arbeitsweise ausgehen kann.
Zusätzlich ist auch die Reihenfolge der kognitiven Entwicklung nach der Geburt erkennbar
All dies deutet darauf hin, dass die Aussage – dass man sich bie NTE an Erlebnisse ab dem 5. Schwangerschaftsmonat erinnern kann, als gut belegbar betrachtet werden kann.
4) All diese Erlebnisse werden LEBENSLANG berichtet, daher muss man davon ausgehen, dass die dafür notwendigen neuronalen Strukturen ebenfalls LEBENSLANG unverändert existieren.
5) Aus den oben genannten Gründen, darf man davon ausgehen, dass die Lehrmeinungen ´infantile Amnesie + neuronale Plastizität´ diskutiert werden sollten. Denn diese konkreten Hinweise deuten darauf hin, dass wichtige wissenschaftliche Grundlagen der Kognitionswissenschaft fragwürdig sein können.
6) Wenn konkreten Hinweisen auf so eine Problematik nicht nachgegangen wird – dann zeigt dies, dass es in der Wissenschaft ein Qualitätsproblem gibt: wissenschaftliche Qualitätsstandards werden nicht beachtet.
@ KRichard 12.04.2022, 10:30 Uhr
Zitat: „weitere Gründe, warum sich die Funktion von Neuronen nicht künstlich nachbilden lässt …
Gedanken haben keine Dauer: Die einzelnen Reize werden völlig unabhängig voneinander verarbeitet. D.h. ein ´Gedanke´ hat nichts mit dem nächsten ´Gedanken´ zu tun. Nur durch die rasche Abfolge dieser Aktivitäten entsteht die Illusion von Kontinuität/Zusammengehörigkeit.
Diese Arbeitsweise kann man per Computerchip nicht sinnvoll nachbauen.
Wir haben die Wahrnehmung unseres Körpers und unserer Umgebung – als wichtigen Anteil unserer Reizverarbeitung. Denn durch deren Existenz entsteht der Eindruck von Kontinuität – von zusammengehörenden Ereignissen.“
Da kann ich nicht ganz zustimmen. Gedanken können einander „assoziativ aufrufen“, sie können auch zu einer Art von „Gleichzeitigkeit“ in den „Bewusstseinsanzeigestrukturen“ („Hirnkino“) zusammengeführt werden. Wenn man sich z.b. im Caffè Florian daran erinnert, dass man vor Jahrzehnten bereits mit seinen verstorbenen Eltern dort gesessen ist.
„Reizschwellen“ dürften, wie auch die Stärke der „Zusammengehörigkeit“ bei „künstlichen Neuronen“, in die „Bewertungsfunktion“ eingehen, die bei den Neuronenverbänden ungefähr der „Stärke“ der synaptischen Verknüpfungen entspricht.
@ Martin Holzherr 12.04.2022, 11:50 Uhr
Die Struktur, das dahinter stehend Konzept im neuronalen System, entspricht nicht der heutzutage üblichen „Prozessorarchitektur“ mit den rund 1 Milliarden Transistoren, sondern den Konzepten der ehemals verwendeten „Gattertechnik“ (McCulloch), mit ganz grob gesagt rund 100 … 10 000 Transistoren. Damit kann zumindest das grundlegende Konzept, das auf die Boolsche Schaltalgebra zurückgeht, halbwegs verstanden werden. „Denkprozesse“ sind keine „übernatürliche Zauberei“.
Wie sich das Gehirn entwickelt, kann ebenfalls der Elektronik „abgeschaut“ werden, wenn Systeme durch „Zubauten“ erweitert werden. Synapsen entstehen ungefähr nach der Hebbschen Regel, die Wissensabbildung und das Geschehen um die Synapsen hat E. Kandel bestens erklärt. W. Singer und C. v.d. Malsburg haben die zeitliche Struktur (Bindungsproblem) offensichtlich der Elektronik „abgeschaut“ und in die Hirnforschung übertragen.
Dass gleiche Hirnstrukturen auch unterschiedliche Aufgaben erfüllen ist klar, aber das Glück für die Hirnforscher ist, dass die Aufgaben weitaus stärker verteilt sind als bei Prozessorsystemen, wo im Prinzip alle Informationen über den zentralen Prozessor „laufen“.
Psychologen können seit Freud, z.B. aus Assoziationsketten die grundlegenden Denkmuster und ihre Wechselwirkungen recht gut nachvollziehen. Das wird vermutlich eine „Psychiater KI“ künftig auch besser können, als ehemals „Eliza“.
@Elektroniker
Das grösste Problem beim Verstehen des Hirns ist den Zusammenhang zwischen kognitiven Leistungen und Hirnaktivität und Hirnentwicklung zu bestimmen.
Beispiel: Kinder können etwa ab dem 3. bis 5. Jahr klar angeben, was Ursache und Wirkung ist, also etwa, dass ein Vogel 🦅 zum Fliegen mit den Flügeln schlagen muss. Doch wie das im Hirn realisiert ist, ist noch weitgehend offen. Zu wissen wie es zu dieser Fähigkeit, Ursache und Wirkung einer Aktion zu erkennen, kommt, wäre etwa für die Forscher in der künstlichen Intelligenz interessant. Bis jetzt gibt es keine einfache Antwort darauf, möglicherweise auch weil solche Fähigkeiten einem komplizierten Zusammenspiel von Hardware und Software zu verdanken sind.
Neuronen und künstliche Neuronen.
Was ist ihnen gemeinsam, sie bestehen aus Atomkernen und Elektronen und leerem Raum, und sonst nichts.
Sie werden jetzt sagen, die Software macht eine Ausnahme. Macht sie nicht .
In Mikroprozessoren sind viele Eingänge und Ausgänge, die nicht alle benützt werden. Die Software ordnet die Bereiche innerhalb des Mikroprozessors, kombiniert sie neu, durch Rückkoppelung schafft sie noch mehr Kombinationsmöglichkeiten. Etwas Neues macht die Software nicht. Sie schöpft aus dem Pool aller Möglichkeiten. Dabei ist die Anzahl aller möglichen Schaltungen so groß, dass man sie nicht abschätzen kann. Wenn Sie in einem ROM abgelegt ist, dann ist sie unveränderlich. Ist sie in einem RAM abgelegt, dann kann man sie updaten.
Nimmt man den Begriff Gatter, synonym zu Eingang und Ausgang, dann sind alle Schaltungen Gatterschaltungen, ausgenommen die Sensoren und die Ausgangskonverter, die elektrische Ströme wieder in Licht oder Töne umwandeln können.
Was ist jetzt im Hirn los ? Das besteht auch nur aus Atomkernen, Elektronen und leerem Raum dazwischen, sonst nichts.
Der Mikroprozessor ist unser Gehirn, dessen Architektur genetisch festgelegt ist.
Das ROM ist unser Erbgut, Das RAM sind die Gedächtniszellen, deren Speicherart uns unbekannt ist. Könnte man dieses Geheimnis verstehen, dann könnte man eine menschenähnliche KI schaffen.
@Hauptartikel
„Interessiert man sich dagegen eigentlich gar nicht dafür, wie die Aktionspotentiale zustande kommen, sondern vor allem über deren zeitliche Zusammenfassung, gibt es bestimmte Zufallsprozesse, welche das Auftreten gut nachahmen können – ohne eine Simulation der zugrunde liegenden Biologie.“
Die zugrunde liegende Biologie dürfte recht komplex sein, und noch einen langen Weg brauchen, bis wir dies verstanden haben. Es dürfte von den Genen im Zusammenhang mit dem aktuellen Zustand der Zellchemie bestimmt werden. Und das Verhalten könnte auch z.B. von Hormonen abhängig sein.
Also irgendwie kommt die Nervenzelle dann zu den Entscheidungen, zwischendurch mal Aktionspotentiale abzuschicken.
Meinen Sie mit bestimmten Zufallsprozessen, das die Nervenzelle selbst auch grundsätzlich variiert, und hier neben einer speziellen Summenfunktion dann in der Aktivierungsfunktion auch ein überlagernder Zufallseffekt gezielt eingesetzt wird?
Dann wäre der ganze Informationsverarbeitungsprozess eine Verbundes von Nervenzellen ja mit gewissen Unsicherheiten verbunden, und wenn mehrmals der gleiche Input kommt, wird trotzdem jedes mal ein wenig anders reagiert. Je größer der Verbund, desto mehr mitteln sich die Zufallseffekte heraus, bleiben aber wohl doch ein grundsätzliches Element.
Wenn ich mir etwa ganz kleine Stechfliegen angucke, so bewegen die sich ja auch so unkoodiniert hin und her, während sie ihrem Ziel dabei nur auf Umwegen immer näher kommen. Diese Tierchen haben ja wohl ziemlich wenige Neurone, dass sich ein Zufallsverhalten dann eben schon aus dem grundsätzlichem Zufallsanteil bei der Arbeit der einzelnen Nervenzellen ergibt.
@Jeckenburger
Ich habe am Beispiel des Themas ´Nahtod-Erfahrung´(NTE) darauf aufmerksam gemacht, dass dabei die Arbeitswesie des Gehirns der bewussten Wahrnehmung zugänglich wird.
Aber ausgerechnet dieser direkte Zugang zur Arbeitsweise des Gehirns wird von der Gehirnforschung ignoriert. Solange man aber immer noch ignoriert, wie das Gehirn arbeitet, kann man seine Arbeitsweise nicht richtig verstehen.
Ein großes Problem beim Nachbau des Gehirns per KI wäre z.B. die Tatsache, dass wir uns ständig verändern. Veränderungen und die sich daraus ergebenden Konsequenzen digital abzubilden ist eines der größten Probleme für die KI (nicht nur beim Menschen, sondern auch in technischen Anwendungen).
Das Gehirn arbeitet bei der Verarbeitung von ALTEN Erfahrungen in NEUES Wissen mit ganz einfachen Ticks: z.B. mit Datenreduktion.
(Dieser Trick ist bei NTEs deutlich erkennbar.)
Datenreduktion ist zusätzlich eine Grundlage von Effektivität. (Unser Gehirn braucht nur ca 30-50 W)
Zwei Beispiele für Datenreduktion, die zeigen warum unser Gehirn sehr effektiv arbeitet
A) Link-aktivieren
Wenn wir einen neuen Reiz wahrnehmen, aktiviert das Gehirn sofort eine vergleichbare Erfahrung – das ist etwa so, wie wenn wir im Internet einen Link anclicken und sofort das gesamte dahinter gespeichete Wissen zur Verfügung haben.
Diese Arbeitsweise ist extrem schnell, da damit eine sofortige Reaktion möglich ist (Fachbegriff: predictive coding). Diese erste, schnellste Reaktion ist unsere wichtigste Überlebensstrategie – auch wenn dabei leicht Fehler passieren können.
Wenn das Gehirn einen neuen Reiz immer erst sorgfältigst verarbeiten müsste – würde viel zu viel Zeit vergehen, bis man zu einer Reaktion bereit wäre.
B) externes Körpermodell
Für unseren Körper und seine Eigenschaften wird ein Körpermodell erstellt und immer aktualisiert, welches das Gehirn bei Bedarf nutzen kann. Bei diesem Körpermodell handelt es sich um ´externe´ Informationen – deren Details nicht im Zusammenhang mit Erfahrungen im Gedächtnis abgespeichert werden.
Dadurch kann die Dateigröße von im Gedächtnis zu verarbeitenden Informationen deutlich reduziert werden.
Beispiel: Wenn ein Kleinkind einen Apfel hält, wird die Größe ´doppelt so groß wie eine Hand´ im Gedächtnis als Erfahrung abgespeichert. Hält ein Erwachsener einen Apfel, wird die Information ´so groß wie eine Hand´ im Gedächtnis abgespeichert.
Die Größe der Hand wird jeweils vom aktuellen Körpermodell übernommen.
Diese Arbeitsweise kann deswegen zu fehlerfaften Erinnerungen führen. Denn wenn wir uns als Erwachsene daran erinnern, wie groß die Äpfel in unserer Kindheit waren – scheinen diese damals größer gewesen zu sein ´doppelt so groß wie eine Hand´. Diesen Erinnerungsfehler können wir aber korrigieren, weil wir wissen, dass unsere Hände früher kleiner waren.
Mich wundert immer wieder, dass man den Unterschied zwischen Mensch und Maschine nicht verstehen kann oder will.
Ein einfaches Beispiel: Ein Computer rechnet die Aufgabe 8 mal 7 tatsächlich aus. Das menschliche Gehirn kann das nicht, es assoziiert lediglich 8 mal 7 mit dem Ergebnis 56. Es lernt dies auswendig. Das Hirn kann gar nicht rechnen. Es assoziiert selbst die komplexesten Gleichungen.
Während der Computer also eine Rechenmaschine ist, ist das menschliche Hirn eine Assoziationsmaschine (wie alle zentralen Nervensysteme).
Wolfgang Stegemann 15.04.2022, 18:30 Uhr
Die derzeitigen Computer „rechnen“ die Aufgabe 8 mal 7 tatsächlich aus. Das menschliche Gehirn assoziiert sozusagen, im „Rahmen des kleinen Einmaleins“, lediglich 8 mal 7 mit dem Ergebnis 56.
Das konnte im Prinzip auch die KI bei kleineren Zahlen.
Aber 2156 mal 3847 = 8294132, das können Sie vermutlich nicht so ohne weiteres im Kopf assoziieren. Da bekäme selbst die KI Probleme, weil sie sich wegen der vielen Assoziationsmöglichkeiten (z.B bei „fast unendlich“ mal „fast unendlich“) den größten Speicher (für die Muster) sinnlos „voll müllen“ würde.
Der Mensch benutzt Bleistift und Papier, verwendet „Assoziations- und Berechnungsmuster“ und berechnet das Ergebnis, besonders bei größeren Zahlen. Diese Muster wurden im Prinzip auf „rechnende Chips“ übertragen und der Computer macht es systematisch.
Der Computer wurde zunehmend immer besser beim Rechnen und man suchte nach neuen „Aufgaben“ (z.B. KI).
Die KI „ahmt“ praktisch auch die Assoziation von Mustern nach und wurde, wegen der vielen anderen Möglichkeiten der systematischen Informationsverarbeitung, partiell auch besser als der Mensch.
Genau wegen der Funktionsweisen, der Experimente und Nachdenken darüber, beginnt man die unterschiedlichen Systeme immer besser zu verstehen.
@Elektroniker:
Ich versuchs Mal anders: geben Sie ein falsch geschriebenes Wort in ein Übersetzungsprogramm ein. Der Computer geht alle Daten durch und findet das Wort nicht, kann es also auch nicht übersetzen. Anders der Mensch, er assoziiert das Wort mit der Bedeutung im Kontext wahrscheinlich richtig. Denn das Hirn arbeitet nicht binär.
Auch wenn der Computer Alternativen ausgeben mag, er kann keine Entscheidungen treffen.
Und nein, der Computer assoziiert nicht. Noch nicht jedenfalls.
@ Martin Holzherr 13.04.2022, 08:18 Uhr
Zitat: „Das grösste Problem beim Verstehen des Hirns ist den Zusammenhang zwischen kognitiven Leistungen und Hirnaktivität und Hirnentwicklung zu bestimmen.
Beispiel: Kinder können etwa ab dem 3. bis 5. Jahr klar angeben, was Ursache und Wirkung ist, also etwa, dass ein Vogel 🦅 zum Fliegen mit den Flügeln schlagen muss. Doch wie das im Hirn realisiert ist, ist noch weitgehend offen. Zu wissen wie es zu dieser Fähigkeit, Ursache und Wirkung einer Aktion zu erkennen, kommt, wäre etwa für die Forscher in der künstlichen Intelligenz interessant. Bis jetzt gibt es keine einfache Antwort darauf, möglicherweise auch weil solche Fähigkeiten einem komplizierten Zusammenspiel von Hardware und Software zu verdanken sind.“
Die Kinder lernen die Kategorienbildung z.B. Tier – Vogel oder kein Vogel aus der Musterauswertung. Visuelle Muster werden gleich hinter der Netzhaut im neuronalen Netz ausgewertet. Das hat Herr Konecny auch in einem Beitrag im Nachbarblog angedeutet.
Die Muster werden grundsätzlich nach örtlichen und zeitlichen Mustern, vermutlich zunächst hierarchisch (baumartig) ausgewertet. Einerseits die in einer bestimmten örtlichen Anordnung abgebildeten Pixel, andererseits die zeitlich nacheinander an bestimmten Örtlichkeiten eintreffenden Pixel (wie beim Video). Dies dürfte sich sehr früh entwickeln.
In einer bestimmten „Tiefe“ dürften sich Netzwerk artige „Vermaschungen“ (Assoziationen) mit den verbalen Mustern bilden, die danach mittels Steuerung durch besondere „Lernmuster“ Output generieren können.
Das Kriterium für die Unterscheidung in die Kategorie „Vogel“, sind die typischen hoch dynamischen Bildmuster des Flügelschlages. Beim Feuerwehrauto wäre es die rote Farbe ….
Mit den „Hirnwellen“ werden die Input Signale samt den zur Auswertung nötigen Signalmustern, sozusagen systematisch (ähnlich wie beim Schieberegister) durch das neuronale System verschoben und die „Sprechwerkzeuge“ angesteuert.
Beim „Schieberegister“ kann man übrigens auch bequem einen etwas späteren „Pixelstatus“ mit einem früheren Status vergleichen…. Das gehört zum Konzept der „zeitlichen Bindung“, wenn die Signale selektiv durch das neuronale System verschoben werden.
@ Wolfgang Stegemann 16.04.2022, 16:10 Uhr
KI Software zur Spracherkennung, die auf etwas besseren PCs läuft, kann „Wortbedeutungen“ und ihre Zugehörigkeit zu einem bestimmten Zusammenhang „berechnen“.
Tomáš Mikolov hat genau das von Ihnen aufgeworfene Problem, vermutlich recht gut, ich glaube für den Googele Konzern, einer grundsätzlichen Lösung näher gebracht.
Hat auch Herr Konecny in einem seiner früheren Blogbeiträge auf scilogs erläutert.
Wolfgang Stegemann,
das Gehirn kann nicht rechnen.
O.K. Wir behelfen uns mit den Fingern, zählen ab. Und irgendwann zählen wir in unserer Vorstellung mit den Fingern, dann ohne Finger, aber, sie haben Recht, rechnen ist ein dynamischer Vorgang. Wenn wir die Lösung im Gedächtnis haben, geht es noch schneller.
Als Lehrer kann ich dazu anmerken, es ist nicht gut, wenn man Schüler zu früh ausendig lernen lässt. Dann verlassen sie sich auf das Gelernte und vergessen , wie man zu der Lösung kommt.
@Stegemann 15.04 18:30
„Ein einfaches Beispiel: Ein Computer rechnet die Aufgabe 8 mal 7 tatsächlich aus. Das menschliche Gehirn kann das nicht, es assoziiert lediglich 8 mal 7 mit dem Ergebnis 56. Es lernt dies auswendig. Das Hirn kann gar nicht rechnen. Es assoziiert selbst die komplexesten Gleichungen.“
Die Kombination menschlicher mathematischer Erkenntnis mit der Funktionsweise von Computern macht ja erst die Erfolge dieser Maschinen aus. Die reine Rechenleistung des assoziierenden Gehirns bei äußert energiesparender Architektur ergibt dann das biologische Vermögen. Das Gehirn ist in der Evolution gewachsen, nach Versuch und Irrtum größtenteils, kein detaillierter Plan stand dahinter. Entsprechend ist es nicht in der Lage, mathematische Berechnungen wie ein Computer auszuführen.
Die Informatik hat da ganz andere Möglichkeiten. Hier kann geballte mathematische Kenntnis direkt in Algorithmen umgesetzt werden. Bei Anwendungen, die dieses Vorgehen möglich machen, ist der Computer dem Gehirn millionenfach überlegen. Selbst der Prozessor eines einfachen Taschenrechners kann mehr als eine ganze Abteilung von Menschen, die vor der Erfindung des Computers entsprechende Rechenaufgaben lösen mussten.
So hatte man in den 50er und 60er Jahre die Vorstellung, dass die immer schneller und billigeren Computer schon bald den Menschen überflügeln werden. Hierbei hat man aber übersehen, dass eben nur wenige wirkliche Probleme mit mathematisch bekannten Verfahren zugänglich sind. Und so die Effektivität der Computer gepaart mit mathematischen Algorithmen schnell an Grenzen stoßen wird, genau da wo eben keine einfachen Formeln vorhanden ist.
Hier ist dann das Gehirn in seinem Element. Als Universal-Assoziationsmaschine kann es Probleme lösen, für die es keine Algorithmen gibt. Man ist inzwischen dabei, das auch den Computern beizubringen, ist hier allerdings vor allem im Punkt Energieverbrauch wiederum millionenfach dem Gehirn unterlegen.
Eine Kombination von Algorithmen und Assoziationsvermögen mag noch ein Feld sein, dass noch deutliche Steigerungen an künstlicher Intelligenz bereit hält. Und eine ganz neue Computerarchitektur, die sich an natürlichen Neuronenverschaltungen orientiert. Wenn man heute neuronale Netze im Computer nachbaut, werden nacheinander riesige Datenraten ständig im Prozessor hin und hergeschoben, statt sie wie im natürlichem Gehirn parallel und ganz direkt in speziellen Schaltkreisen ablaufen zu lassen.
Computer die mit digitalen Neuronen arbeiten, müssen Ergebnisse liefern, die zu 100% reproduzierbar/wiederholbar sind. Wenn nicht, kann man sie in Gebieten nicht verwenden, wo Menschenleben und Sachgüter gefährdet sind.
Chip-Hersteller können das Risiko von Fehlern nicht eingehen, weil sie die finanzielle Haftung für ihre Produkte übernehmen müssen.
Die Idee, die Funktionsweise von Gehirnen digital per AI nachzubauen – muss man in den Bereich von Aprilscherzen einordnen.
Denn wenn man die Funktionsweise des Gehirns nachbauen will, dann sollte man sich zuerst bemühen, zu verstehen, wie das Gehirn arbeitet. Aber leider fehlt bisher das Interesse dafür – wie ich am Beispiel NTE schon gezeigt habe: Obwohl bei NTEs die Arbeitsweise des Gehirns der bewussten Wahrnehmung zugänglich ist und gezeigt werden kann, dass Lehrmeinungen falsch sein müssen – werden NTEs nicht ernsthaft erforscht.
eine interessante neue Arbeit:
DOI: 10.1126/sciadv.abl5865
Spatially distributed computation in cortical circuits
http://www.sciencedaily.com/releases/2022/04/220422161527.htm
An ocean in your brain: Interacting brain waves key to how we process information
Hier wird die Überlagerung neuronaler Wellen (Interferenz) als Grundlage von neuronalen Prozessen diskutiert