Sind Hirnscans nur Kaffeesatzleserei?

Neue Studien ziehen neurowissenschaftliche Erkenntnisse ernsthaft in Zweifel

“Heute sind es noch Geheimzeichen, morgen wird man vielleicht Geistes- und Hirnerkrankungen aus ihnen erkennen und übermorgen sich gar schon Briefe in Hirnschrift schreiben.”

Meine Leserinnen und Leser kennen es bereits: Ich fühle Berichten über Durchbrüche in den Neurowissenschaften gerne auf den Zahn. Am genannten Zitat ist aber nicht so sehr der Inhalt interessant. Vielmehr kommt es auf das Erscheinungsdatum an: Es stand im Stadt-Anzeiger Düsseldorf vom 6. August 1930 und feierte die Entwicklung der Elektroenzephalographie (EEG) durch den Jenenser Hirnforscher Hans Berger (1873-1941).

Heute schreiben wir das Jahr 2022. Die EEG ist zum Standardverfahren in den Neurowissenschaften – übrigens ein Wort, das es damals noch gar nicht gab – geworden. Bis in die 1990er Jahre waren PET- und SPECT-Scans angesagt. Mithilfe von Tracersubstanzen, die man den Probanden spritzen muss, kann man so den Stoffwechsel im Gehirn untersuchen. Das ist bis heute für pharmakologische Forschung wichtig.

Game Changer: fMRT

Um das Jahr 2000 setzte sich dann die fMRT durch, die funktionelle Magnetresonanztomographie. Neben der vergleichsweise guten räumlichen und zeitlichen Auflösung (verglichen mit EEG ist es aber ein Schneckentempo) war ihr großer Vorteil, auf die Tracersubstanzen verzichten zu können. Darum nennen viele dieses Verfahren “nicht-invasiv”. Das ist aber nicht ganz korrekt, da es auf elektromagnetische Strahlung angewiesen ist, die zum Teil auch vom Körper absorbiert wird und ihn aufwärmt, so wie Handystrahlung.

Durch die große Verbreitung dieser Scanner machten Hirnforscher, Psychiater und Neurologen mehr und mehr den Psychologen Konkurrenz, die das Wahrnehmen, Fühlen, Denken, Entscheiden und Verhalten der Menschen untersuchen. In den Medien setzte sich das Narrativ durch, damit könne man nun dem “Gehirn beim Denken” zuschauen.

Auch mich beeindruckte das: So untersuchte ich für meine Doktorarbeit an den Universitätskliniken Frankfurt (2005/2006) und Bonn (2006-2009) moralisches Entscheiden. Wahrscheinlich war ich auch der Erste auf der Welt, der Rechtsanwälte im Hirnscanner untersuchte. Es nahmen sogar ein paar Bonner Staatsanwälte daran teil.

Gedankenlesen

Als das Staunen um die bunten Gehirnbilder etwas nachließ, kam die nächste Welle: Forscher sprachen vom “Brain Reading”, teilweise sogar vom “Gedankenlesen”. Da ich die öffentliche Darstellung der Hirnforschung damals schon sehr einseitig fand, schrieb ich mein erstes Buch (“Gedankenlesen“, 2008). Darin legte ich wert darauf, nicht nur die Möglichkeiten, sondern auch die Grenzen der Verfahren zu erklären.

Vom “Gedankenlesen” sprach man insbesondere dann, wenn man Aktivierungen im Gehirn nicht nur Ort für Ort analysierte, sondern an den verschiedenen Orten zueinander in Beziehung setzte (Fachbegriff: multivariate Analyse). Da das die Vorstellung von uns Menschen (n-dimensionale Räume) schnell übersteigt, wendete man stattdessen Computeralgorithmen darauf an, das sogenannte Maschinenlernen.

Die Erwartungen waren hoch: Buchstabieren per Gedankenkraft, die bereits 1930 avisierte “Gehirnschreibmaschine”, Rekonstruktion gesehener Bilder und Videos, sogar beim Träumen, gerichtsfeste Lügendetektion und die Diagnose psychischer Störungen im Hirnscanner. Was davon ist heute Wirklichkeit? Wohl eher nichts.

Hype und Gegen-Hype

Zu den übertriebenen Erwartungen, zum Hype gehört der Gegen-Hype fast schon mit Notwendigkeit dazu. Doch je höher man steigt, desto höher der Fall. Um das Jahr 2010 schließlich kamen vermehrt Kritiker zu Wort. Und auch sie hatten mächtige Bilder:

Da gab es den toten Lachs mit Gehirnaktivität im fMRT-Scanner, der es auch in mein zweites Buch schaffte (“Die Neurogesellschaft“, 2011). Und unter dem Stichwort der “Voodoo-Korrelationen” kamen statistische Probleme bei der Auswertung der Gehirndaten zur Sprache: Ergebnisse, die zu gut sind, um wahr zu sein, sind vielleicht genau das: zu gut, um wahr zu sein.

Also achtete man etwas mehr auf die Statistik. Und man wagte die Flucht nach vorne: Was bisher nicht gelang, sollte mithilfe von Netzwerkanalysen viel besser funktionieren. Warum? Weil halt! Ach so.

Willkommen im Jahr 2022

Jetzt sind wir wieder eine Dekade weiter – mehr als 30 Jahre übrigens nach dem Einläuten der “Dekade des Gehirns” (den 1990ern), bald 20 Jahre nach dem vieldiskutierten “Manifest elf führender Hirnforscher” Deutschlands von 2004. Es gibt immer noch keine Lügendetektoren, echte Hirnschreibmaschinen oder Diagnosen psychischer Störungen im Hirnscanner.

Doch statt einer allmählichen Verbesserung, erscheint die Situation schlimmer denn je: Als 70 Forschungsgruppen gefragt wurden, unabhängig voneinander anhand derselben fMRT-Daten neun wissenschaftliche Hypothesen zu testen – kamen sie oft zu unterschiedlichen Ergebnissen. Dabei sollten die teuren Maschinen psychologische Forschung doch endlich “objektiv” machen. Das war im Jahr 2020.

In diesem Jahr hat sich die Situation weiter verschlechtert. Hierzu muss man noch etwas mehr über die Grundlagen der fMRT wissen: Damit misst man die Hirnaktivierung nämlich nicht direkt, sondern vermittelt über winzige Änderungen der magnetischen Eigenschaften im Blutfluss. Weil das Signal zufälligen Fluktuationen unterliegt und die wirklichen Unterschiede klein sind, muss man eine Messung häufiger wiederholen.

In dem erwähnten Experiment mit den Rechtsanwälten haben wir pro Person beispielsweise jeweils 18 moralische und juristische Entscheidungen miteinander verglichen. Auf diese Weise verbessert man das Signal-Rauschverhältnis. Dahinter steckt der Gedanke, dass sich das zufällige Rauschen “herauskürzt” und das echte Signal übrig bleibt.

Gewinnspiel: Finde den Gedanken! (Grafik: selbst)

Zu wenig Power

Wissenschaftlich sauber wäre es, hier eine sogenannte Power-Analyse anzustellen. Bei gegebenen Parametern könnte man damit berechnen, wie viele Versuchspersonen man messen muss, um einen Effekt mit einer bestimmten Größe zu finden. (Nebenbei: Das lernen unsere Psychologiestudierenden im Grundstudium.)

In der Forschungspraxis macht man das aber eher nicht, jedenfalls nicht in der bildgebenden Hirnforschung. Ist man sich des Problems nicht bewusst oder wäre das Ergebnis niederschmetternd?

Nun hat jedenfalls ein Team um Scott Marek von der Washington University School of Medicine in St. Louis errechnet, wie viele Versuchspersonen man in der Regel messen müsste, um ein wiederholbares (Fachwort: replizierbares) Ergebnis zu erhalten. Das Ergebnis liegt im Bereich von Tausenden, wie nun in Nature berichtet wurde.

Tatsächlich misst man in solchen Versuchen meist aber gerade einmal fünfundzwanzig Versuchspersonen! Und das wäre in meiner aktiven Zeit in diesem Bereich schon eher viel gewesen. (Nebenbei: In meiner Studie mit den Anwälten waren es 46 Personen; und auch nicht bloß, wie so oft, die eigenen Studierenden, sondern Vollakademikerinnen und -Akademiker.)

Kosten und Nutzen

Mit diesem Befund sind auf einen Schlag die Ergebnisse von fast allen fMRT-Studien infrage gestellt. Wenn man an die einmaligen und laufenden Kosten des Verfahrens denkt, ist das meiner Meinung nicht weniger als ein Todesstoß:

Früher galt die Faustregel, dass ein Scanner – einschließlich des Gebäudes mit der nötigen elektromagnetischen Abschirmung – rund eine Million Euro pro Tesla Feldstärke kostet. Also drei Millionen für 3T (üblich), neun Millionen für 9T (haben sie in Jülich). Die Baukosten dürften seitdem nicht geringer geworden sein.

Und es gilt: Je größer die Feldstärke, desto besser das Signal-Rausch-Verhältnis. Allerdings lässt sich das nicht beliebig steigern. Bei den extrem starken Magnetfeldern – 9T sind etwa 180.000-mal so stark wie das natürliche Magnetfeld der Erde – klagen mehr und mehr Menschen über Schwindel.

Unter die laufenden Kosten Fallen Personal, Energie – und vor allem das Helium, das man zur Kühlung des supraleitenden Drahts im Bereich des absoluten Nullpunkts braucht. Weil die Atome so klein sind, schlüpfen sie nach und nach durch die Isolation. Darum muss regelmäßig der Tanklaster vorbeikommen und den Vorrat auffüllen: kein Helium, keine Kühlung, keine Supraleitung, kein Magnetfeld, keine fMRT, keine bunten Bilder, kein Spaß.

Dessen Vorräte sind begrenzt und die Preise steigen. In meiner Zeit galt die Faustregel, dass man pro gemessener Stunde von ca. tausend Euro ausgehen kann. Vielleicht hat es seitdem bestimmte Optimierungen gegeben. Aber um von 25 Versuchspersonen auf Tausende zu kommen, brauchen wir mindestens eine Vervierzigfachung der Messzeiten!

Damit ist das Problem aber noch nicht gelöst. Denn mit diesem riesigen Aufwand – die Forscher nennen es jetzt “Gehirnweite Assoziationsstudien”, in Anlehnung an “Genomweite Assoziationsstudien” in der Mikrobiologie – findet man zwar statistisch vertrauenswürdige Ergebnisse. Diese haben dann aber so kleine Effektgrößen, dass sie praktisch irrelevant sind.

Wie weiter?

Diese Zwickmühle hat gerade der Artikel “Wie aussagekräftig sind Gehirnstudien?” von Elena Bernard in bild der wissenschaft aufgegriffen. Neben meiner Wenigkeit wird darin Simon Eickhoff zitiert, Direktor einer großen neurowissenschaftlichen Abteilung am Forschungszentrum Jülich und wohl einer der bedeutendsten Hirnforscher Deutschlands.

Er bestreitet die genannte Kritik nicht, hat im Gegenteil sogar mit zu solchen Studien beigetragen, etwa der mit den Hypothesen. Am Ende des neuen Artikels äußert er sich dann so über die Zukunft der bildgebenden Hirnforschung:

“Bis wir tatsächlich in der Lage sind, mithilfe von Hirnscans Diagnosen und Prognosen für psychische Krankheiten abzugeben, wird es wohl noch eine Weile dauern. Die klassischen, zu kleinen gehirnweiten Assoziationsstudien bringen uns dabei nicht weiter – das sollte spätestens mit der Publikation von Marek und seinen Kollegen klar geworden sein.”

Simon Eickhoff, bdw 10/2022, S. 75

War das mit den psychischen Störungen nicht 1930 schon ein Wunsch? Oder nicht eigentlich schon vor fast 200 Jahren mit der Gehirntheorie psychischer Störungen Wilhelm Griesingers (1817-1868)? Und wie viele dieser hunderten Störungen kann man heute schon zuverlässig im Hirnscanner diagnostizieren? 80 Prozent? 50 Prozent? Oder 10 Prozent wenigstens? Nein, keine Einzige!

Gedankenlesen 2020

Ein kurzer Auftritt Eickhoffs im Bayerischen Fernsehen unter dem Titel “Das neue Gedankenlesen: Was das Gehirn über uns verrät” ist für unsere Frage ebenfalls erhellend. Am Anfang wird hier wieder das Narrativ aufgebaut, mit Hirnforschung könne man mehr über Personen herausfinden. Dass Eickhoff den Irrtum verbreitet, mit der fMRT gebe es “keine Strahlenbelastung”, sei geschenkt.

Nur dem kritischen Zuschauer oder dem Kenner fällt aber wahrscheinlich auf, dass der Neurowissenschaftler hier mehrmals zwischen Gehirnfunktion und Struktur, zwischen Psychologie, Psychiatrie und Neurologie wechselt.

Trotzdem ist beachtlich, was Eickhoff nun als Beispiel für die Aussagekraft dieser Verfahren anführt, in die seit Dekaden viele, sehr viele, wirklich ganz viele Milliarden an Steuer- und anderen Fördergeldern geflossen sind: Man könne das “biologische Alter” der Versuchspersonen auf vier Jahre genau und ihr (biologisches) Geschlecht mit 80- bis 90-prozentiger Wahrscheinlichkeit bestimmen. Aha.

Wenn wir auf den persönlichen Bereich schauen, um den es laut dem Titel der Sendung und Eickhoff vor allem gehen soll, sieht das auf einmal anders aus: Da meint er, man könne die Unterschiede zwischen den Menschen anhand neurowissenschaftlicher Verfahren zu 20 bis 30 Prozent erklären. Dabei muss man aber bedenken, was hier mit “Persönlichkeit” gemeint ist:

Es geht um die sogenannten Big Five, das sind fünf psychologisch bewährte Skalen – beispielsweise zu Neurotizismus, Gewissenhaftigkeit oder Offenheit für neue Erfahrungen – zur Reduktion von Persönlichkeitsfaktoren auf Zahlen (sprich: Quantifizierung). Unterschiede in diesen Zahlen zwischen zwei Personen will Eickhoff nun zu 20 bis 30 Prozent neurowissenschaftlich erklären können.

Wobei “erklären” hier schlicht heißt: Man findet eine Korrelation, etwa der Form: Mehr A (z.B. höheren Neurotizismus) findet man im Mittel häufiger mit mehr B (z.B. höherem Signal in den Mandelkernen des Gehirns). Das ist ein Zusammenhang, der einer näheren Erklärung bedarf.

Reduktionistischer Fehlschluss

Die Existenz solcher Zusammenhänge bestreite ich nicht. Ich werfe dem Hirnforscher hier aber einen Fehler vor, den ich über die Jahre so genannt habe: den reduktionistischen Fehlschluss.

Für experimentelles Arbeiten ist es normal, ein komplexes Ganzes auf etwas Einfacheres zu reduzieren. Sie können ja selbst einmal überlegen, wie Sie die Persönlichkeit messen würden. Und was ist das überhaupt, “Persönlichkeit”? Schreiben Sie es gerne in die Kommentare.

Eickhoff und mit ihm viele andere Hirnforscher belassen es aber nicht bei dieser Reduktion, die ja schon der Psychologe vornimmt. Dessen Reduktion, beispielsweise in Form der Big Five, wird nun weiter reduziert, nämlich auf Unterschiede in den neuronalen Aktivitäten. Und im Ergebnis passen also die Reduktionen erster und zweiter Ordnung zu 20 bis 30 Prozent zusammen.

Der Fehlschluss besteht darin, von dieser doppelt reduzierten Größe wieder auf das ursprüngliche Phänomen zurückzuschließen. Und das war hier: die Persönlichkeit.

Oder um es einmal analog zu Platons Höhlengleichnis zu formulieren: Es geht eigentlich um die wirkliche Welt (Persönlichkeit), von der der Psychologe aber nur einen Schatten erfasst (Big Five). Eigenschaften dieses Schattens werden nun weiter gefiltert, beispielsweise mit einer Brille mit farbigen Gläsern (Hirnscanner). Dass das Ergebnis nur noch ein Abklatsch des Abklatsches der Wirklichkeit ist, liegt auf der Hand.

Hirnforscher: Forsch im eigenen Hirn (Grafik von 愚木混株 Cdd20 auf Pixabay)

Zusammenfassung

Wie soll es also weitergehen? Die Lösung für Eickhoff ist: Jetzt eben die “gehirnweiten Assoziationsstudien” mit Tausenden Personen durchführen. Doch wer soll das Bezahlen? Und welche anderen, potenziell wichtigeren Forschungsergebnisse gehen uns dann immer weiter verloren? Den Durchbruch für die so gewonnen Daten sollen KI-Algorithmen bringen.

Ein überzeugendes Argument dafür gibt es allerdings nicht. Warum? Weil halt! Ach so. Es ist vielmehr reines Wunschdenken. Immer wieder. Oder sollte man es besser “Neuro-Ideologie” nennen?

Fassen wir zusammen: Schon 1930 dachte man, mit der EEG Gedanken lesen oder psychische Störungen diagnostizieren zu können. Bis in die 1990er stellte man hohe Erwartungen an PET und SPECT. Dann kam die fMRT. Als man damit zunehmend auf der Stelle trat, kam das “Gedankenlesen” (multivariate Analyse). Dann hieß es, man brauche Netzwerkanalysen.

Jetzt stellte sich heraus, dass all die Studien – von denen man inzwischen abertausende in den Datenbanken hat – statistisch gesehen gar nicht replizierbar sein können. Dann also Tausende Versuchspersonen messen, pro Experiment. Um winzige Effekte zu finden. Vom Abklatsch eines Abklatschs. Dazu KI in den Kochtopf. Und plötzlich passiert – Magie? War das mit dem “Voodoo” in der Hirnforschung vor rund einer Dekade doch nicht so daneben?

Dabei muss man konstatieren, dass von den seit 90 bis fast 200 Jahren gemachten Versprechen nichts realisiert wurde: keine echten Gehirnschreibmaschinen, kein Gedankenlesen, keine Diagnose psychischer Störungen im Hirnscanner, ja noch nicht einmal zuverlässige Lügendetektoren!

Die Gesellschaft hat viel Geduld mit den Neurowissenschaftlern, wenn der Geldhahn so lange offenbleibt. Übrigens ist die Diagnose psychischer Störungen meiner Argumentation zufolge mit dem Hirnscanner schlicht unmöglich. Dafür sprechen nicht nur theoretische Argumente, sondern inzwischen fast 200 Jahre Wissenschaftsgeschichte.

Unterschiede ohne Bedeutung

Nein, es gibt genau eine primäre Wissenschaft vom menschlichen Wahrnehmen, Fühlen, Denken, Entscheiden und Verhalten: Das ist die Psychologie. Diese umfasst sowohl die sprachlichen Möglichkeiten der Geisteswissenschaften (vor allem über die Phänomenologische Psychologie) als auch, wo nötig, die biologischen Verfahren (vor allem über die Biologische oder Neuropsychologie).

Die kognitive Neurowissenschaft braucht die Psychologie. Umgekehrt gilt das nicht.

Das Gehirn mit seinen vielen Milliarden Nerven- und anderen Zellen ist natürlich ein faszinierendes Organ. Darum höre ich beispielsweise auch so gerne der Neuro-Anatomin Kathrin Amunts zu, einer Kollegin Simon Eickhoffs in Jülich (hier im MENSCHEN-BILDER-Interview).

Doch auch dort fällt mir auf, dass es sehr schnell vage wird, wenn etwa die Fähigkeiten eines Sprachgenies erklärt werden sollen, wenn man also auf die persönliche/psychologische Ebene wechselt. Gut, man sieht Auffälligkeiten im Gehirn, Unterschiede. Doch was diese bedeuten – das weiß man nicht genau. Willkommen in Platons Höhle.

Objektivität?

Über Eickhoffs Schluss kann ich mich nur wundern: Trotz all der Probleme seines Fachs seit vielen Dekaden und des Unvermögens, interessante, replizierbare Ergebnisse über die Persönlichkeit zu finden – mithilfe der Hirnforschung sollen sich solche Fragen “objektiv beantworten” lassen. Doch: “Wir fangen gerade erst so richtig an.”, beschwichtigt er. Das stand so fast schon wortwörtlich in der Erklärung zur “Dekade des Gehirns” 1990. Und nicht auch im Manifest von 2004?

Als der Behaviorismus vor rund 100 Jahren zur leitenden Strömung in der Psychologie wurde, denunzierte der Hardliner John B. Watson (1878-1958) alternative Ansätze der Philosophie und phänomenologischen Psychologie als “mentale Gymnastik”. Deren Ergebnisse seien viel zu vage. Man müsse sich auf das “objektiv” Messbare beschränken: Verhalten.

Doch am Ansatz von Eickhoff und so vielen anderen führenden Persönlichkeiten der Neurowissenschaften ist wenig objektiv: Die untersuchten Gehirne sind komplexe Konstrukte einer Gen-Umwelt-Interaktion in einer kulturellen Umgebung; die Experimente haben Forscher sich ausgedacht; bei kognitiver Forschung kommt es darauf an, wie die Versuchsleiter die Aufgabe erklären – und wie die Versuchspersonen sie verstehen; die Parameter und Software zur Auswertung haben die Wissenschaftler selbst festgelegt; und am Ende interpretieren sie die so gewonnenen Ergebnisse, wie wir oben gesehen haben, dann auch noch unterschiedlich. Sie sind eben selbst, was sie nicht wahrhaben wollen: fehlbare Subjekte.

Natürlich bleibt die Hirnforschung faszinierend und haben ihre Methoden wichtige Anwendungen, beispielsweise in der Neurochirurgie und Neurologie. Das sind aber nicht ohne Grund andere Disziplinen als Psychiatrie und Psychologie.

Hirnforscher, kenne die Möglichkeiten und Grenzen deiner Methoden! Ansonsten serviere ich dir gerne mal einen Tee in Platons Höhle. Oder wieder einmal einen gepfefferten Blogbeitrag.

Das könnte Sie auch interessieren:

Neu: Folgen Sie Stephan Schleim auf Twitter. Titelgrafik: 愚木混株 Cdd20 auf Pixabay.

(Das Zitat aus dem Düsseldorfer Stadt-Anzeiger von 1930 stammt aus Cornelius Borcks “Hirnströme“.)

Avatar-Foto

Die Diskussionen hier sind frei und werden grundsätzlich nicht moderiert. Gehen Sie respektvoll miteinander um, orientieren Sie sich am Thema der Blogbeiträge und vermeiden Sie Wiederholungen oder Monologe. Bei Zuwiderhandlung können Kommentare gekürzt, gelöscht und/oder die Diskussion gesperrt werden. Nähere Details finden Sie in "Über das Blog". Stephan Schleim ist studierter Philosoph und promovierter Kognitionswissenschaftler. Seit 2009 ist er an der Universität Groningen in den Niederlanden tätig, zurzeit als Assoziierter Professor für Theorie und Geschichte der Psychologie.

163 Kommentare

  1. Aus meiner bescheidenen Sicht:
    So lange man keine nichtinvasive räumliche ( neuronale ) und keine zeitliche ( Impulsdauer ) Auflösung der Gehirnaktivitäten erreicht und man nicht eine Rechnerkapazität wie am CERN einsetzt, um das “Gewitter” definierten Aktionen zuzuordnen, tappt man mehr im Nebel, als dass man sich auf dem sicheren Boden einer wissenschaftlichen Erkenntnis bewegt.

  2. Ein wahrnehmbarer ´Gedanke´ entsteht durch eine rasche Abfolge von einzelnen, unabhängign Gehirnaktivitäten, die eine bestimmte Aktivitätsschwelle überschreiten. So entsteht die Illusion von Kontinuität des Denkens.
    (Da ist wie im Kino: Wo der Eindruck dass man zusammenhängende bewegte Bilder sehen kann – auch nur eine Illusion ist. Es werden nur Einzelfotos gezeigt!)
    Diese Kontinuität wird unterstützt durch die andauernde Existenz eines Körpers und Sinneswahrnehmungen – wodurch der Eindruck von Dauerhaftigkeit entsteht.
    Kurz gesagt: dauerhaftes und somit messbares ´Denken´ gibt es nicht.

    Hier haben wir schon das erste Problem: Aktivitätsmessungen können keinen Zusammenhang zwischen unabhängigen Messwerten herstellen und erkennen.
    Dies ist ein Grund, warum ´Denken´ nicht messbar ist und warum die sogenannte Brain-Computer-Interface-Technologie (BCI) scheitert. Versuche mit BCIs können nur sehr kurze Zeit brauchbare Ergebisse liefern, weil die Versuchsperson schnell stark erschöpft ist – denn es ist extrem anstrengend, sich auf eine einzelne Aktivtät zu konzentrieren.

    ein zweites Problem: gute Messwerte im MRT erhält man nur, wenn die Versuchsperson den Kopf überhaupt nicht bewegt. Das ist extrem anstrengend und kann nur sehr kurze Zeit durchgehalten werden. Aber schon eine leichte Bewegung des Kopfes führt dazu, dass die gemessenen Pixel-Werte/Positionen nicht übereinstimmen.

  3. Auch Wissenschaftler sind Produkte der Evolution. Sie funktionieren in einem kapitalistischen System, das weder Zukunft noch Vergangenheit kennt, es investiert ausschließlich in den Privatprofit des Augenblicks. Forschung ist etwas, was unterschwellig läuft, man lässt sehr viele Wissenschaftler ein Bisschen was tun und hofft, dass im Notfall schon etwas da ist, das sich industriell vervielfältigen lässt. Das ergibt eine Wissenschaft der Paketboten, Pfleger und Sweatshops, in der sehr viele Leute um sehr knappe Ressourcen konkurrieren müssen. Wenn Sie eine teure Maschine brauchen, ist es das Äquivalent der katholischen Kirche – Sie müssen das Seelenheil im Jenseits versprechen und jeden als Ketzer verbrennen, der nicht ganz fest daran glaubt, denn Ihre Kosten-Nutzen-Rechnung weint fette, rote Zahlen. Im Grunde erzieht das System Wissenschaftler zu Trickbetrügern. Genau wie jeden anderen auch.

    Viel Feind, viel Ehr. Projekte wie Desertec, CargoLifter, Geothermie, stießen auf enorme Schwierigkeiten, deswegen wurde die Entwicklung abgebrochen. Solarstrom aus der Wüste, die Fähigkeit, tiefe Löcher zu bohren und zu stabilisieren, um nicht nur Energie, sondern auch Rohstofe zu fördern, Transport-Zeppeline – klingt nach genau den Dingen, die wir heute schmerzlich vermissen, oder?

    Falls jemand die Möglichkeit findet, Hirnströme zu messen, ohne den Schädel aufzubohren, könnte eine Gedanken-Schreibmaschine aufgrund klar erkennbarer Muster funktionieren: Für A denke an grüne Volksmusik – für B an Vanillegeschmack und Spinnen – für C an Ziegen in anzüglichen Positionen… Nichts für jedermann, doch für Gelähmte könnte es ein Segen sein, verglichen mit den bisherigen Kommunikationsmethoden. Sie könnten so sogar Exoskelette steuern und joggen gehen, oder als Bauarbeiter Kräne steuern.

    Was Persönlichkeit angeht, bin ich einfach zu doof, um alle Aspekte zu beleuchten. Es scheint einen ganzen genetischen Katalog aus archetypischen Persönlichkeiten zu geben, die sich hierarchisch organisieren und einfach nicht merken, dass dieser Typ namens Ich ständig ein Anderer ist, dem dazu noch eine ganze Gruppe von Leuten dazwischen quatscht. Da würde ich mir die Entwicklungen vom Individuum zum Team angucken – da die Grundlagen in vielen Jobs bereits ausgearbeitet wurden und wir viel mehr Details beachten müssen, müssen wir die Gehirne mehrerer Leute zu einem verschrauben, um eine Aufgabe zu bewältigen. Kann sein, dass sich die analogen Archetyp-Persönlichkeiten in ihren Hirnen ähnlich organisieren, wie in einem einzigen. Ich finde ständig Analogien zwischen Staat, Menschheit und Hirn – den Neuronen scheint es egal zu sein, in wie vielen Köpfen sie stecken. Ist ja auch logisch, nur die wenigsten von ihnen haben Zugriff auf die Schnittstellen zur Außenwelt – woher soll ein Stammhirn wissen, welche Gedanken vom Frontallappen kommen, und welche durch Augen und Ohren von den Frontallappen anderer Leute?

    Dann gibt’s so was wie Dauerschleifen. In unseren Köpfen scheinen Tonbänder zu laufen, die ständig einfache Botschaften wiederholen und überall dazwischen quatschen. Eines sagt zum Beispiel – da ist ein Ich, das all diese Gedanken denkt. Die meiste Zeit ist keins da, da wird dieser Text gelesen, nur wenn Sie nachgucken, bekommen Sie die Information, dass Sie es sind, die ihn lesen. Bekannt ist das Depri-Tonband, „du bist nichts wert“. Sprichwörter, Redewendungen, scheinen Dauerschleifen zu sein, die bewusst programmiert werden. Es ist erstaunlich, wie sehr einfache, primitive Codes, ein paar neurale Bürokraten, die einfach nur den Job machen, für den sie gefüttert werden, ohne die Botschaft zu verstehen oder sich um sie zu scheren, die sie verbreiten, das Geistesleben kontrollieren können. Erinnert echt stark an die katholische Kirche, die ständig Botschaften verbreitet, die sie offensichtlich nicht begreift und die nicht für sie bestimmt sind, sie ist nur dazu da, sie nicht vergessen zu lassen, die Bevölkerung ständig damit zu berieseln: Der MP3-Player der Evolution.

    Überhaupt scheinen sehr einfache Schaltungen die Grundlage unseres Denkens zu sein. Oft findet sich die Höllentür: Sie befinden sich zwischen zwei Türen, hinter der einen ist ein Teufel, der Sie nicht rauslässt, hinter der anderen ein Teufel, der Sie gefangen hält. Doch es gibt nur eine Tür, beide Teufel sind Sie selber. Beiden Teufeln verpassen Sie Masken, Fratzen, geschaffen aus Fantasie und Realität – Putin sieht ja auch überall umso mehr Nazis, je mehr er selbst zum Nazi wird. Für einen Elektriker wäre es einfach, eine Schaltung aufzumalen, die sich selbst ähnlich hochschaukelt. Im Hirn versorgt sie unzählige Hirnregionen mit Strom, die sie am Laufen halten müssen, um gefüttert zu werden. Das gleiche Verhältnis, wie zwischen Boss und Angestellten, oder Regierung und Volk.

    Gerade meldet sich ein Déjà vu, ich weiß nicht, wann, wo, wie oft ich schon in etwa das Gleiche gepostet habe. Vielleicht auch bei Ihnen. Ich bin seit dem Kindergarten senil, sorry. Dafür bin ich auch im Alter noch infantil geblieben. Passt zum Thema Interferenzen, Messungenauigkeiten, nicht?

    Dann scheint es mir, dass das Hirn den Zustand des Körpers auf die Welt projiziert. Jackie Chan ist ein Fan des chinesischen Totalitarismus, weil er alt wird und sich mit Gewalt kontrollieren muss, um noch rumzuhüpfen wie immer. Umgekehrt gibt es sehr viele Einflüsse, die uns zu einem gemeinsamen Organismus gleichschalten, beim Wetter fühlen wir uns ähnlich, im Frühling waren wir alle in Aufbruchsstimmung, im Sommer und Herbst hamsterten wir für den Winter, im Winter kommt dann wohl so was wie Winterschlaf, kann aber auch eine Zeit werden, in der wir uns hungrig und von den Wölfen gehetzt fühlen. Nachrichten eichen uns, Gene eichen uns, Symbole eichen uns, Macht hypnotisiert uns und lässt uns auf die Knie fallen, weswegen ein Putin auch mehr Fans hat, als ein arbeitsloser Säufer, der Frau und Kinder verprügelt, Katzen tritt, alles klaut, was nicht niet- und nagelfest ist und alte Frauen im Park ausraubt, auch wenn die Persönlichkeit identisch ist. Wir sind einfach keine Individuen. Eher so was wie die Borg oder Insekten-Aliens mit ihrer Königin, die Vampire und Renfields, die alle Dracula hörig sind, Körperteile, die sich einem Hirn unterordnen, Motten, die sich um eine Kerze sammeln, Planeten, die von Sonnen angezogen werden, Schweine um den Futtertrog. Unser Dracula ist für uns ein so selbstverständlicher Teil der Welt, dass wir ihn nur bei Anderen bemerken. Ob der jetzt Putin heißt, Gott, oder völlig zu einer Abstraktion namens Ideologie mutiert, er ist immer da und lenkt unser Denken. Narrative, Dogmen, der ganze zu Eis erstarrte Teil des Hirns, der nur noch eine Aufzeichnung ist, das Rückgrat des Denkens, die Futter-Pipelines, um die sich alles gruppieren muss, das noch flüssig ist, aber auch essen muss – im Aufbau ist es sehr einfach. Doch wenn man sehr viel davon verschaltet, wird es schnell kompliziert.

    Man merkt aber den hierarchischen Aufbau. Der Algorithmus „gehen“ kontrolliert erst mal die Bewegung der Beine, eins nach dem anderen. Dann kommen die ganzen Kontroll- und Korrekturmechanismen, die bewirken, dass man nicht über den Teppich stolpert oder die Treppe runterfällt. Die Aufgabe „gehe zur Tür“ ist bereits ein hochkomplexes Konstrukt, doch die Grundbausteine sind und bleiben einfach.

    Ich habe früher oft geträumt, ich hätte telekinetische Fähigkeiten. Vielleicht gibt es einen Teil des Hirns, der tatsächlich nicht weiß, dass da eine Hand ist, die Dinge bewegt, die einfach nur den Befehl aussendet und das Feedback erhält, dass es richtig gelaufen ist, gut gemacht, hier hast du einen Keks. Ich finde so was interessant, denn wenn ich solche Module habe, kann ich mir KI-Hirne beliebig zusammenstecken, konfigurieren, wie jeden PC. Und Programmiersprachen reflektieren diese Bauweise bereits. Schließlich müssen Menschen und Computer in der gleichen Welt überleben, funktionierende Lösungen, die sie finden können, sind begrenzt.

    Auch Naturgesetze füttern us, wenn wir uns ihren Dauerschleifen fügen, auf diese Weise wird alles zu ihrem Echo, ihrem Werkzeug, ihrem Verstärker. Das physische Universum funktioniert genau wie ein Hirn. Anfangs hat es mich überrascht. Nach längerem Nachdenken fand ich diese Überraschung doch recht erstaunlich. Dass alles im Universum nach dem gleichen Schema F funktioniert, ist wohl viel zu selbstverständlich, um bewusst wahrgenommen zu werden. Die wahren Götter, die wahren Draculas sind diejenigen, die immer und überall und jederzeit zu sehen sind, sodass wir sie gar nicht bemerken.

    Was sagt mir das? Maschinen in allen Ehren, doch ich brauche keine, um in meinen eigenen Kopf zu schauen. Sie helfen. Aber ich habe genug Argusaugen im Kopf, um dem, was sie zeigen, mehr Schärfe zu verleihen.

  4. @ KRichard 24.09.2022, 05:16 Uhr

    Teilweise sehe ich es wie Sie. Es ist letztlich „so ähnlich“ wie die Informationsverarbeitung in der Elektronik.

    Der Unterschied ist, die Techniker wissen genau um die Details der Örtlichkeit, der „Zeitschlitze“, der Zuordnung und der Kodierung der Signale Bescheid, haben das System ja selber konstruiert und beschrieben.

    Laut den Konzepten von C.v.d. Malsburg und W. Singer gibt es auch im Gehirn dieses „dynamische Bindungsproblem“.

    Nur entstehen diese „Zuordnungen“ im Gehirn weitgehend individuell und sind extrem komplex. Man weiß sozusagen nicht, welche Signale an welchen der „Milliarden von Orten“ im Gehirn in bestimmten Zeitschlitzen „zusammen gehören“?

    Ich meine zwar, es würde reichen, die Signale sozusagen an „Bewusstseinsebenen“ (Zwischen)schichten (zwischen Hirnorganen) abzulesen. Ist aber trotzdem nicht einfach. (Außer an der Netzhaut, da kann man die Bilder die eine Versuchsperson „sieht“, direkt optisch mitlesen).

  5. P.S. GWAS

    Der Artikel war schon lang und die Argumente meiner Meinung nach deutlich.

    Aber was ich an der neuen Redeweise von den “gehirnweiten Assoziationsstudien” (GWAS) am absurdesten finde ist, dass die genomweiten Assozationsstudien schon seit vielen Jahren für Psychiatrie und Psychologie ebenfalls so gut wie nichts bringen.

    Wenn ein Forschungszweig in einer Krise auf ein Modell umschwingt, das eigentlich schon widerlegt ist – dann ist doch der finale Crash vorprogrammiert, oder nicht?

  6. P.S. Individuelles Gehirn

    Eickhoff spricht es in der Fernsehsendung (2020) kurz an, dass man mit den üblichen statistischen Methoden vor allem das herauspickt, was den Versuchspersonen gemeinsam ist.

    Es ist aber eine unbewiesene Behauptung, dass unsere biologisch unterschiedlichen Gehirne psychologische Prozesse auf dieselbe Weise verarbeiten; beim Beispiel der Sprache weiß man sogar, dass dem nicht so ist (Spezialisierung linke/rechte Gehirnhälfte).

    Ich wollte 2011/2012, als ich noch näher an der Hirnforschung war, in Zusammenarbeit mit führenden Neurowissenschaftlern mehr über die inter-individuellen Unterschiede zwischen den Menschen herausfinden. Die Projekte wurden von der Niederländischen Forschungsorganisation nicht gefördert. Hinterher stellte sich heraus, dass die beteiligten Wissenschaftler und die Organisation dabei die Vergaberegeln und Gesetze gebrochen hatten. Die Ablehnung ließ sich nie plausibel rechtfertigen.

    Das Leben geht weiter.

  7. @Elektroniker
    Mit fMRTs kann man sehr gut erkennen, wo sich Veränderungen im Gehirn ereignen – aber kann nicht verstehen, was dabei passiert.

    Ihre Idee – Gedanken an Zwischenschichten abzulesen – funktioniert leider nicht, da Gedanken gar keine zusammenhängenden Aktivitäten sind. DENKEN funktioniert per Mustervergleich – und ein erlebter Zusammenhang ist daher nur eine Illusion die sich aus der raschen Abfolge(Reaktivieren) von Aktivitäten ergibt.

    Bei NTEs kann man bewusst erleben -Schritt-für-Schritt – wie das Gehirn einen einzelnen Reiz systematisch und strukturiert verarbeitet. Dabei ist deutlich erkennbar, dass dabei Erlebnisse ab dem 5. Schwangerschaftsmonat in der gleichen Reihenfolge erinnert werden, wie sich die physikalischen Sinne entwickeln: Tastsinn/Hautkontakt > Hören > Sehsinn > Geburt(indirekt) > …
    (Quelle: kostenfreie PDF per Google-suche [Kinseher NDERF denken_nte])

    NTEs sind/wären daher ein MISSING LINK für die Gehirnforschung – aber leider werden NTEs von der Kognitionswissenschaft ignoriert und der Esoterik überlassen.

    Ein Beispiel:
    Ich habe im letzten Jahr drei Forschungsprojekte gefunden (D,CH,UK), wo die neuronalen Grundlagen der ´infantilen Amnesie´ mit Tierversuchen(!) erforscht werden sollen – Gesamtfördersumme 5,7 Mio. Euro.
    Sinnlose Tierversuche sind als Tierquälerei zu betrachten!
    Bei NTEs ist deutlich erkennbar, dass wir uns LEBENSLANG an Erlebnisse ab dem 5. Schwangerschaftsmonat bewusst erinnern – d.h. die Idee ´infantile Amnesie´ ist damit fragwürdig.

    (NTE kann ich nicht als Wort ausschreiben, da sonst der Beitrag gelöscht wird)

  8. @ Stephan Schleim 24.09.2022, 09:37 Uhr

    Die Spezialisierung linke/rechte Gehirnhälfte scheint zwar irgendwie „spektakulär“, aber „die Algorithmen“ der Verarbeitung müssen sich deswegen nicht grundlegend unterscheiden.

    Es scheint eine Art von „komplementärer Prozessortechnik“ zur Realisierung der Sprachfunktionen zweckmäßig. (2 Ohren können „Richtungshören“). Techniker würden tatsächlich eine „Normung“ treffen, wie man sich eben auf einen einheitlichen Links/Rechtsverkehr festlegen musste.

    Bemerkenswert finde ich die immer wieder gleichen Neuronen Funktionen. Das scheint so ähnlich, wie man früher z.B. elektronische Schaltungen nach Zweckmäßigkeit z.B. nur als NOR, oder als NAND Gatter realisiert hat.

  9. @ KRichard 24.09.2022, 10:18 Uhr

    „Gedanken“ werden im Gehirn als „Muster“, technisch gesehen als elektrische Impulsfolgen, im neuronalen Netz „abgebildet“.

    Das scheint auch Ihr Standpunkt, so weit ich das beurteilen kann.

    Die (örtlich/zeitlichen) Impulsfolgen können in z.B. 3 dimensionale mathematischen Strukturen übergeführt und nach Belieben analysiert und ausgewertet werden.

    Z.B. gab es in einer deutschen Klinik einen Versuch, bei dem einen gelähmten Patienten Signale abgenommen, in einem Prozessor ausgewertet und unterhalb der Unterbrechungsstelle wieder zugeführt wurden, so dass er im Keller der Klinik auf einem 3 Rad herumfahren konnte.

    Bei Kehlkopfkrebs gib es künstliche Sprache. Da weiß man genau wo die „passenden Signale“ anfallen. Vermutlich fallen Ergebnisse „interner neuronaler Berechnungen“ an (auch gekrümmten) flächigen Strukturen an, was auf die Systemeigenschaften Einfluss nehmen dürfte. .

  10. @Elektroniker
    @Schleim hat im Blogartikel auf massive Probleme im Zusammenhang mit der Aussage von fMRT-Messungen hingewiesen.

    Bei NTEs kann man als bewusste Wahrnehmung erleben, wie das Gehirn einen einzelnen Reiz verarbeitet. Deutlich ist dabei erkennbar, dass dabei mit voneinander unabhängigen Informationen (Mustern) gearbeitet wird – die nicht in dreidimensionale Strukturen überführt werden können (Weil eine Information nichts mit der nächsten verarbeiteten Information zu tun haben muss.)

    Es ist ein Fehler, wenn man trotz bekannter Interpretationsfehler von fMRTs nicht bereit ist, andere mögliche Ansätze zum Verständnis unseres Gehirns in Diskussionen einzubeziehen.

    Wenn man Signale von einem Nerv misst und dieses Signal nach einer Unterbrechungsstelle wieder in eine Nervenleitung einspeist – dann hat dies nichts mit Denkvorgängen zu tun.

    Ein Tipp zum Lesen (Ein Interview mit Prof. Nick Chater, Autor von “The Mind is flat – The Illusion of Mental Depth and the Improvised Mind”:
    http://www.geo.de/wissen/gesundheit/22098-rtkl-psychologie-es-gibt-keinen-hinweis-dass-ein-unterbewusstsein-existiert

  11. Das Problem von Neurowissenschaft und Philosophie des Geistes ist, dass man Kategorien aus verschiedenen einzelwissenschaftlichen Perspektiven addiert. Es ist so, als wenn man Äpfel mit Birnen addiert. Man hat ein (physiologisches) Hirn im Scanner und will nun Gedanken (kein physiololgischer Begriff) hinzufügen. Wie soll das gehen? Öffnet man ein Gehirn, findet man dort keine Gedanken. Die ganzen Diskussionen sind eine einzige babylonische Sprachverwirrung.
    Bewusstsein, und damit Denken und Empfinden, also Gedanken, sind Ergebnis von Veränderungen des (physischen) Gehirns und umgekehrt. Alles andere ist Dualismus. Um diese ‘Gedanken’ lesen zu können, bräuchte es den Code, mit dem der Mensch bzw. das Individuum diesen physischen Prozeß codiert. Den kennen wir aber nicht. Um hier statistische Korrelationen herzustellen, reichen auch Tausende Versuchspersonen nicht aus. Und dann hätte man immer noch nicht inhaltliche Gedanken, sondern nur statistische Korrelate.
    Da ist eine psychologische Beschreibung des Denkens weitaus sinnvoller.
    Solange man nicht eine methodologische Grundlage findet, auf der man das Gehirn interdisziplinär erfoschen kann, beschränken sich alle Aussagen auf Teilaspekte oder bleiben beliebige philosophische Spekulationen.
    Meine Idee: wir brauchen eine Konstruktortheorie (David Deutsch) für die Geisteswissenschaften.

  12. Negative Folgen von z.B. Frühgeburt, Depression, Posttraumatische Belastungsstörung, Burn-Out, Demenz – beeinträchtigen die Lebensqualität vieler Menschen und führen zu erheblichen Kosten/Schäden für Krankenkassen und Gesellschaft
    Diese Woche haben wir vom 16.-25.9.2022 in Deutschland die ´Woche der Demenz´; am 21.9. war der Welt-Alzheimertag.

    Es gibt also viele gute Gründe, die Methoden/Aussagen der Gehirnforschung zu hinterfragen

  13. @Hauptartikel

    Da fragt man sich, wer sich noch für die Wirklichkeit interessiert. Kann das denn sein, dass die meisten Forscher einfach fMRT-Gelder auf den Kopf hauen wollen, während dann die Praktiker sich auf Medikamentenumsatz konzentrieren.

    Der Mensch, der ist dann wohl dem Experten egal, schließlich ist er selber Schuld, dass er so unverständlich ist. Wo der Experte ja nun wirklich nichts für kann.

    Da kann ich auch nur @Maier zustimmen: Wir brauchen ein komplettes Konnektom, dass wir originalgetreu jeden einzelnen Nervenzellenimpuls nachvollziehen können, und müssen diese Gesamtheit dann auch noch überblicken und verstehen. Wobei ersteres unmöglich ist, weil auch in 50 Jahren die Computer dafür noch viel zu schwach sein werden, und zweites auch nicht funktionieren kann, weil die Wirklichkeit zu kryptisch ist, um dann auch noch verstanden zu werden.

    Es geht also gar nicht.

    Freuen wir uns des Lebens, und arbeiten mit uns und unseren Lieben. Und wenn wir Geisteswelten miterleben, dann tun wir das doch einfach. Und wenn wir uns zusammentun müssen, um z.B. das Klimaproblem oder das Autokratenproblem zu lösen, dann machen wir das eben.

    Mit psychischen Problemen wenden wir uns nach Möglichkeit an Menschen, die sich für uns wirklich interessieren, und interessieren wir uns nach Möglichkeit wirklich für Menschen, die psychische Probleme haben. Letztlich sind wir alle Menschen, und müssen gucken, wie wir klarkommen. Zusammen geht meisten mehr als alleine, aber dennoch muss jeder auch für sich klarkommen.

    Wir können schlichtweg nicht einfach zu einem Experten gehen, der unser Problem löst. Weil das alles nicht so einfach ist.

    Es gibt noch die Idee, dass man doch mal die Menschen genauer untersuchen könnte, die mit psychischen Schwierigkeiten wirklich klar kommen. Das hört sich wegweisend an, finde ich. Wenn der eine Idiot nur auf dem anderen herumhackt, dann kommt keiner vorwärts. Dass die Geschäfte laufen, heißt eben noch lange nicht, dass es auch hilfreich ist.

  14. @Jeckenburger: Konnektom?

    Wirklich nur ein Konnetkom? Oder nicht vielleicht acht Milliarden?

    Man sollte erst einmal formulieren, was die Frage überhaupt ist (das Explanandum). Dann dürfte man in den meisten Fällen von selbst feststellen, dass dafür gar kein Hirnscanner nötig ist.

  15. @ KRichard 24.09.2022, 14:27 Uhr

    Es geht bei meinen Beispielen um die reale Messungen elektrischer Signale aus dem neuronalen Netz an ausgesuchten sehr zahlreichen und zugänglichen „Messpunkten“ (Matrix) um z.B. sprachlichen Output zu generieren wenn die „Sprechwerkzeuge“ defekt sind.

    In kurzen Zeitabständen werden die jeweiligen Variablen der jeweiligen “Matrix” ermittelt (mathematische 3 dimensionale Musterabbildung), ausgewertet und in mehr oder weniger natürliche Sprache umgesetzt. FMRT Methoden sind hier nicht erforderlich.

    Konzepte der Musterverarbeitung, auch dass im Gehirn nur Stichproben von Mustern verarbeitet werden, sind bekannt, wie auch dass es „Wahrnehmungsartefakte“ gibt, z.B. „unmögliche Körper“.

    Technische Systeme mit denen man die Informationsverarbeitung im Gehirn „nachahmen“ möchte, beruhen häufig auf „Musterverarbeitung“. Alles fast schon ein „alter Hut“.

  16. Die Gedanken sind frei, wer kann sie erraten….
    Was für ein Glück, dass das immer noch gilt.

  17. Man kann den Zustand in der Neuroforschung evtl. mit dem in der Teilchenphysik vergleichen. Wir stochern im dunkel bzgl. der Natur dunkler Materie. Warum es zivilisatorisch und wissenschaftlich nicht sinnvoll ist aber für 100 Mrd. den nächsten noch größeren Beschleuniger zu bauen hat Sabine Hossenfelder mit lesenwerten Büchern dargelegt.

    Der Ansatz der fMRT scheint mir mit Kanonen auf Spatzen schiessen, die räumliche und zeitliche Auflösung ist einfach erbärmlich. Kein Wunder dass man dann aut “Äther” ähnliche Hypothesen wie die Physik im 20 Jhdt. kommt.

    Wer das menschliche Gehirn verstehen will, muss einen Ansatz im Einklang und unter Perspektive der evolutionären Erkenntnistheorie und der Neuropathologie wählen. Wie enstand dieses System Schritt für Schritt und wann und wodurch verliert es seine Funktionalität. Sich in Echtzeit das System mit fMRT ansehen ist wie ein Physiker der verzweifelt versucht in einen Festkörper bei der Supraleitung zu sehen. Und das Problem ist immer noch nicht gelöst nach einem halben Jhdt. obwohl deutlich einfacher von der Komplexität und besser messbar.

    Es ist eben ein reiner Hype, die Hirnforschung war davor stumpf und ist es immer noch, auch wenn ein Scanner 10 Mio kostet.

    Vor allem Savants oder Hirngeschädigte sind sehr interessante Studienfälle, leider oft Unikate. Gerade diese lassen aber darauf schliessen dass Hirngrundfunktionen hochgradig verlagerbar und plastisch sind:

    https://www.edge.org/conversation/vilayanur_ramachandran-self-awareness-the-last-frontier

    Das Machine Learning Algorithmen mittlerweile binnen weniger Stunden Training die besten Go oder Schach Spieler schlagen ist ein weiterer Hinweis, dass die Architektur der neuronalen Netze zum großten Teil allein die Musik macht. Sehen wir diese Architektur den in irgendeiner Weise mit fMRT? Dann wäre deren Nützlichkeit beantwortet.

  18. @M. Kuhn: Reduktion

    Aber auch bei Menschen mit besonderen Begabungen wissen wir das aufgrund ihres Verhaltens und nicht, weil wir ihr Gehirn studiert hätten.

    Es geht mir darum nicht so sehr um die Parameter der MRT, sondern die Grundlage des Ansatzes: Wenn wir wissen wollen, was ein Computerprogramm macht, schauen wir auf Input und Output und, sofern verfügbar, den Quellcode (Algorithmus). Die Milliarden(?) Transistoren oder gar zahllosen Atome zu untersuchen, wäre Zeitverschwendung – auch mit einem Superduperscanner.

  19. @ Wolfgang Stegemann 24.09.2022, 19:19 Uhr

    Bei den „Sprechprothesen“ werden die Signale nicht direkt aus dem neuronalen Netz abgeleitet, sondern aus vorhandenen (unverständlichen) „Restschwingungen“ gewonnen und z.B. mittels KI (Musterverarbeitung) elektronisch „umkodiert“, so dass eine halbwegs natürliche Stimme entsteht (TU Graz).

    Beim „Gedankenlesen“ käme das Problem hinzu, dass jeweils geeignete „Zugangspunkte“ kaum zugänglich sind, vor allem aber eine geeignete „Kombination von Zugangspunkten“ wegen der Komplexität praktisch nicht gefunden werden kann.

    Außer man könnte die Komplexität stark reduzieren, wenn (Zwischen)Ergebnisse „des Bewusstsein“ tatsächlich an „flächigen Schichten“ (“Hirnkino”) auftreten, wie ich es vermute.

  20. @ Stephan Schleim 24.09.2022, 20:35 Uhr

    Sie haben es perfekt auf dem Punkt gebracht!!!!

  21. @Schleim

    Ich denke nicht, dass wir das sehr verschieden sehen, aber sprachlich verschieden beschreiben evtl. als Geistes-/Naturwissenschaftler.

    Eine moderne CPU mit Milliarden Transistoren ist absolut deterministisch und sie werden bei der Fertigung auch mit Elektronenmikroskopen auf Fehler inspiziert und bis ins letzte Detail entworfen (die lithographischen Masken, nicht die parallel produzierten einzelnen CPUs). Zeitverschwendung ist das also nicht industriell und die Chiphersteller lassen es sich Milliarden kosten, dass die CPU auf den einzelnen Transistor möglichst perfekt gefertigt werden und es ist technisch auch machbar. Ist eine Chipfabrik aber nicht zu 90% ausgelastet, macht sie Verluste ob der Investitionskosten und laufenden Kosten.

    Wir würden aber als Historiker die so eine CPU zum ersten mal sehen nach Ausgrabung diese nur verstehen können, wenn wir uns unabhängig vom Objekt ein mathematisches Modell bilden, wie Informationen verarbeitet werden darin räumlich und zeitlich. Oder eine komplexere bauen die sie dechiffriert (Enigma im 2 WK)

    Diese Architektur oder Modellbildung wird aber bei fMRT und allgemein in der Hirnforschung oft einfach ausgeblendet, weil schwierig. Und sicherlich wäre es sinnvoller bei einfacheren Gehirnen anzufangen als dem menschlichen. Es ist bekannt, dass manche Tiere den Spiegeltest VOR menschlichen Säuglingen bestehen und Bewusstsein früher in der Entwicklung aufweisen.

    Physik ist Reduktionismus. Verhalten ist eine Interpretation oder technische Ausnutzung der möglichen physikalischen Dynamik. Der gleiche Output kann in Abhängigkeit vom Kontext verschieden interpretiert werden. Die Unterscheidung und Grenze zu Emergenz hat mir bisher noch niemand klar definiert. Ein Mensch/Tier kann offensiv agieren um anzugreifen oder einzuschüchtern/sich verteidigen.

    Will sagen, der Reduktionismus ist nicht das Problem, denn eine fMRT mit genügend raumzeitlicher Auflösung würde ja helfen so wie ein Elektronenmikroskop in der Chipprüfung und -fertigung hilft. Wenn Sie den Link oben studieren werden sie sehen, dass Qualia das viel schwerere Problem ist als Bewusstsein, letzteres lässt sich vermutlich reduktionistisch zurückführen. Seltsame Schleifen, optische Täuschungen, rot/grün Farbblindheit,… sind aber reduktionistisch nicht zugänglich.

    Und auch im Link ist ja dargestellt, dass es oft neuropathologisch doch erhebliche bekannte anatomische Unterschiede bei Savants/Unfallgeschädigten gibt. Trennung der Hirnhälften oder Fehlen bestimmter Bereiche. Fälle bei denen Menschen plötzlich sich selbst Klavier binnen Tagen beibrachten nach Blitzshclägen sind mir auch bekannt. Das sind also schon reduktionistische Eingriffe, wenn auch auf größerer Skala. Und Sie müssen nicht die Atome bis zum Kern reduktionistisch betrachten, wenn Sie eine CPU bauen, sondern als funktionale Einheiten. Reduktionismus ist eine exp. Methode, kein Paradigma. Das sehen viele Geisteswiss. m.M. leider zu theoretisch und nicht praktisch.

    Das Verhalten von anderen können wir nur als besonders erkennen, wenn wir nach Metzinger ein Selbstmodell haben von dem dieses abweicht, auch wenn nicht mathematisch. Strukturalismus ist aber ohne Reduktionismus nicht möglich. Ihre sprachliche Abgrenzung dazu find ich deswegen praktisch wenig hilfreich, da Sie sie experimentell nicht festmachen können. Jede Form von Beobachtung ist erstmal reduktionistisch. Funktionalität/Verhalten ist eine emergente kontextabhängige Interpretation. Ein Computer der nur absolute Zufallszahlen aussondert ist technisch perfekt aber der Sinn/Funktion ergibt sich wohl nur für Menschen die damit etwas anfangen können und es nicht für eine vermeintliche Entropiemaschine halten (lach).

    Aber ja, der reduktionistische Ansatz beim Menschenhirn ist eben zu dieser Zeit der völlig falsche. Aber Sie wissen ja wie Wissenschaft ist, Hypes, publish or perish, wenn du nur ein fMRT hast sieht alles wie ein Nagel aus… Das ist eine Sackgasse und Geldgrab wie in der Teilchenphysik…

    Dass sie aber einen Algorithmus ohne Transistorenkenntnis wirklich verstehen können wollen, leuchtet mir garnicht ein. Es wäre eben unheimlich viel Zeit nötig, und das ist wiederum das Argument beim Menschenhirn. Der Ansatz ist künstlich wie bei GO einen besseren Spieler zu bauen als den mit Menschenhirn. Basierend auf math. Modellen die man z.B. aus Hirnshcnitten mit dem Elektronenmikroskop gesammelt hat. Das ist ja die andere Methode, ganze Hirne zu kartographieren. Aber das ist ja z. T. auch sinnvoll um z.B. zu sehen wie breitet sich Alzheimer im Hirn aus.

    Dem heiligen Gral, der Qualia, dem Leib-Seele Dualismus, kommen wir so aber vermutlich nie auf die Schliche. Ich denke hier liegt wenn überhaupt der Ansatz eher in der Schlafforschung, Evolutionsbiologie, Neuropathologie, nicht im Reduktionismus. Aber evolutionsbiologisch triff das Farbsehen irgendwann auf, also muss es einen physikalistischen Grund geben…Supervenienz etc. finde ich da etwas esoterische Ansätze

  22. @ Michael Kuhn 24.09.2022, 22:10 Uhr

    Angeblich vermuteten Physiker, Chemiker die in ehemaligen Forschungsstätten der Nazis gearbeitet haben, dass das „Empfindungsphänomen“ im Zusammenhang mit „besonderen Bewegungsmustern“ von Valenzelektronen bei bestimmten Atom/Molekülverbänden auftritt, sofern ein geeigneter „Anstoß“ erfolgt.

    Wie würden sie dagegen argumentieren?

  23. @M. Kuhn: Determinismus & Emergenz

    Erst einmal zu den Begriffen:

    1) Ich würde sagen, dass der Prozessor zwar im Design, nicht aber in der Praxis deterministisch (gleicher Input, gleicher Output) ist, da es sich um kein geschlossenes System handelt. Der Strom könnte ausfallen, kosmische Strahlung könnte den Zustand verändern usw. usf.

    Das klingt vielleicht erst einmal irrelevant, doch entweder räumen wir ein, dass der Prozessor nicht zu 100% deterministisch ist, oder wir schließen den Zustand des gesamten Universums ein; im letzteren Fall wissen wir aber auch nicht, ob das (in)deterministisch ist. Das nur am Rande. Ist für das Thema hier nicht so relevant.

    Aus demselben Grund kann man das reale Gehirn auch nicht als deterministisches System beschreiben: Es ist kein bloßer Eingabe-Ausgabe-Automat, sondern wird sozusagen permanent umprogrammiert.

    2) Mit Emergenz meint man in einer Teil-Ganze-Relation (Fachbegriff: Mereologie) meistens, dass dem Ganzen Eigenschaften zukommen, die keines seiner Teile besitzt. Dann unterscheidet man “scheinbare” und “echte” Emergenz: Im ersten Fall kann man die Makro-Eigenschaft aus den Mikro-Eigenschaften (z.B. den Teilchen und ihren Relationen zueinander) herleiten; im zweiten Fall, echter Emergenz, ist das prinzipiell unmöglich. Dann wäre auch der Reduktionismus widerlegt.

    Dazu kommt noch die Frage, ob es sein kann, dass Eigenschaften höherer Ordnung kausal Relevant in der Welt sein können – in einem Sinne, der über die kausale Relevanz der Mikro-Eigenschaft hinausgeht (“downward causation”).

    In der Philosophie des Geistes hat man später eher den genauer definierten Supervenienzbegriff verwendet. So oder so denkt man sich psychische Prozesse als emergente oder superveniente Prozesse “über” den physikalischen Prozessen.

  24. @Elektroniker

    Physiker wie Penrose schliessen Quantenphänomene im Hirn eher aus m.W.. Da es aber z.B. Tiere gibt die einen magnetischen Sinn bzw. magnetische Sinneszellen zur Orientierung besitzen, würde ich meinen das Rennen ist noch ziemlich offen…

    Da Qualia offensichtlich fehleranfällig sind (rot/grün Blindheit), bin ich Ansätzen wie Supervenienz sehr skeptisch gegenüber. Die Erklärung ist nach Ockham meist so einfach wie möglich und Evolution und Genetik scheint mir eine sehr viel einfachere Annahme als Supervenienz bzw. einer Dimension/Entität abeits des Physikalismus für solche Anomalien der Qualia. Das eigentlich spannende sind doch immer diese Grenzfälle oder Anomalien in Systemen die uns wiss. voran bringen oder technisch limitieren. Ohne den Tunneleffekt in Sternen gäbe es überhaupt keinen schweren Elemente und diese Diskussion würde nicht stattfinden. Den Tunneleffekt direkt beobachten können wir aber nicht, auch das ist nur ein Input/Output Experiment. Aber modellieren können wir ihn sehr genau mittlerweile. Erkenntnistheo. ist der Tunneleffekt wohl eine Art Verschränkung von Reduktionismus und Emergenz, tritt er doch nur in Systemen auf, da ist unsere Sprache einfach zu beschränkt.

    Ich muss da ja nicht dagegen argumentieren, wie gesagt eine reduktionistischer Ansatz schliesst nicht aus emergente Funktionen besser oder überhaupt zu verstehen. Eine CPU die defekt ist kann man ziemlich lange versuchen zu entschlüsseln genauso wie einen wahnsinnigen schizophrenen Menschen im Verhalten zu analysieren. Emergent funktional sind die nur im richtigen Kontext des Betrachters.

    Das mit den Valenzelektronen rührt wohl von versch. Wellenlängen/Farben her, Photoeffekt. Die Photosynthese ist ja auch noch so eine offene Frage, wie funktioniert diese genau auf Quantenmolekularebene und kann man diese künstlich nachbauen?

    Aber generell denke ich, dass die spukhafte Fernwirkung wirklich spukhafter und noch unverständlicher ist und bleibt als Qualia, die halte ich für recht irdisch und evolutionär.

  25. @Schleim

    Eine CPU ist funktional determinstisch auch wenn es Zufälle darin gibt (defekte einzelne Transistoren bei Fertigung die durch Redundanz beseitigt wird), das ist sozusagen der technische Witz beim Design.

    Können Sie mir drei Bsp. echter Emergenz nennen? Denn es hört sich für mich etwas so an, als ob man Emergenz nur da definiert, wo man es reduktionistisch und physikalistisch noch nicht versteht. Bsp. aus der Physik würden mich am meisten interessieren. Da würde ich aber nur schwache annehmen. Gewisse systemische Effekte wie der Tunneleffekt können wie geschildert auch emergente Funktionen in Sternen erlauben, aber die Physik ist ja eine systemische Betrachtungsdisziplin, die gerade durch den Reduktionismus solche Systemeffekte modelliert und nachweist. Da beisst sich die Katze also etwsa in den Schwanz m.M. und ich finde es eher gefährlich zu glauben, dass man den Reduktionismus widerlegen kann aufgrund sprachlicher Unschärfe.

  26. @Kuhn
    Ihre Vermutung, dass man dem Leib-Seele-Dualismus (Körper-Geist-Dualismus) nie auf die Spur kommen wird, ist richtig.
    Der Grund dafür ist einfach – es gibt ihn nicht.

    Die Philosophen haben bei diesem Thema dem Leib/Körper etwas erfundenes zugeordnet (Seele/Geist) was es real gar nicht gibt. Und aus diesem Grund ist diese Fragestellung nicht lösbar: da sie ein Unsinn ist.

    Die ganzen Diskussionen zum Leib-Seele-/Körper-Geist-Dualismus sind daher sinnlos.

    Dieses Beispiel zeigt ein Problem von Wissenschaft/Philosophie auf: manchmal wird mit erfundenen Begriffen gearbeitet – ohne diese zu hinterfragen.

  27. @M. Kuhn: Emergenz#2

    Noch zum Determinismus offener Systeme: Im Prinzip geben Sie mir Recht, bloß sagen Sie es nicht. Wenn hinreichend viele Transistoren defekt sind oder gestört werden, kann das durch redundantes Design nicht mehr aufgefangen werden. Näherungsweisen Determinismus gibt es meiner Meinung nach nur unter Laborbedingungen, wenn es einem gelingt, äußere Einflüsse hinreichend abzuschirmen.

    Weil Sie zur Emergenz nachfragen:

    Reflexionseigenschaften beispielsweise; die Viskosität einer Substanz; und wo wir bei Substanzen sind: die Glätte von Eis. Das mögen unproblematische Fälle, weil “scheinbare” Emergenz sein. Aber tatsächlich gibt es bis heute nur Modelle und Simulationen, mit denen man z.B. die Glätte von Eis zu erklären versucht.

    Denken Sie zur “echten” Emergenz an so etwas wie Farbe: Unsere Farbwahrnehmung liegt nicht nur an den Oberflächeneigenschaften von Flächen (die wiederum keine Eigenschaften von Atomen sind), sondern auch an den Eigenschaften von Lichtwellen einschließlich dem Kontext, in dem sie auftreten. (Die klassischen Wahrnehmungstäuschungen kennen Sie hoffentlich.)

    Beim Bewusstsein ist es eine offene und heiß diskutierte Frage: Es ist eine Eigenschaft nicht einzelner Zellen – sondern vielleicht von Netzwerken von Zellen? Oder nur des ganzen Organisus? Und lassen sich die Eigenschaften aus den Eigenschaften der Teile herleiten? Bisher nicht einmal ansatzweise.

  28. @Elektroniker, M. Kuhn: Penrose…

    …vertritt meines Wissens doch seit den späten 1980ern konsistent den Standpunkt (The Emperor’s New Mind), die Erklärung des Bewusstseins übersteige die Möglichkeit der vorhandenen Mathematik.

    Das passt doch zu meiner Schlussfolgerung, dass man Bewusstsein vielleicht einmal naturwissenschaftlich wird erklären können – dass das dann aber eine andere Naturwissenschaft sein muss, als was wir heute kennen.

  29. @M. Kuhn: Bye, bye, Determinismus!

    Oder um das noch einmal etwas klarer zu formulieren:

    Determinismus erfordert, dass bei gleichen Startbedingungen derselbe Zielzustand erreicht wird (siehe z.B. auch die Definition eines deterministischen Algorithmus aus der Informatik).

    Ein offenes System kann darum prinzipiell nur unter sonst gleichen Bedingungen (ceteris paribus) deterministisch sein; in der Praxis sind die Bedingungen aber nicht gleich (was wir hier “Störeinflüsse” nennen). Darum gibt es in der Praxis keine wirklich deterministischen offenen Systeme, was ja auch unserer Erfahrung entspricht.

    Einzige Ausnahme wäre das Universum als Ganzes, wenn es denn deterministisch ist; und danach sieht es auch nicht aus (z.B. chaotische Systeme überall, die zumindest indeterministisch erscheinen und es vielleicht auch wirklich sind; Quanten-Indeterminiertheit).

    Einigen wir uns darauf? Die Welt (einschließlich unserer Prozessoren) ist für unsere menschlichen Zwecke oft hinreichend deterministisch.

  30. @Kuhn:
    Emergenz kann man sich ganz einfach merken, wenn nämlich das Ganze etwas anderes ist als die Summe seiner Teile.

  31. @Schleim

    Kuhn macht das Angebot,Determinis vs Zufall und Reduktion vs Emergenz zusammen zu ‘fassen’. Ich stehe dem sehr nahe.
    Kuhn spricht die rot-grün-Blindheit an. Damit ist er sehr nah am Komplementärkontrast: ein grüner Punkt auf einem weißen Papier erzeugt einen roten Punkt auf dem Inneren Auge.
    Dieser Ko-ntrast stellt sich für mich als ultimatives Phänomen dar,dass wir diese Wechselwirkung zwar wahrnehmen und denken können,aber nie ‘entschlüsseln’ können. Reproduktion ist nur in uns.

  32. @KRichard:

    Sie haben insofern recht, als es den Dualismus nicht gibt. Es sind aber keine erfundenen Begriffe, sondern sie stammen lediglich aus anderen Wissensbereichen. Leib ist ein physiologischer materieller (Physik) Begriff, “Seele” ist ein – sagen wir mal der Einfachheit halber – psychologischer immaterieller Begriff. Beide passen nicht zusammen und dürfen natürlich nicht addiert werden.

    Warum hat im Übrigen Bewusstsein kausale Kraft? Weil es eine höhere Informationsdichte hat und damit handlungsleitend wird. Man kann sich das in Anlehnung an Eric Hoels kausale Emergenztheorie einfach vorstellen:
    Man nimmt zwei gleichgroße Netze, das eine A mit 100 Knoten, das andere B mit 10 Knoten. Verbindet man jeden Knoten von A mit jedem Knoten von B, sieht man einfach, dass in jedem Knoten von B 10-mal soviele Verbindungen eingehen wie umgekehrt. Es gibt also eine eindeutige ‘Informationsrichtung’ von A nach B. Dieses einfache formale Beispiel zeigt, dass ein so unglaublich differenziertes Organ wie das Gehirn auf den Rest des Organismus (des Subjekts) determinierend wirkt (ohne dabei außer Acht zu lassen, dass umgekehrt alle somatischen Prozesse auf das Gehirn als Regulationsebene konstituierend wirken).
    Sieht man den bewussten und unbewussten Teil des Hirns als ontologische Einheit, sieht man, wie und warum der Placeboeffekt wirkt.

  33. Die Welt ist weder determiniert noch indeterminiert im Sinne von zufällig. Die makroskopische Offenheit des Kosmos und die mikroskopische Diskretheit der Energie sprechen gegen die Determiniertheit. Man kann die Welt als unvollständig determiniert bezeichnen, naturwissenschaftlich determiniert auf mesoskopischen Skalen und in abgeschlossenen Systemen. Eine Erklärung von Ausschnitten der Welt kann deterministisch oder statistisch/probabilistisch sein.

    Zwei einfache Beispiele zum Messproblem: im Fernsehen ist oft zu sehen, dass ein Fahrzeug sich vorwärts bewegt, wogegen die Räder sich aber rückwärts zu bewegen scheinen. Bei periodischen Vorgängen mit diskreten und ununterscheidbaren Zuständen (Räder mit Speichen) kann dieses Phänomen bzw. diese Täuschung auftreten. Nur die kosmische Entropie verhindert hier, dass auch die Zeit rückwärts laufen kann. Bei digitalisierter Musik ist die diskrete Messung und Übertragung der Musik so determiniert und zuverlässig, dass die digitalisierte Musik von der Originalmusik kaum zu unterscheiden ist.

    Selbstverständlich ist die Wahrnehmung jedes Lebewesens auf hinreichende Determiniertheit angewiesen. Andererseits zeigen die Wahrnehmungstäuschungen, dass die Determiniertheit der Wahrnehmungsvorgänge sehr mangelhaft ist. Dafür ist das System einfach zu komplex, bedingt durch die Anzahl der Elemente und deren Vernetzungen. Ein Irrtum ist, dass im Gehirn nur die elektrischen Signale der Neuronen wirksam wären. Vielmehr ist die Gesamtheit der Zellen an der Arbeit beteiligt, mit vielen Rückkopplungen, periodischen Vorgängen und kybernetischen Elementen wie Schalter und Filter.

    Richtig ist, dass unsere Sprache sehr lückenhaft ist hinsichtlich notwendiger Begriffe. Zwischen Phänomen und Erklärung bedarf es der Brückenbegriffe zur schrittweisen Nachvollziehbarkeit der Erklärung. Solche Brückenbegriffe fehlen noch zwischen Gehirn und Geist/Psyche. Die Forschung ist nie zu Ende, ebenso die Kritik.

  34. @Reutlinger: Zufall

    Wir bewegen uns hier vom Thema weg – doch da Sie sich solche Mühe gegeben haben, interessiert mich Ihre Meinung:

    Wovon sonst hängt es ab, ob im Beispiel von Schrödingers Katze (radioaktiver Zerfall), das Tier zum Zeitpunkt t der Messung lebendig ist oder tot (das Atom zerfallen ist oder nicht), wenn nicht vom “Zufall”?

  35. @ Wolfgang Stegemann 25.09.2022, 10:20 Uhr

    Es geht offensichtlich um Hardware, Software, Prozesse die es offensichtlich gibt. Sie „passen“ tatsächlich „irgendwie“ (Kategorien) nicht zusammen und dürfen natürlich nicht „addiert“ werden.

    Genau so ist es und genau deswegen hat man eigene Kategorien festgelegt und man bezeichnet es einfach „Dualismus“. („Trialismus“ wäre genauer, aber über Prozesse hat man sich weniger Gedanken gemacht).

    Für mich scheint es so, als würden sie gleichzeitig argumentieren dass es keinen Dualismus gibt und dass er aber zwingend notwendig ist, weil Sie die unterschiedlichen „Kategorieninhalte“ nicht „addieren“ dürfen…..

  36. @ KRichard 25.09.2022, 05:24 Uhr

    Zitat: Der Grund dafür ist einfach – es gibt ihn nicht.“
    Sie meinten „Geistiges“.

    Mich würde es interessieren, ob Sie diese Aussage derart „strikt“ sehen, wie ehemals Juristen.

    Die haben Verkäufer von Software wegen Betruges „verknackt“, weil die etwas betrügerisch verkauft haben, was es gar nicht gibt, unmöglich geben kann????

    Allerhöchstens der Preis des Datenträgers wäre korrekt, die mit hohem Aufwand von Hunderten Programmierern erzeugte Software wäre wertlos, weil es sie unmöglich geben könne, ein typischer Betrug eben……

  37. @Elektroniker

    Zuse verstand Gates nicht,weil Zuse meinte,die Betriebsanleitung sei Service für die Bedienung…

  38. @Schleim
    Nun, das Wesen des Zufalls ist sicher ein eigenes und weites Thema. Der “Zufall” ist oftmals ein Synonym für Unerkennbarkeit oder Unerklärbarkeit. Das Problem von Schrödingers Katze ist auch für die Physiker noch ungeklärt, ebenso wie der Auslöser beim radioaktiven Zerfall. Die Physiker reden hier nicht vom Zufall, sondern von der Überlagerung von Zuständen, wobei auch das Wesen der Überlagerung noch nicht geklärt ist. Die Katze ist sowohl tot als auch lebendig, erst die Beobachtung beim Öffnen der Kiste bringt die Entscheidung! Ähnlich ist es bei der Nichtlokalität verschränkter Quantenzustände. Experiment und Experimentator bilden ein interagierendes Quantensystem.

    Naturwissenschaft ist abstrahierend, approximierend, aggregierend, generalisierend. Diese sprachlichen Funktionen dienen auch dem Determinismus indeterminierter Phänomene, z.B. für Experimente. Dadurch entstehen Brückenbegriffe auf dem Weg zu Erklärungen.

    Könnte man die Zufälligkeit des radioaktiven Zerfalls erklären, dann gäbe es kein Problem für die Endlagerung radioaktiver Abfälle, man könnte den Zerfall verhindern oder steuern!

  39. @Schleim : Schrödinger II

    Schon klar!

    Trotzdem die Frage warum Katze,nicht Elephant,Rose,TomateAmöbe oder Mensch?

  40. @Elektroniker:

    “Für mich scheint es so, als würden sie gleichzeitig argumentieren dass es keinen Dualismus gibt und dass er aber zwingend notwendig ist, weil Sie die unterschiedlichen „Kategorieninhalte“ nicht „addieren“ dürfen…”

    Da haben Sie mich gründlich missverstanden. Es gibt keinen Dualismus von Körper und Geist in der Realität (oder haben Sie schon mal Geist gefunden, wenn Sie ein Hirn aufgemacht haben?), es gibt den Dualismus dummerweise dann, wenn nämlich Leute Kategoriefehler begehen und Begriffe aus unterschiedlichen Welten miteinander kombinieren.

    Wenn Sie von Seiten der physiologischen Hirnforschung her argumentieren, dann müssen Sie auch dort bleiben und diesen (dubiosen) Begriff Bewusstsein beschreiben als (elektrochemische) Veränderung des Hirns.
    Wenn Sie von der Psychiologie aus argumentieren, können Sie von Psyche sprechen usw. Aber durcheinanderbringen dürfen sie die Begriffe nicht.
    Diese Begriffe neigen oftmals fazu, realen Objektstatus zu erlangen. Dann plötzlich gibt es eine reale Psyche und ein reales Hirn auf derselben Beschreibungsebene, und das ist Quatsch.

  41. @Stegemann
    ” …und dann gibt es eine reale Psyche und ein reales Hirn auf der selben Beschreibungsebene…”

    Eben,wieso nicht?

  42. @Stegemann @Elektroniker
    Es lohnt, sich mit Begriffen und deren Bedeutung bzw. Verwendung genauer zu beschäftigen. z.B. auch mit dem Begriff ´Bewusstsein´

    Bei Untersuchungen von Gehirnfunktionen per fMRT und/oder mit auf das Hirn aufgelegten Messelektroden konnte man registrieren dass beim Lernen bestimmte neuronale Aktivitätsmuster zugeordnet werden können.
    Beim Erinnern sind diese neuronalen Aktivitätsmuster wieder erkennbar.
    Und – Für eine bewusste Wahrnehmung muss nur eine bestimmte Aktivitätsschwelle überschritten werden – was an neuronalen Aktivitäten unterhalb dieser Schwelle ist, bleibt unbewusst.

    D.h. das Erinnern ist nichts anderes als das REAKTIVIEREN von den gleichen neuronalen Zuständen, die beim Lernen aktiv waren. D.h. Erinnern ist ein Wieder-Erleben. Eine bewusste Wahrnehmung reicht uns, ein zusätzliches Extra-Bewusstsein braucht man dabei/dazu nicht.

    Geist, Seele, Bewusstsein sind Begriffe, die gerne und oft verwendet werden – aber wenn man sie hinterfrägt, bleibt nichts greifbares übrig.
    (Das war jetzt ein sehr gemeiner Satz – denn ohne die Ideen ´Geist, Seele, Bewusstsein´ verlieren viele Philosophen ihre Existenzgrundlage.)

  43. @Reutlinger: Zufall

    Wenn es (wichtig: für ein Einzelereignis) wissenschaftlich unmöglich ist, eine Vorhersage über den Ausgang zu treffen, die Welt also 1, 2, 3… Möglichkeiten zulässt, dann ist das Zufall genug.

    Wie dem auch sei: Dass man nicht so reden kann, als sei der Determinismus bewiesen, sollte klar geworden sein.

  44. Meinetwegen auch Mussis Elefant statt Schrödingers Katze. Darauf komm es doch gar nicht an, sondern auf die Verknüpfung eines zufälligen Mikro- mit einem deterministischen Makro-Ereignis.

  45. @kRichard
    Ohne die Idee “Auto” würden viele Autoverkäufer ihre Existenzgrundlage verlieren. Durch Begriffe geht viel Information verloren, andererseits werden mit Begriffen gewisse Vorstellungen und Informationen assoziiert. Das Erstere ist unumgänglich und notwendig, das Letztere ist der Sinn der Begriffe. Mit einem realen Hirn wird ein physisches Gebilde in der Welt assoziiert, das sich als Erscheinung mit den Augen beobachten lässt, der “reale Geist” mit Gedanken dagegen bleibt eine abstrakte Idee in der Vorstellung.

    Das ist der Unterschied der begrifflichen Ebenen, die man nicht vermischen darf. Dazwischen bedarf es der Brückenbegriffe, z.B. Aggregationen wie “Auto”, der von den vielen Einzelteilen abstrahiert, das Wesentliche aber assoziiert und so zur Erklärung hinführt. Begriffe sind Hilfsmittel zur Erklärung, nicht die Erklärung selbst. Die Verdinglichung und Verselbstständigung von Ideen ist ein sehr beliebter Denkfehler. Es ist das Wesen von Ideologien und esoterischen sowie religiösen Lehren.

  46. @ Wolfgang Stegemann 25.09.2022, 12:35 Uhr

    Gegenfrage: Haben Sie schon mal „Software“ gefunden, wenn Sie einen Computer aufgemacht haben?

    Die Software im Computer sorgt für die korrekte Prozesssteuerung im Computer, so wie die DNA für die korrekte Prozesssteuerung der Proteinbildung sorgt.

    Heutzutage zweifelt kaum mehr jemand, dass Information im Zusammenhang mit der DNA relevant ist.

    Es ist aus Gründen der systematischen Erkenntnisgewinnung üblich, einerseits Prozesse mathematisch abstrakt zu „sehen“, aber auch direkte Vergleiche zwischen z.B. Technik und Biologie anzustellen. (Die Abstraktion wäre übrigens auch eine andere Kategorie und demnach in Ihrem Sinne verboten, wird aber gemacht).

    Dadurch kann man z.B. strukturiertes Wissen übertragen und prüfen welche strukturellen Gemeinsamkeiten es gibt. Man kann Übereinstimmungen und Unterschiede herausarbeiten und das Wissen erweitern. Eine völlig etablierte Methode.

  47. @Schleim
    Da stimme ich zu. Oftmals folgt die Vorstellung vom Zufall aus der Unvorhersehbarkeit und diese wiederum aus der Unerkennbarkeit oder unerklärbarkeit von Phänomenen der Welt. Daneben gibt es den mathematisch definierten Zufall. Letztlich wird aber auch der mathematische Zufall wieder durch physikalische Experimente realisiert oder simuliert, z.B. in der Lottotrommel. Auch der computergenerierte Zufall ist nicht wirklich zufällig. Wir werden nie wissen, ob das Universum in seiner Gesamtheit wirklich zufällig ist.

    Diskrete Quanten sind per Definition determiniert, es gibt sie nur ganz oder gar nicht. Was ist aber, wenn ein Messgerät 0,5 Quanten misst? Dann geht die Determiniertheit verloren, das Messgerät muss sich irgendwie entscheiden. Das Messgerät selbst besteht aus ganzen Quanten. Mit einem Metermaß kann man nicht Zentimeter messen (außer mit Redundanz als Trick).

  48. @Elektroniker
    “Software” ist ein typischer Brückenbegriff. Die Software ist auf Platte (oder ROM) und im Hauptspeicher vorhanden und steuert die Prozesse des Computers. So ist allgemein die Assoziation des Begriffs. Es gibt aber keine Software als Ding. Die Software sind die aufgeprägten Strukturen des Plattenspeichers und die elektronischen Zustände des Hauptspeichers. Beim Ausschalten des Computers ist der Hauptspeicher gelöscht. Der Begriff der Software ist aber sehr hilfreich bzw. unentbehrlich in der Kommunikation über Computer, indem er viel Information ersetzt und somit Aufwand erspart, sowie Erklärungen vereinfacht und verständlicher macht.

  49. @Elektroniker:

    Tatsache ist aber, dass das Gehirn nur aus Hardware besteht, oder? Alles andere sind, wie reutlionger schon gesagt hat, Abstraktionen.
    Wenn man den Dualismus nicht will, kann man nur von einer Physis sprechen, ohne Zugabe, und dann muss man in der Lage sein, Phänomene wie Bewusstsein rein physiologisch zu begründen. Ich habe das mit dem Begriff Struktur/Ordnung ontologisch wie operativ versucht.

  50. @ KRichard 25.09.2022, 13:02 Uhr

    Das „Bewusstsein“ ist sozusagen der innere „Überwachungsbildschirm“. Beim Erleben erscheint sozusagen alles in „Echtzeit“ und sehr detailreich am „Bildschirm“. Beim Erinnern, ich sehe die biologischen Vorgänge so wie Sie, werden eben viele im neuronalen Netz gesicherte Muster erneut zur Anzeige am „Bildschirm“ gebracht.

    Ich nehme an, es gibt viele „Bewusstseinskomponenten“, sozusagen „Minibildschirme“ (z.B. die Augen wären 2 davon) und „Messeinrichtungen“, wie auf einer Schaltwarte einer Industrieanlage mit vielen Messeinrichtungen.

    Nicht in alle Vorgänge ist die „Schaltwarte“ eingebunden, vieles geschieht sozusagen „unterbewusst“.

    Das “Bewusstsein”, die „Schaltwarte“, ist mit der „Abschaltung“ des Systems „tot“.

    Die „Seele“ ist die „Software“ (Gene, Meme), die ist (zumindest teilweise) im Netzwerk, besonders auch der Nachkommen „gesichert“.

  51. @ anton reutlinger 25.09.2022, 14:38 Uhr

    Sehe es wie Sie. Aber es wird kaum jemand behaupten Software wäre ein „Ding“.

  52. @Stegemann 25.09. 12:35

    „Wenn Sie von Seiten der physiologischen Hirnforschung her argumentieren, dann müssen Sie auch dort bleiben und diesen (dubiosen) Begriff Bewusstsein beschreiben als (elektrochemische) Veränderung des Hirns.
    Wenn Sie von der Psychiologie aus argumentieren, können Sie von Psyche sprechen usw. Aber durcheinanderbringen dürfen sie die Begriffe nicht.“

    Genau, wir haben hier zwei Sichtweisen: einmal die Innensicht als existierendes Lebewesen, dann die Außensicht, wenn wir das Gehirn von außen untersuchen. Interessant ist hier, wenn man ein EEG machen lässt. Man ist verkabelt, und gleichzeitig kann man beobachten, was die Schreiber machen (früher war das mal alles analog). Man muss zwischendurch die Augen zumachen, und auf Kommando wieder auf machen. Bei dem Vorgang reagiert das EEG ganz deutlich.

    Wir haben also einmal das EEG-Schreib-Ereignis, im Moment des Augenöffnens, und andererseits erleben wir auch von innen, dass die ganze Welt um uns jetzt wieder sichtbar wird.

    Hier haben wir ein einfaches Beispiel, dass wir zwei Perspektiven beschreiben können, auf ein Phänomen, das nur einmal und immer als Ganzes auftritt.

    Dabei haben wir keine Ahnung, wie unsere Innenwelten tatsächlich entstehen, wir können nur feststellen, dass die Evolution einen Weg gefunden hat, diese Innenwelten für sich zu nutzen. Und wir können davon ausgehen, dass auch die Architektur des Gehirns genau so aufgebaut ist, dass Innenwelten existieren können. Ein höheres Lebewesen ohne Innenwelt wäre schlichtweg funktionsuntüchtig.

    Aber ob wir hier tatsächlich geistige Entitäten haben, die auf einer geistigen Wirklichkeit beruhen, die im Kosmos von Anfang an vorhanden ist und an der wir als Lebewesen nur teilnehmen können, dass ist jetzt eine auch interessante Frage. Die führt jetzt natürlich sehr viel weiter, und landet über Spiritualität dann auch beim Thema Religion.

    Dann hätte die Evolution nur gelernt, die ohnehin vorhandene Geisteswelt ins biologische Leben einzubinden, und die Physiologie müsste die Innenwelten nur unterstützen, und gar nicht alleine produzieren. Einerseits eine gewagt These, andererseits verlockend, weil dadurch die Dinge nicht komplizierter, sondern viel einfacher werden.

    Ansonsten ändert das nichts daran, dass man grundsätzlich zwei Möglichkeiten hat, auf psychische Krankheiten einzuwirken. Einmal physiologisch mit Medikamenten, andererseits psychologisch mit Gesprächen. Beides kann funktionieren.

  53. @reutlinger: Zufall, zum Letzen

    Determinismus sollte man nicht mit Vorhersagbarkeit gleichsetzen; das haben wir hier im Laufe der Jahre mehrmals diskutiert und wird in meinem nächsten Buch noch einmal abschließend thematisiert.

    Aber zufälliger als das, dass es für ein Einzelereignis wissenschaftlich prinzipiell unmöglich ist, auch bei Verfügbarkeit aller Parameter, dessen Ausgang vorherzusagen, geht es wohl nicht in unserer Welt.

  54. @ Wolfgang Stegemann 25.09.2022, 14:45 Uhr

    Es gibt eben Anhaltspunkte, dass im Gehirn auch Mechanismen vorhanden sind, die wie von „Software herrührend“ scheinen. Selbst wenn die durch “Selbstorganisation” entstanden sind.

    Früher wurde von „Materialisten“ bestritten, dass es Software für Computer überhaupt geben könnte. Ehemalige programmierende Berufskollegen wurden als Betrüger verdächtigt, weil sie damals von der Softwareentwicklung ganz gut gelebt haben.

    Nur haben die Softwareentwickler lautstark protestiert, wenn man genau das, was sie als Programmierer erfolgreich gemacht haben, als unmöglich existent gesehen hat.

    Es war viel Überzeugungsarbeit, auch bei den Gerichten notwendig. Selbst ehrenwerte Altphilologen haben es bis zum Tod nicht verstanden, dass es „Software“ wirklich gibt.

  55. @Stegemann 25.09. 14:45

    „Tatsache ist aber, dass das Gehirn nur aus Hardware besteht, oder? Alles andere sind, wie reutlionger schon gesagt hat, Abstraktionen.“

    Ja aber ohne Abstraktionen sind wir doch dumm wie Brot.

    Elektroniker 25.09. 15:01

    „Sehe es wie Sie. Aber es wird kaum jemand behaupten Software wäre ein „Ding“.“

    Wenn ich jetzt 2 Wochen mit PHP an einer Webseite gearbeitet habe, das Ding funktioniert und jetzt im Netz ist und von den Nutzern verwendet wird, dann ist das nicht weniger real wie ein Buch auf Papier. Steckt jetzt aber inmitten des Internets und läuft nur, wenn man eine Internetzugang und einen Browser hat. Aber Internet und Browser sind genauso real.

  56. Ich versuchs mal so:
    Was müssten küstliche Neuronen (oder andere Elemente) tun, um künstliches menschliches Bewusstsein zu erzeugen?
    1. Sie müssten Realität selbständig strukturieren, sie müssten also aus chaotischen eingehenden Reizen (Rauschen) Strukturen erzeugen, mit denen sie Realität strukturieren, um sie eben handhabbar zu machen, wenn man so will. Derzeitige KI kann das nicht.
    2. Diese sog. Hardware, was immer es auch ist, muss diese Strukturen durch Veränderung erreichen (also ohne Software), entweder elektrochemische oder eine entsprechend andere stoffliche Veränderung ihrer Hardware. Das ist das, was unser Gehirn macht.
    3. Dieses künstliche Konstrukt müsste weiterhin Subjektstatus erreichen, um zu empfinden. Hier wird es besonders schwierig. Jedes Lebewesen hat diesen Subjektstatus bereits mit der Geburt als Subjekt seines Handelns im Gegensatz zur leblosen passiven Objektwelt. Ich sehe das in einer Strukturierung in Form von Subsystemen, die ihren Teil zu bestimmten Aufgaben beitragen, damit sich das System in sich selbst spiegeln kann.
    Aber das ist natürlich reine Theorie oder besser Spekulation.

    @Jeckenburger:
    Man sollte nicht kategorial argumentieren, sondern inhaltlich, sonst kommen oft genug, wenn man eine einzelne Kategorie falsch anwendet, am Ende Kategoriefehler raus.

  57. @Schleim
    Meine Aussage war, die Vorstellung vom Zufall folgt oftmals aus der Unvorhersehbarkeit, oder aus unüberschaubarer Komplexität. Die Unvorhersagbarkeit wiederum folgt aus der Indeterminiertheit oder eben der Zufälligkeit. Man kann sich dabei leicht im Kreis drehen. Die Naturwissenschaft muss selbstverständlich versuchen, zumindest teilweise Determiniertheiten zu erkennen, um Experimente und Vorhersagen machen zu können. Andernfalls wäre es keine Naturwissenschaft!

  58. Hallo an alle.
    Ein paar zu dieser Diskussion passende Gedanken.
    —–
    Das Ganze ist mehr als die Summe seiner Teile.
    Das Ganze minus der Summe seiner Teile ist die Information über die Anordnungen und die Wechselwirkungen seiner Teile.
    —–
    Die Information ist die räumliche oder zeitliche Anordnung von Materie oder Energie.
    Die Information ist abhängig vom Vorhandensein eines Trägers, aber unabhängig von der Art des Trägers.
    —–
    Der echte quantenmechanische Zufall:
    Mit dem Blut(-Farbstoff-Molekül) von Schrödingers Katze geschrieben.
    Die relativ komplizierten Tetraphenyl-Porphyrin-Moleküle, in denen jedes Atom fest auf seinem Platz sitzt, können einzeln als Materiewelle gleichzeitig durch mehrere verschiedene, relativ zum Moleküldurchmesser weit voneinander entfernte, Spalten fliegen, und dann auch noch mit sich selbst interferieren.
    Jedes einzelne Molekül ist also gleichzeitig an mehreren verschiedenen Orten, aber seine Atome sitzen dabei immer noch am richtigen Ort im Molekül.
    Natürlich locken diese Seltsamkeiten der Quantenmechanik die Vertreter der Viele-Welten-Interpretation hervor.
    —–
    Das deterministische Chaos:
    Beruht vor allem auf der Verstärkung von Abweichungen.
    Beim Billard oder Pool ist es der Abprallwinkel von einer, relativ zum Abstand zwischen den Kugeln, kleinen Kugeloberfläche.
    Der Zufall ist auch die Kausalität, die vom Nachbarn kommen kann.
    Dazu kommen noch die Brownsche Molekularbewegung, die Heisenbergsche Unbestimmtheitsrelation, und die Effekte aus der Hintergrundstrahlung.
    Natürlich bringen die Entropie und auch Murphys Gesetz die Ingenieure und Meteorologen ständig zur Verzweiflung.
    Es gibt sogar deterministisches Chaos ganz ohne Abweichungen, zum Beispiel Langtons Ameise, die Komplexität erzeugt.

  59. Das holographische Universum (nach neuesten wissenschaftlichen …) ist ziemlich sicher (gesichert!) deterministisch und indeterministisch, weil die KI Mensch ihre …, aber (aufgrund der neuesten Entwicklungen von Umwelt und “geistiger” Vorstellungen) sicher nicht in der herkömmlich-gewohnten “Evolution” der wettbewerbsbedingt-konfusionierten Techniken und Symptomatiken!?

  60. @Karl Bednarik:

    “Das Ganze ist mehr als die Summe seiner Teile.
    Das Ganze minus der Summe seiner Teile ist die Information über die Anordnungen und die Wechselwirkungen seiner Teile.”

    Falsch: Das Gehirn erzeugt alle möglichen Empfindungen, Sex, Musik, Essen etc.
    Nehmen Sie die Neuronen weg, was haben wir dann als Ergebnis?

    Sagen Sie lieber: das Ganze ist etwas Anderes als die Summe seiner Teile.

  61. @reutlinger: Doch noch einmal Zufall

    Worin soll denn bitte der Unterschied zwischen Zufall und Indeterminismus bestehen?

    Die Naturwissenschaft muss selbstverständlich versuchen, zumindest teilweise Determiniertheiten zu erkennen, um Experimente und Vorhersagen machen zu können. Andernfalls wäre es keine Naturwissenschaft!

    Nehmen Sie es bitte nicht persönlich, wenn ich hierzu schreibe, dass es offenbar nicht um Wissenschaft, sondern um Ideologie geht: Wenn das Ergebnis den Determinismus stützt, dann ist es wissenschaftlich – sonst nicht?!

    Nein, ich würde sagen: Die Naturwissenschaft muss die Natur so akkurat wie möglich beschreiben; dabei gilt: so einfach wie möglich und so komplex wie nötig.

  62. @Schleim
    Ihre Forderungen an die Naturwissenschaft halte ich für illusorisch. Wer bitte kann entscheiden, was “akkurat” und was “nicht akkurat” ist? Letztlich entscheiden die Experimente und die Anwendungen darüber. Die Naturwissenschaft kann immer nur kleine Ausschnitte der Welt behandeln. In diesen Ausschnitten gibt es durchaus Determiniertheiten, z.B. lineare Bewegungen.

    Nichtdeterminiertheiten gibt es zweifellos in den Bereichen des Lebens, allein schon auf Grund der Komplexitäten, verbunden mit hoher Dynamik, Periodizitäten und Rückkopplungen, wobei Differenzen exponentiell verstärkt werden können.

    Übrigens würde ich Erklärungen für Phänomene ggf. als deterministisch bezeichnen, z.B. durch entsprechende mathematische Gleichungen, physikalische Vorgänge und Phänomene dagegen entsprechend als determiniert.

  63. @Stegemann – Beschreibungsebene

    Rätsel: die unterste uns bekannte Ebene der Physik ist die oberste Ebene der Psyche. Warum?

  64. @reutlinger: Experimentieren

    Akkuratere Begriffe bewähren sich idealerweise im Experiment; das geht aber nicht ohne bestimmte theoretische Vorannahmen.

    Damit kämen wir dann wieder zum Thema des Blogbeitrags zurück: Viele Wissenschaftler reflektieren meiner Meinung nach zu wenig die theoretischen Vorannahmen ihres Ansatzes (Paradigmas).

  65. @Mussi:
    Ich komm nicht drauf. Erzählen Sie aber nix von Quanten und so.

  66. @ Stegemann

    Kommen wir zurück zur Einleitung des Artikels: EEG = Elektrizismus. Weiter reden wir über MRT= Magnetismus,ergibt Elektromagnetismus = Grundkräfte.
    Die Grundkräfte bilden die Grundlage für den Aufbau der Atome,somit Moleküle.
    Somit gilt: Physis = Psyche,platt gesagt.
    Oder?

  67. @Schleim

    Noch zum Determinismus offener Systeme: Im Prinzip geben Sie mir Recht, bloß sagen Sie es nicht. Wenn hinreichend viele Transistoren defekt sind oder gestört werden, kann das durch redundantes Design nicht mehr aufgefangen werden. Näherungsweisen Determinismus gibt es meiner Meinung nach nur unter Laborbedingungen, wenn es einem gelingt, äußere Einflüsse hinreichend abzuschirmen.

    Das führt jetzt über das Blogthema, aber es gibt Physiker wie den Nobelpreisträger Gerard ’t Hooft die nach einem Determinismus unter der quantenphysikalischen Theorie suchen. Evtl. interessant für sie zu studieren, warum Sie dem nachgehen.

    Für mich persönlich ist es etwas fragwürdig, dass wir physikalische Kräfte haben, die bis auf viele Nachkommastellen genau bekannt sind und bei Änderungen dieser Nachkommastellen (z.B. Feinstrukturkonstante) der ganze Kosmos sehr anders aussehen würde. Vielleicht sind Indeterminismus und Emergenz eben nur Beobachterprobleme. Und der Mensch/sein Hirn ist kein guter akkurater Beobachter oder Erinnerer, dafür gibts es viele Beweise sondern eine Narrativ-Maschine. Gerade deswegen beharre ich als Experimentalwissenschaftler sehr auf genauer Beobachtung aus allen möglichen Perspektiven. Beispiele habe ich oben gebracht.

    Weil Sie zur Emergenz nachfragen:

    Reflexionseigenschaften beispielsweise; die Viskosität einer Substanz; und wo wir bei Substanzen sind: die Glätte von Eis. Das mögen unproblematische Fälle, weil “scheinbare” Emergenz sein. Aber tatsächlich gibt es bis heute nur Modelle und Simulationen, mit denen man z.B. die Glätte von Eis zu erklären versucht.

    Vor kurzem wurde entdeckt, dass Wasserstoff unter immensen Druck bei Raumtemperatur supraleitend ist. Zweifelsohne ist das ein reduktionistischer Effekt. Bei Eis ist meines Wissens auch ein Zusammenhang, dass die Kufe mit sehr hohem Druck auf die Kristalle drückt. Kurz, das überzeugt mich garnicht….

    Denken Sie zur “echten” Emergenz an so etwas wie Farbe: Unsere Farbwahrnehmung liegt nicht nur an den Oberflächeneigenschaften von Flächen (die wiederum keine Eigenschaften von Atomen sind), sondern auch an den Eigenschaften von Lichtwellen einschließlich dem Kontext, in dem sie auftreten. (Die klassischen Wahrnehmungstäuschungen kennen Sie hoffentlich.)

    Farbe gibt es in der Physik streng genommen nicht, nur als Interpretation und dann wäre da wieder die Rot/Grün Farbblindheit die mehr als ein Indiz ist, dass Farbe evtl. nur ein Beobachterproblem/-täuschung ist.

    Beim Bewusstsein ist es eine offene und heiß diskutierte Frage: Es ist eine Eigenschaft nicht einzelner Zellen – sondern vielleicht von Netzwerken von Zellen? Oder nur des ganzen Organisus? Und lassen sich die Eigenschaften aus den Eigenschaften der Teile herleiten? Bisher nicht einmal ansatzweise.

    DAS Bewusstsein klingt immer wichtig und groß. Aber wir sollten unterscheiden bei der Beobachtung. Ist Bewusstsein ein fixer Zustand, eine Entität oder vielmehr ein Prozess der sehr einfach gestört werden kann (Müdigkeit, Drogen, …)? Ich glaube letzteres und an das Konzept der seltsamen Schleifen und eine notwendige Körperlichkeit und Bewusstheit (Echtzeit-Feedback der Körpersinneszellen).

    Danke für die Beispiele, aber alle drei finde ich nicht stringent um das Konzept des Reduktionismus in Frage zu stellen. Eher hybride Ansätze wie Mussi oben schreibt. Aber den Physikalismus hebt das alles m. M. nicht aus den Angeln.

    Am meisten stört mich glaub ich, dass die Bsp. die sie vorbringen mir selbst hochgradig indeterministisch in ihrer Phänomenologie scheinen. Könnten Sie ein emergentes Phänomen nennen, dass stabil ist, ein Zustand wie die Supraleitung, hätte man einen Beobachtungsansatz. Das kausale und logische Rückwirkung von oberen “emergenten” Ebenen auf untere möglich ist finde ich mit dem Konzept der Informationsdichte oben oder einer Kontextualisierung (Umweltfaktoren) plausibel hypothetisiert. Ein Festkörper der im supraleitenden Zustand ist, ist einfach überprüfbar. Eine bewusste Person im fMRT Tomograph ist eigentlich erst dann bewusst, wenn Sie auf etwas reagieren muss. Jeder weiß ja wie schwer es ist an Nichts zu denken. Oder wird das Bewusstsein, die Meditation, dann eigentlich gestört und es findet eine determinstische physiologische Reaktion/Heuristik statt? Darauf deuten ja die Experimente zum freien Willen von Libet. Ich denke die Neurowissenschaftler müssen sich wie die Physiker eben noch sehr viel genauer überlegen, wie man Bewusstsein wirklich operationalisiert experimentell. Dann käme es evtl. zu größeren Fortschritten, ob es ein Zustand, Prozess, Qualia-Derivat oder -Separatum ist. Momentan würde ich doch konstatieren, dass die sprachliche Schärfe weit unter der der Physik liegt, obwohl die Phänomenlogie und das Objekt deutlich komplexer ist. Bewusstsein oder Emergenz kommt mir eben ähnlich unscharfvor wie der Äther im frühen 20 Jhdt., bis Einstein in seinen vielen Gedankenexperimenten sehr genau anfing zu beobachten. Und mir leuchtet nicht ein, warum Bewusstsein nicht morphogenetisch erklärbar sein soll bei den evolutionären Hinweisen die ich oben brachte mehrfach. Es wäre die einfachste Erklärung und jede andere Erklärung muss damit (Physikalismus) zumindest phänomenlogisch und chronologisch wenn auch nicht erkenntnistheoretisch vielleicht (Post-Physikalismus/-Reduktionismus) in Einklang gebracht werden…

    Dem Kommentar von Stegemann 15:46 würde ich beipflichten. Und ich sehe nicht wie mit dem was wir beobachten und wissen (Rot/Grün-Blindheit, Morphogenese und Evolution von Selbstbewusstsein bei Tieren/Menschen) man hier eine nicht-reduktionistischen Ansatz annehmen sollte/bräuchte? Denn warum plötzlich und chaotisch in der Evolution emergente Funktionen bei diesen Objekte/höheren Lebenwesen entstanden sind, ist evtl. eine viel unplausiblere und schwerer zu beantwortende Frage als die Natur oder Existenz der Emergenz selber über die wir bisher stritten? Das würde ich mal in die Runde fragen…

    Frei nach Ockham, wie wird durch die Einführung der Emergenz es wirklich einfacher wissenschaftlich Beobachtung mit Modell in Einklang zu bringen? Wenn Emergenz nur eine Denkhilfe/Konstrukt ist wie die Raumzeit in der Gravitation (die man nicht direkt nachweisen kann exp. als physik. Entität, indirekt über Gravitationslinsen oder -wellen ja), dann sollten sich doch viele klare Phänomene auflisten lassen, bei denen dieser emergente Zustand klar und systemübergreifend operationalisiert werden kann. Bei den Bsp. oben ist aber jedes von einer ziemlichen anderen Natur (Eis, Bewusstsein, Farbe). Je länger ich darüber schreibe/nachdenke, desto unplausibler scheint es mir, daher höre ich hier auf und Sie lesen ja auch nicht so weit. Sorry 🙂

  68. @Kuhn: Physik

    …wie den Nobelpreisträger Gerard ’t Hooft die nach einem Determinismus unter der quantenphysikalischen Theorie suchen…

    Klar. Wissenschaftler suchen immer irgendetwas. Dafür sind sie ja Wissenschaftler geworden. ‘t Hooft tat das vor 20 Jahren auch schon. Hat er gefunden, was er suchte? Meines Wissens nicht.

    …die Kufe mit sehr hohem Druck auf die Kristalle drückt.

    Haben Sie den verlinkten Artikel gelesen?

    Das alte Modell ging davon aus, dass durch den Druck der Kufe die oberste Lage des Eises schmilzt und man dann auf Wasser gleitet…

    …seit ein paar Jahren vertreten die Physiker nun das Modell, dass die Eismoleküle wie Baumstämme auf der Eisoberfläche liegen, am idealsten (glattesten) bei -7 °C, und man darüber rollt.

    Der Rest übersteigt leider meine Aufmerksamkeitsspanne. Ich empfehle als Richtwert für Kommentare: max. eine Bildschirmseite, kürzere Absätze.

  69. @Mussi:

    “Somit gilt: Physis = Psyche,platt gesagt.
    Oder?”

    Nein, die Psyche bzw. das Bewusstsein ist eine Eigenschaft des Gehirns, so wie der Herzschlag eine Eigenschaft des Herzens ist. Während das Hirn die Hardware ist, ist Bewusstsein ontologisch Struktur, operativ Strukturbildung.

  70. @Stegemann

    Schade, ich hätte jetzt gedacht,sie kommen auf den Lebensfunken/-impuls,der das alles anwirft.

  71. @reutlinger 25.09. 16:17

    „Die Naturwissenschaft muss selbstverständlich versuchen, zumindest teilweise Determiniertheiten zu erkennen, um Experimente und Vorhersagen machen zu können. Andernfalls wäre es keine Naturwissenschaft!“

    Ich dachte, Naturwissenschaft will vor allem die Natur zunächst mal genau untersuchen, und das ergebnisoffen. Als Newton seine Gravitationstheorie vorgestellt hat, war man zunächst etwas erstaunt, dass sich nicht nur die Astronomie so ordentlich mathematisch fassbar regelmäßig verhält, sondern es auch auf Erden sehr ordentlich zugehen kann. Später kamen immer mehr Naturgesetze zum Vorschein, bis dass man gegen Ende des 19. Jahrhunderts so erfolgreich war, das man auf die Idee kam, alles zwischen Himmel und Erde müsse nach für uns fassbar mathematischen Regeln ablaufen.

    Das, denke ich, ist aber nicht der Fall. Wir kennen nur die Bereiche, die entsprechend fassbar sind, auch weil viele Naturwissenschaftler meinen, dass man was anderes nicht mehr suchen muss.

    Natürlich ist es berechtigt, bevorzugt nach derart Regelmäßigem zu suchen, weil man das eben gut kann und es auch hinterher gut anwenden kann. Aber die Welt ist eben größer, und nicht nur in der Biologie geht es öfter wilder zur Sache, als dass es sich in determinierter fassbaren Weise untersuchen ließe. Man kennt hier nicht die ganzen Kausalketten, und gibt sich praktischerweise mit einfachem Beobachten und Beschreiben zufrieden, einfach weil mehr oft nicht drin ist.

    Wir kennen halt nur das Fassbare und Regelmäßige, weil wir nur danach gesucht haben. Wollen wir mehr, dann müssen wir das auch suchen. Die Wirklichkeit hat genug davon, sogar im simplen alltäglichem Leben kann vieles recht chaotisch sein, und trotzdem richtig gut funktionieren, indem es voller Geist sein kann, der mithilft.

    Entsprechend versucht der Mensch seit Jahrtausenden auch an seiner Beziehung zu Geisteswelten zu arbeiten. In einer voll technisierten Welt mag das aus dem Blick geraten, muss es aber nicht. Die fMRT-Forschung ist vor allem teuer, bringt aber nicht viel. Die Psyche des Menschen kann man aber eben auch psychologisch und sozial angehen, und hier ist Beziehung ein wesentliches Element. Auch zu Geisteswelten.

  72. Jede Wirkung hat eine Ursache.
    Es gibt keine Wirkungen ohne Ursache.
    Jeder Gedanke ist eine Folge von anderen Gedanken.
    Die anfänglichen Gedanken sind entweder angeboren, anerzogen oder etwas später erlernt.
    Natürlich kann man sich dafür entscheiden, entweder gar nichts, oder etwas rein zufälliges zu tun.
    Auch diese Entscheidungen sind dann ebenfalls kausale Folgen von früheren Gedanken.
    Ob der Wille unbewusst determiniert ist, oder ob der Wille bewusst determiniert ist, der Wille ist in jedem Fall durch vorherige Informationen determiniert.

  73. @Bednarik
    ein guter Beitrag

    Unser Gehirn arbeitet per Musterverarbeitung – man kann dies sehr schön an Experimenten zum Gedankenlesen per fMRT oder mit aufgelegten Elektroden sehen:
    Wenn die Versuchspersonen Worte bzw. Sätze hören – werden gleichzeitig die zugehörigen neuronalen Aktivitätsmuster registriert: das ist die Lernphase bzw. Kalibrierung.

    Wenn sich die Versuchspersonen erinnern, dann werden die dabei messbaren neuronalen Aktivitätsmuster ebenfalls registriert – und dann mit den gemessenen Mustern der Kalibrierung verglichen.
    Wenn es Übereinstimmungen gibt, kann man erkennen was die Versuchsperson gedacht hat

    Die hier erkennbare Arbeitsweise gilt für alles was wir denken und tun:
    Was wir machen/denken wird durch Informationen determiniert, die von außen auf uns einwirken und dadurch vorhandenes Kalibrierungswissen reaktivieren.
    Wenn von Außen aber keine oder zu wenig stimulierende Information kommt – dann werden zufällig aktivierte neuronale Aktivitäten verarbeitet und bestimmen was wir erleben – deshalb ist die Isolationsfolter so schlimm. Denn dadurch können Leute verrückt werden.

  74. @ Bednarik, Nachtrag zur Musterverarbeitung

    Wenn wir einen neuen Reiz/Gedanken wahrnehmen, dann reakiviert unser Gehirn sofort ein vergleichbares vorhandenes Informationmuster – eine ´Erfahrung´.
    Eine ´Erfahrung´ besteht in unterschiedlichen Anteilen aus den Komponenten – a) Faktenwissen, b) Körper-Reaktion, c) Sinnes-Reaktion, d) Immunsystem-Reaktion und e) Emotionen.

    Dies ist unsere allerwichtigste Überlebensstrategie, da damit eine sofortige. schnellste Reaktion möglich ist. Der Fachbegriff dafür ist ´predictive coding´

    Wenn das Gehirn zum neuen Reiz nicht sofort eine passende Erfahrung findet, dann sucht es im Gedächtnis systematisch nach passenden Informationen. Manchmal konzentriert es sich so stark auf diesen Suchvorgang, dass man bewusst erleben kann, wie es arbeitet – so etwas kann man als NTE bewusst erleben.

    Die zwei Strategien mit denen unser Gehirn bei der Reizverarbeitung arbeitet, hat Prof. Kahnemann als ´thinking fast – thinking slow´ beschrieben

  75. @Mussi:
    “Schade, ich hätte jetzt gedacht,sie kommen auf den Lebensfunken/-impuls,der das alles anwirft”.

    Gibt es nicht.

  76. @Jeckenburger
    Mit EEG oder fMRT-Messungen kann man einiges im Gehirn erkennen.
    z.B. wenn bestimmte neuronale Aktivitätsschwellen überschritten werden, dann hat man eine bewusste Wahrnehmung. Beim Unterschreiten gibt es nur Unbewusstes.
    Eine bewusste Wahrnehmung zu haben, reicht für unsere Existenz vollkommen aus. Ein Extra-Bewusstsein braucht man nicht dazu.

    Die Ideen von einem ´Bewusstsein´ oder einem ´Geist´ sollte man daher in den Bereich der Glaubensvorstellungen einsortieren. Wir haben Glaubensfreiheit – deshalb darf man glauben was man will.

    @Stegemann @Mussi
    Den Impuls der alles anwirft was im Universum geschieht – war der Urknall. Zumindest haben wir dies in der Schule gelernt.

  77. @ KRichard, Mussi:

    “Den Impuls der alles anwirft was im Universum geschieht – war der Urknall. Zumindest haben wir dies in der Schule gelernt.”

    Ich würde das auf den Beginn des Lebens einschränken, denn da lässt sich die neue, spezifische Organisationsform von Materie beobachten: Leben.

    @KRichard:

    “Eine bewusste Wahrnehmung zu haben, reicht für unsere Existenz vollkommen aus. Ein Extra-Bewusstsein braucht man nicht dazu.”

    Niemand spricht von einem Extra-Bewusstsein. Es ist die Rede von dem, was Sie bewusste Wahrnehmung nennen. Die Tatsache, dass es sowas gibt, ist dann ontologisch gesehen, das Bewusstsein. Mehr ist das nicht. Das kann man eigentlich nicht falsch verstehen.

  78. @Tobias Jeckenburger // 26.09.2022, 00:34 Uhr

    „fMRT-Forschung ist vor allem teuer, bringt aber nicht viel.“

    Naja, kommt vielleicht drauf an, was man von ihr erwartet.

    In der von Stephan Schleim verlinkten Publikation von Scott Marek et al. (2022) lautet der erste Satz im Abstract:

    Magnetic resonance imaging (MRI) has transformed our understanding of the human brain through well-replicated mapping of abilities to specific structures (for example, lesion studies) and functions1,2,3 (for example, task functional MRI (fMRI)).

    Scott Marek et al. 2022
    https://www.nature.com/articles/s41586-022-04492-9

  79. @Stephan Schleim 24.09.2022, 09:37 Uhr

    “Es ist aber eine unbewiesene Behauptung, dass unsere biologisch unterschiedlichen Gehirne psychologische Prozesse auf dieselbe Weise verarbeiten; beim Beispiel der Sprache weiß man sogar, dass dem nicht so ist (Spezialisierung linke/rechte Gehirnhälfte).”

    Die Entwicklung der “babylonischen Krücke Sprache” ist (angesichts …!) wahrlich KEIN Segen, schon damit bewahrheitet/verwirklicht sich, daß unsere (instinktive) Art (gleichbleibend?) garnicht Weise, die SELBEN Prozesse mit der GLEICHEN … konfusioniert und dann …!?

    “acht Milliarden statt ein Konnektom” – ist grundsätzlich in meiner Spur 👍

  80. Abschließend: Hirnscans sind Kaffeesatzleserei, bis der Neurologe/Psychologe ein ebenso technisches Interface für die … als Zugang (montiert?) bekommt, aber dafür würde das entsprechend überarbeitete EEG wohl genügen – In Amiland soll an solch Technologie ja schon erfolgversprechend gearbeitet werden!?

  81. @Jeckenburger
    Die Naturwissenschaft sucht im Chaos des Weltgeschehens nach wiederholten und wiederholbaren Phänomenen und leitet daraus Regeln und Gesetzmäßigkeiten ab, aus denen sich wiederum Vorhersagen ableiten lassen. Naturgesetze sind Produkte unseres Geistes, ebenso wie konkrete Gedanken, Erinnerungen, Wünsche, Absichten, Gefühle und Emotionen Produkte unseres Geistes sind. Gedanken, Wünsche usw. als generische Begriffe beschreiben dagegen Teilfunktionen des Geistes. D.h. der Geist selber hat keine eigene Existenz, sondern ist ein Sammelbegriff für die Funktionen des Gehirns. Ohne Hirn gibt es keine Gedanken.

    Die Naturwissenschaft kann nicht nach etwas suchen, was nicht existiert, bzw. nur als Begriff existiert. Auch Naturgesetze existieren nicht per se, sondern werden aus dem beobachteten Naturgeschehen abgeleitet und in Sprache formuliert und anschließend auf ihre Zuverlässigkeit getestet. Entsprechend sucht die Naturwissenschaft nicht explizit nach den Naturgesetzen. Wo deterministische Naturgesetze nicht zu finden sind, behilft man sich mit Statistiken und Wahrscheinlichkeiten.

  82. @reutlinger: Naturwissenschaft

    Ich kann dem zu einem großen Teil zustimmen.

    Was aber, wenn die Natur zu einem Teil echtes Chaos ist?

    Die Naturwissenschaft kann nicht nach etwas suchen, was nicht existiert, bzw. nur als Begriff existiert.

    Hier muss ich aber widersprechen: So sucht man z.B. seit bald 200 Jahren nach der neuronalen Basis psychischer Störungen – und findet nichts, weil die Frage falsch formuliert ist.

    In der Astrophysik suchte man auch einmal nach dem Planeten Vulcan, um, meiner Erinnerung nach, eine Anomalie der Bahnen anderer Himmelskörper aufzuklären. Obwohl es Vulcan nicht gibt, war die Suche trotzdem sehr fruchtbar für den Erkenntnisgewinn. (Was man bei den psychischen Störungen wohl leider eher nicht behaupten kann.)

  83. Horst O,
    Sprache ist nur eine Krücke zur Erkenntnis. Gut !
    Deswegen werden ja in den Kulturen Suchtmittel verwendet, die das begriffliche Denken unterdrücken und stattdessen auf Sinneserfahrungen setzen.

  84. @Schleim
    Die Naturwissenschaft sucht nach Erklärungen für Beobachtungen oder Phänomene. Oftmals wird eine vorläufige, hypothetische Erklärung angenommen und man sucht nach ihrer Bestätigung, z.B. nach einem noch unbekannten Planeten. Hypothesen sind ein Standardwerkzeug der meisten Wissenschaften.

    Der Planet Neptun wurde im Jahr 1846 erstmals als Planet zielstrebig beobachtet und identifiziert, auf Grund von Berechnungen der beobachteten Bahnstörungen des Uranus zur Positionsbestimmung. Die Hypothese, dass es einen weiteren, noch nicht erkannten Planeten geben müsse, war also richtig.

  85. @anton reutlinger:

    Sie sagen, die Naturwissenschaft kann nicht nach Gedanken suchen, da sie nicht existieren.
    Gedanken oder auch Bewusstsein sind Phänomene, die wir beobachten. Phänomenen liegen irgendwelche Auslöser zugrunde. Die kann man erfoschen. Man muss bloß aufpassen, dass man die Beschreibungs- oder Abstraktionsebenen nicht durcheinander bringt.
    Gedanken kann man im Gehirn nicht finden, daher muss man Theorien oder Modelle entwerfen, mit denen man solche phänomenalen Begriffe transformieren kann. Und dann kommt man möglicherweise zu dem Schluss, dass Gedanken beispielsweise elektrochemische Veränderungen im Hirn sind (deren Inhalt man selbstverständlich nie entschlüsseln kann).

  86. @reutlinger: Richtigstellung

    Ich habe gerade noch einmal nachgelesen – Ihre Antwort ist wissenschaftshistorisch falsch, weil auch nach der Entdeckung Neptuns weiter nach Vulcan gesucht wurde.

    Es ging um eine Anomalie in der Umlaufbahn Merkurs. Weil man dachte, der für die Bestätigung der Beobachtungen fehlende Planet müsse näher an der Sonne liegen, nannte man ihn “Vulcan”.

    Das Problem löste sich nicht mit der Entdeckung eines neuen Planeten 1846 auf, sondern mit Einsteins Allgemeiner Relativitätstheorie 1915. Jetzt verstand man, dass die Newtonsche Mechanik nicht ohne Weiteres auf die Himmelskörper anwendbar ist.

  87. @Schleim
    Ok, das wusste ich nicht. Letztlich geht es darum, ob eine Hypothese bestätigt werden kann oder nicht. Ggf. muss eine Hypothese verworfen oder verändert werden, wenn sie widerlegt wurde, oder die der Hypothese zu Grunde liegenden Beobachtungen bzw. Vorannahmen müssen überprüft werden. Es wird dabei auch klar, dass Hypothesen nur dann sinnvoll sind, wenn sie überprüfbar/falsifizierbar sind, im Zusammenspiel mit der Entwicklung der wissenschaftlichen Instrumente.

    @Stegemann
    Ich unterscheide zwischen konkreten Gedanken, z.B. hier beim Schreiben, und Gedanken im allgemeinen, abstrakten Sinn von Denken. Die konkreten Gedanken als Produkte des Denkens können als Information geäußert und gespeichert werden. Das Denken als Vorgang im Gehirn ist sicher existent, aber nicht als eigene, zusätzliche Existenzform im Sinne von Geist. Das wäre ein Zirkelschluss.

  88. Ergänzung, bevor jemand fragt:

    “…dass Gedanken beispielsweise elektrochemische Veränderungen im Hirn sind (deren Inhalt man selbstverständlich nie entschlüsseln kann).”

    Warum kann man sie nicht entschlüsseln? Während man eine unbekannte Schrift – z.B. die Hieroglyphen – durch Kombinatorik enträtseln kann, funktioniert das bei Gedanken nicht. Wenn ein Versuchsleiter mit einem Scanner in mein Hirn schaut, sieht er eine bestimmte Struktur und ich sage ihm, dass ich eine Frau in einem roten Kleid sehe. Er kann dann diese Aussage mit der Struktur in Verbindung bringen, aber er sieht kein Bild einer Frau in einem roten Kleid auf seinem Bildschirm. Er könnte einen Grafiker beauftragen, aus meiner Beschreibung ein Phantombild anzufertigen, es wäre aber kein Original. Und es würde wenig nutzen, denn ich codiere jedesmal meine Gedanken in physiologische Strukturen und umgekehrt neu. Es ist also prinzipiell nicht möglich, egal mit welcher Technik.
    Aber auch auf statistischen Korrelationen basierende Muster (ohne Bild) sind viel zu ungenau, wie ja im Artikel beschrieben wurde.
    Es ist ja schon schwer genug, Gedanken eines anderen zu verstehen, wenn er sie verbalisiert 😉

    @reutlinger:
    Egal, um welche Gedanken es geht, man kann sie nur als Hirnphysiolgie ‘sehen’, einen Geist gibt es dort natürlich nicht.

  89. @Stegemann
    Sie haben recht: Wenn man neuronale Aktivitäten per fMRT untersucht, kann man keine Gedanken lesen. Das einzige was man messen kann, sind Aktivitätsmuster.

    Solche gemessenen Mustern kann man eine Bedeutung zuordnen, wenn man zuvor mit bekannten Sätzen/Worten eine Kalibrierung erstellt hat. z.B.
    DOI: 10.1002/hbm.23692 Prediciting the brain activation pattern associated with the pro-positonial content of a sentence
    DOI: 10/1093/cercor/bhw240 Predicting neural activity patterns associated with sentences using a neurobiologically motivated model of semantic representation

    Mit Gedankenlesen haben solche Experimente aber recht wenig zu tun – da man lediglich begrenzte Inhalts-Informationen erkennen kann, für die vorher eine Kalibrierung erstellt wurde.
    Zudem erfasst man mit solchen Messungen nur einen Bruchteil von den verarbeiteten Informationen, da z.B. zugehörige Emotionen oder Immunreaktionen bei solchen Messungen gar nicht gemessen werden.
    Außerdem sind solche fMRT-Messungen sehr teuer und für die Versuchspersonen recht unbequem

  90. Wolfgang Stegemann
    Gedanken lesen
    Also meine Frau spricht das aus, was ich noch nicht zu Ende gedacht habe.
    Denken offenbart sich in der Körpersprache. Der Hund versteht die Körpersprache des Menschen. Wir suchen nach dem Denken im Gehirn.
    Das Gehirn hat längst die Befehle an den Körper weitergegeben.
    Also sollte man dort suchen.
    Die Frau mit dem roten Kleid. Wenn der Beobachter die Augenbrauen hochzieht, dann ist das, das, was der Körper abspeichert, die Bewegung. Hat man das schon mal untersucht. Haben Sie schon mal beobachtet, wie Menschen bei einem Lied mittanzen.Und umgekehrt kann man aus den Bewegungen auf das Lied schließen. Haben Muskeln ein Gedächtnis ?

  91. @Stegemann, fauv: Gedankenlesen

    Interessant ist aber doch die Feststellung, dass diese Form des Gedankenlesens (in Fachsprache wortwörtlich “mind reading” oder “theory of mind”) ganz ohne Hirnscanner auskommt. Wir sind eben von Natur und Kultur aus psychobiologische Gedankenleser, manche besser als andere.

  92. @ fauv

    Nennt man ‘ muscle-memory-effect’. Muskeln erinnern sich an vorherige Beanspruchung.

  93. Die Frage ist nur, ob der muscle-memory-effect etwas mit Bewusstsein zu tun hat. Embodiment Vertreter sehen das so. Aber das ist wieder eine andere Diskussion.

  94. @ fauv

    @Stegemann: Hoel hat meines Erachtens nicht genug über Motorik nachgedacht.Motorik,die Steuerung der Bewegung,die Dualität zwischen afferent und efferent, bedingt den wechsewirkenden Informationsfluss.

  95. @Mussi:
    Hoel argumentiert auf Grundlage der Integrierten Informationstheorie (IIT). Da geht es um abstrakten Informationsfluss, nicht um konkreten.
    So, wie es beim 2. Hauptsatz der Thermodynamik um Wahrscheinlichkeiten bzw. statistische Physik geht und nicht um tatsächliche Gasteilchen.

  96. @Mussi:
    Aber auf dieser Abstraktionsfähigkeit beruht die gesamte Wissenschaft. Abstraktion auch im Sinne von Abstrahieren von unwesentlichen Details, also Verallgemeinerung.

  97. @ Stegemann

    Mal so,mal so, ob sie den induktiven oder deduktiven Ansatz wählen.

  98. @Stegemann
    So ist es; Abstraktion ist eine Methode der Wissenschaften wie Aggregation. In der Verkehrswissenschaft interessieren nicht die Schrauben und Kolben, sondern das ganze Auto mit seinen Eigenschaften und Funktionen, also die Aggregation aller Einzelteile. So können trotz des Chaos der Verbrennung im Motor deterministische Regeln für den Verkehr abgeleitet werden. Man kann sogar Emergenzen darin erblicken, indem nicht die Einzelteile sich unabhängig fortbewegen, sondern nur das Auto insgesamt, während die Kolben ihre eigenen Bewegungsmuster haben.

  99. @Mussi:
    Induktiv müssten Sie das Rad immer wieder neu erfinden 😉

  100. @ Stegemann

    Genau das ist Irren in der Wissenschaft. Prof. Harald Lesch nennt es ‘ nach oben irren”.

    Tononi und Hoel gehen meines Erachtens (wie das embodiment-Konzept) deduktiv vor. Nach meiner Ansicht lässt Ihnen Information erstmal ohne der Betrachtung von Materie keine Alternative.

    Andererseits ist die Betrachtung aus der Materie induktiv.

    Was fangen wir nu damit an?

  101. @ Stegemann @ Reutlinger

    Um der Ehre angetan zum sein: Prof.Timm Grams nennt es ‘Klüger irren’.

  102. @Mussi
    Für Hypothesen ist der induktive Ansatz sicher akzeptabel und manchmal sogar unausweichlich: “wenn für einige x die Eigenschaft y gültig ist, dann ist y für alle x gültig”. Induktive Naturgesetze müssten jedoch um zusätzliche Gültigkeitsbedingungen ergänzt werden.

  103. @reutlinger 25.09. 16:17

    „D.h. der Geist selber hat keine eigene Existenz, sondern ist ein Sammelbegriff für die Funktionen des Gehirns.“

    Sprache ist öfter mehrdeutig. Wenn man von Geist redet, kann man den menschlichen Geist als Gehirn in Aktion meinen. So gibt es religiös betrachtet aber auch den heiligen Geist, es gibt den Begriff Ahnengeister und auch Götter mögen folgerichtig rein geistige Wesen sein. Wenn Sie meinen, dass es das alles nicht gibt, dann sind Sie da nicht alleine mit, aber es gibt auch Menschen, für die gibt es eben auch Geist jenseits von Vorgängen, die in Gehirnen passieren.

    „Die Naturwissenschaft kann nicht nach etwas suchen, was nicht existiert, bzw. nur als Begriff existiert.“

    In der Tat macht das nur Sinn, nach solchem Geist im Leben zu suchen, wenn man an entsprechende Geisteswelten glaubt. Dann kann man aber in der Tat gucken, wie der sich in der Wirklichkeit irgendwie zeigt. Was auch nicht einfach ist, aber m.E. nicht ganz aussichtslos ist.

    Ich denke durchaus, das unsere Innenwelten zu großen Anteilen aus Funktionen unseres Gehirns hervorgehen, vermute aber, dass da noch mehr ist. Was auch verschiedener religiöser Überlieferungen nach zu erwarten wäre. Gibt es damit ein Problem?

    Die Menschen und die Erfahrungen, die sie machen, sind eben verschieden. Soll doch jeder da auf die Suche nach Neuem gehen, wo es ihn am meisten interessiert.

    @Mussi 26.09. 20:07

    „Genau das ist Irren in der Wissenschaft. Prof. Harald Lesch nennt es ‘ nach oben irren”.“

    Also, probieren wir es doch einfach. Nichts dauerhaft Belastbares gefunden zu haben ist dann am Ende auch ein Ergebnis.

  104. @Mussi
    Welche denn?

    Zeitliche und räumliche Bedingungen, sowie detailliertere, explizite Bestimmungen von x und y, Bestimmungen zum Experiment bzw. zur Beobachtung.

    Die Aussage “alle Schwäne sind weiß” wäre als Naturgesetz wertlos.

  105. Tobias Jeckenburger
    ……der Geist hat keine eigene Existenz…….
    Die Geschichte der Kulturen, die Geschichte der Religionen ruht auf der Annahme eines Geistes, der sich der Materie bemächtigt.
    Fleisch ohne Wille ist tot.

  106. @fauv 27.09. 09:09

    „Die Geschichte der Kulturen, die Geschichte der Religionen ruht auf der Annahme eines Geistes, der sich der Materie bemächtigt.
    Fleisch ohne Wille ist tot.“

    Aus der Biologie wissen wir, das die Nerven die Muskeln bewegen und das Gehirn ein Art Steuerzentrale ist. Soweit hier noch eigene Geisteswelten existieren, so sind diese im konkreten Leben offenbar mit den Nerven und den Gehirnen verbunden.

    Von daher macht es dann sogar Sinn, beide Elemente Geist zu nennen. Wieviel Spiritualität und wieviel schnöde biologische Existenz jetzt hier anteilig vorkommen, könnte dann sogar individuell sehr verschieden sein.

  107. Als jemand der mit fMRI/fMRT arbeitet möchte ich kurz etwas zu den Messmöglichkeiten von fMRI schreiben, da einige Personen hier annehmen dass fMRI nur dazu gut sei raumzeitliche Muster der Gehirnaktivität bzw. des BOLD Signals zu liefern. Das ist so nicht korrekt und zu einseitig gedacht.

    Zuerst: Mein Respekt an Stephan Schleim. Ich lese deine Beiträge rund um die Neurowissenschaften immer sehr gerne und frage mich wie du die Zeit findest einen Beitrag nach dem anderen so schnell zu publizieren, aber kommen wir zum Thema.

    Zu den Messmöglichkeiten in Neuroimaging.
    MEG und fMRI teilen das Gehirn in Voxel (“3D Pixel”) ein. Für jeden Voxel wird während der Messung eine Zeitreihe (time-series) aufgezeichnet. Was bedeutet das nun konkrekt? Das bedeutet konkret dass für jeden Voxel eine Reihe aus numerischen Zahlenwerten aufgezeichnet wird, also beispielsweise 5, -1, 0.34, 2, -1.24, usw.

    Aus diesen Zeitreihen/time-series können beispielsweise statistical parametric maps erstellt werden. Das sind die bunten Aktivierungsmuster der Gehirnaktivität die häufig mit fMRI oder MEG assoziiert werden. Aber diese sind nicht alles. Man kann auch andere Variablen berechnen die ganz unabhängig dieser “Aktivierungsmuster” sind.

    Genau dies wird in Neuroimagingstudien auch umgesetzt. Denn aus den aufgezeichneten time-series Daten sind alle möglichen Variablen berechenbar. Dazu gehören Analysen in der Zeitdomäne (time-domain) wie beispielsweise autocorrelation oder Sample Entropy, sowie Analysen im Frequenzraum (frequency-domain). Ferner sind auch Analysen im Phasenraum möglich.

    Der Fantasie des Wissenschaftlers sind hier quasi keine Grenzen gesetzt. Natürlich müssen die aufgezeichneten Daten qualitativ bestimmten Variablen genügen. D.h. man kann nicht einfach mit jedem Datensatz alle möglichen Variablen qualitativ ausreichend gut berechnen.

    Auch muss der Wissenschaftler die Fähigkeit besitzen diese Messvariablen ordentlich zu programmieren, denn die fMRI Software bietet dies nicht an. Es liegt dann an dem Wissenschaftler diese Variablen via Python, Matlab, etc. aus den importierten Zeitreihen des fMRI ordentlich in der Programmiersprache nach Wahl zu berechnen. Natürlich muss er diese Variablen auch theoretisch verstehen. All das ist sehr viel Arbeit.

    Mit EEG, MEG, fMRI und co lässt sich also deutlich mehr berechnen und final im Hinblick auf die Funktionsweise des Gehirns interpretieren. Die bunten Aktivierungsmuster des Gehirns die auf statistischen Tests basieren sind nur eine von vielen Möglichkeiten.

    Natürlich hat Stephan Schleim recht wenn er schreibt dass einige überhebliche Aussagen bezüglich des Verständnis des Menschen basierend auf Neuroimaging in der Vergangenheit getroffen wurden (und wohl auch heute immer noch getroffen werden).

    Gruß

  108. @Philipp: Alternativen

    Danke für die Ergänzung. Man kann mit den Daten sehr viel mehr machen. (Zu meiner Zeit damals diskutierte man z.B. die Feststellung von Granger-Kausalität.)

    Aber relevant wäre hier doch die Frage, inwiefern Replikation dann ein geringeres Problem ist. Wenn die wahren Messeffekte klein und das Rauschen groß sind, dann betrifft das wohl auch alternative Analyseverfahren, oder?

  109. @Stephan Schleim:

    Ich halte die Replikation von einigen (oder vielleicht auch vielen Neuroimagingstudien) schon für problematisch. Das beginnt mit unterschiedlichen Preprocessings, also der Aufbereitungen der Rohdaten, sowie unterschiedlichen Vorgehensweisen der Berechnung von einzelnen Variablen. Je nach Variable können kleinste Veränderungen von Parametern und Programmiercode zu großen Unterschieden in den Ergebnissen führen. Das sind Aspekte die in den Publikationen fast nie vorkommen und über die der Laie nicht einmal nachdenkt.
    Ich glaube auch nicht allen Studienergebnissen. Einige Studien sind für die Publikation in top Journalen geschönt bzw. aufpoliert.

    Eine weitere Frage ist was man in den aufgezeichneten Daten, sei es mit EEG, fMRI, etc., als Signal und als Rauschen bezeichnet. Beispielsweise in einem resting-state run wird das, was in einem task run als “Rauschen” bezeichnet wird, auf einmal zum “Signal”. Ich müsste zu weit ausholen um hier Stellung zu beziehen. Das würde über einen Blogkommentar hinausgehen.

    Aber ich möchte nicht drumherum reden und stimme dir, wie oben schon geschrieben, zu. Die Replikation ist sicherlich ein Problem.

    @KRichard:
    ein zweites Problem: gute Messwerte im MRT erhält man nur, wenn die Versuchsperson den Kopf überhaupt nicht bewegt. Das ist extrem anstrengend und kann nur sehr kurze Zeit durchgehalten werden. Aber schon eine leichte Bewegung des Kopfes führt dazu, dass die gemessenen Pixel-Werte/Positionen nicht übereinstimmen.”

    Ein kurzer Kommentar noch dazu:
    Es ist richtig dass Kopfbewegungen mit das größte Problem in fMRI sind. Aber bei jungen und gesunden Menschen ist das in den meisten Datensätzen handelbar. Die Kopfbewegung wird während des Preprocessings der Rohdaten von der Software über verschiedene Verfahren geschätzt, beispielsweise in 6 Dimensionen bzw. Freiheitsgraden der Kopfbewegung.

    Wenn Personen zu bestimmten Zeitpunkten eine zu große Kopfbewegungen aufzeigt haben, bestehen u.a. folgende Möglichkeiten diese zu kompensieren:
    – Die einzelnen Frames/Volumes (Datenpunkte) können gelöscht und damit ignoriert werden. Für manche Messvariablen ist dies aber bei zu vielen gelöschten Datenpunkten schädlich.
    – Die betroffenen Datenpunkte können durch verschiedene Interpolationsverfahren, die alle individuelle Vor- und Nachteile bieten, ersetzt werden. D.h. dass beispielsweise der qualitativ schlechte Datenpunkt 2 (der zwischen 1 und 3) liegt gelöscht und künstlich basierend der Datenpunkte 1 und 3 neu berechnet wird.
    – Es können Thresholds eingesetzt werden die automatisch ab einem bestimmten Limit einzelne Datenpunkte mit zu hoher Kopfbewegung eliminieren, etc.

  110. @Philipp
    Sie haben völlig recht – es gibt die Möglichkeit den Fehlereffekt Kopfbewegungen rechnerisch etwas zu korrigieren.
    Aber mit solchen Methoden werden die Aussagen von fMRTs nicht besser sondern eher noch schlechter.

    Wie problematisch das berechnen von Messwerten ist – kann man am Libet-Experiment erkennen obwohl dabei mit wesentlich weniger Messdaten gearbeitet wurde:
    Laut Libet-Experiment gibt es ein erkennbares Aktionspotential BEVOR man eine bewusste Entscheidung getroffen hat. Dies löste eine jahrelange Diskussion aus – ob wir einen freien Willen haben.
    Vor einiger Zeit hat man die gleichen Experimente gemacht und die Werte nicht gemittelt, sondern einzeln ausgewertet. Damit ließ sich das Libet-Experiment nicht bestätigen sondern erkennen, dass es wohl nur ein Begleitphänomen ist
    DOI: 10.1016/j.neurobiorev.2016.06.023 Catching the waves – slow cortical potentials as moderator of voluntary action

    Weitere Untersuchungen zeigten, dass das beobachtete Aktionspotential / ´Bereitsschaftssignal´ gar nicht mit einer getroffenen Entscheidung zu tun hat, sondern nur ein Nebeneffekt vom Atmen ist.
    DOI 10.1038/s41467-019-13967-9 Breathing is coupled with voluntary action and the cortical readiness potential

    Kurz gesagt: Wenn Messen von Gehirnaktivität an seine Grenzen stößt – sollte man prüfen ob es weitere/andere Möglichkeiten gibt, die Arbeitsweise des Gehirns besser zu verstehen

  111. @Philipp: Unterscheidungen

    Danke wiederum für die informative Antwort. Hier sollte man meiner Meinung nach aber mindestens vier Dinge voneinander unterscheiden:

    (1) Die Eigenschaften des Messverfahrens (v.a. Signal-Rausch-Verhältnis).

    (2) Dokumentation und Publikation der wissenschaftlichen Vorgehensweise (siehe hierzu Poldrack et al., 2008, NeuroImage, Guidelines for reporting an fMRI study).

    (3a) Datenmanipulation, die wissenschaftlich vertretbar ist oder in eine Grauzone fällt und…

    (3b) …Datenmanipulation, die wissenschaftliches Fehlverhalten darstellt.

    Alle vier Aspekte spielen für die Replizierbarkeit von Studien eine Rolle. Im engeren Sinne ging es in diesem Blogbeitrag um (1). Dass (2) und (3) ebenfals Probleme sind, fällt auch in die Wissenschaftssoziologie.

    Wahrscheinlich verfehlen sogar heute noch viele Publikationen die unter (2) formulierten Guidelines. Diese Schludrigkeit ist Teil des Systems und wohl auch gewollt, zumindest aber billigend in Kauf genommen, weil sie eben praktisch ist.

  112. Ich würde sagen, solange die Frage, was ist Denken, theoretisch nicht geklärt ist, wird man mit der bloßen empirischen Messung von Aktionspotentialen (von der technischen Problematik abgesehen) kaum weiterkommen. Es gibt keine Vorstellung davon, warum ich einen Gedanken fasse und ihn bewusst weiterverfolge und daraus Handlungen generiere. Die Antwort auf diese Frage liegt eben nicht in der bloßen Beobachtung der Physiologie. Sie kann nur durch die Reduktion auf das Prinzip Leben und dessen Rekonstruktion hin zur Tätigkeit des menschlichen Gehirns beantwortet werden. Oder anders: die Komplexität von 80 Milliarden Neuronen und deren Verbindungen lässt sich empirisch nicht begründen. Man wird dann aus der dualistischen Falle zwischen Physiologie und Geist nicht herauskommen. Erst wenn man ein Konzept radikal verfolgt, das beides als ein und dieselbe Sache betrachtet, bei der sich nur die Betrachtungsperspektiven untertscheiden, kommt man weiter. Ich behaupte, der einzige Ansatz, der das leisten kann, ist eine systemtheoretische Sichtweise, da dort ‘Geist’ und Körper von vornherein als ein System gesehen werden. Ich fürchte nur, man aalt sich auch weiterhin zu gerne in der Terminologie der Philosophie des Geistes oder neuerdings in jener der Informatik.

  113. @Stegemann: Was sind Gedanken?

    Schauen Sie sich mal diese neue Doku von Arte an. Über eine halbe Million Aufrufe allein auf YouTube. Und meines Erachtens so schlecht gemacht. (Von den Abschnitten über den Placebo-Effekt vielleicht abgesehen.)

  114. @all, Stegemann: Monismus, Dualismus, Pluralismus…

    Bevor man eine Frage mit dem Hirnscanner beantworten will, sollte man vielleicht erst einmal sagen können, was die Frage ist.

    Dass man die Neurowissenschaften seit 30 bis 40 Jahren so hypt und jetzt ans Licht kommt, dass deren so oft als “objektiv” gepriesene Verfahren aus verschiedenen Gründen nicht einmal replizierbar sind, überzeugt mich nicht.

    Über den Pluralismus der Beschreibungsebenen habe ich ja schon öfter geschrieben. Nur bleibt man damit auf der epistemischen Ebene und kommt man nicht auf die Ontologie (“das Sein”). Das ist wohl das Dilemma unserer menschlichen Lebensform und im Prinzip mit dem Höhlengleichnis schon so ausgedrückt.

  115. @Schleim:
    Was ist an der ARTE-Doku schlecht? Ich finde sie gut gemacht. Warum unsere Gedanken eine derartige Macht haben, darauf gibt es dort auch keine Antwort.
    Genau aus dem Grund, der die Wirkung des Placeboeffekts aufgezeigt hat, praktiziere ich eine fernöstliche Heilmethode, bei der man sich – ganz placebisch – suggeriert, man würde mit der Hand verschmutzte Energien aus dem Körper ausreinigen. Ich habe damit schon alle möglichen Beschwerden beseitigen können (allerdings ohne die spirituelle Ausrichtung dieser Methode). Man wird mir das nicht glauben, aber ich konnte sogar meinen PSA Wert von 3,8 auf 2,0 drücken.
    Ich sehe das nicht so pessimistisch wie Sie. Ich denke, gerade mit einem systemtheoretischen Ansatz lässt dich die epistemische mit der ontologischen und auch mit der operativen Ebene verbinden. Ich denke, man muss sich zunächst einmal von einer antropozentrischen Sichtweise verabschieden und das ganze neuronale Theater von ganz vorn her aufrollen. Die größte Kunst dabei ist, dafür Zuhörer zu finden.

  116. @Schleim:
    Sie haben mit einer pluralistischen Beschreibung in Ihrem Artikel völlig recht. Aber es geht ja seit ein paar Tausend Jahren um die Frage, was ist Denken. Ich glaube, man kann sie synthetisch (nicht eklektizistisch) lösen.

  117. @Blogbeitrag

    Wie implizit versprochen, hier einige Anmerkungen und Fragen zum Thema.

    Zunächst zur Frage in der Überschrift:

    »Sind Hirnscans nur Kaffeesatzleserei? «

    Eine deutliche Antwort wird im Beitrag nicht gegeben, aber angekommen ist bei mir: Im Wesentlichen, Ja, zumindest dann, wenn es um psychiatrische oder psychologische Fragestellungen geht.

    Das mag so sein, Psychologie und Psychiatrie stehen ja ohnehin auf tönernen Füßen. Das kann mittels Methoden wie MRT und fMRT kaum kompensiert werden.

    Machen Hirnforscher, Psychiater und Neurologen tatsächlich mehr und mehr den Psychologen Konkurrenz?
    Nach meiner Wahrnehmung beackern die (reinen) Psychologen doch ganz andere Felder als Hirnforscher und/oder Neuropsychologen—auch wenn es an den Rändern Überschneidungen gibt.

    Was allerdings die mediale Präsenz betrifft, da mag es anders aussehen, aber das ist wohl ein anderes Problem.

    Die Wahrnehmung, dass sich „[i]In diesem Jahr [2022] […] die Situation [der fMRT-Guys] weiter verschlechtert [hat]“, kann ich nicht nachvollziehen.

    Wenn ich mir z. B. das dankenswerterweise verlinkte Nature-Paper von Scott Marek et al. (2022) anschaue, dann habe ich eher den Eindruck, es geht in die nächste Runde, es wird immer besser.

    Schon im erst Satz wird dort konstatiert:

    Magnetic resonance imaging (MRI) has transformed our understanding of the human brain through well-replicated mapping of abilities to specific structures (for example, lesion studies) and functions1,2,3 (for example, task functional MRI (fMRI)).

    Im Weiteren wird dann ausgeführt, was noch verbessert werden kann bzw. muss. Und zwar insbesondere bei den „brain-wide association studies“ (BWAS), was meiner kurzen Internet-Recherche nach doch etwas anderes zu sein scheint, als wenn z.B. eine Doktorandin für ihre Dissertation z. B. zwei Dutzend Rechtsanwälte in den Scanner schiebt (einen nach dem anderen, wohlgemerkt ;-)).

    Ich mag mich täuschen, aber ich würde wetten, eine solche fMRT-Studie ist per Definition keine BWAS.

    Je nach Fragestellung und der Größe des erwarteten Unterschieds zwischen zwei Gruppen bei gegebenem Abstand zwischen Rauschen und Signal können 26 Testpersonen völlig ausreichend sein. Dennoch sollte vorab eine Power-Analyse durchgeführt werden, das gehört eigentlich zur guten wissenschaftlichen Praxis. Wobei in aussagekräftigen klinischen Studien (randomisiert, kontrolliert) solche Analysen ohnehin unverzichtbar sind, man will ja schließlich nicht mehr Studienteilnehmer requirieren, als unbedingt nötig.

    Soweit fürs Erste, damit‘s nicht zu anstrengend wird.

  118. Skepsis und Kritik gegenüber der Neurowissenschaft und ihren Methoden ist immer legitim. Man kann sowohl fachliche als auch ökonomische oder soziale Kritik üben. Aber das alles ist noch keine Widerlegung. Das Ziel der neurowissenschaftlichen Forschung ist ziemlich klar und verändert sich nicht. Natürlich können sich die Schwerpunkte im Fortgang der Forschung verlagern, denn erreichte Erkenntnisse oder Irrtümer können rückwirken, ebenso die Entwicklung der Instrumente. Auch Eigenschaften und Eigenheiten der Forscher spielen selbstverständlich eine Rolle, wie in allen Wissenschaften und in allen anderen Bereichen des Lebens, auch bei Kritikern.

    Besonders die Neurowissenschaft wird erschwert durch das Selbstverständnis des Menschen und durch allerlei Vorurteile. Schließlich führt der Erfolg der Neurowissenschaft zur weiteren “Kränkung des Menschen” und erzeugt daher Widerstand.

  119. @KRichard

    Sie haben völlig recht – es gibt die Möglichkeit den Fehlereffekt Kopfbewegungen rechnerisch etwas zu korrigieren.
    Aber mit solchen Methoden werden die Aussagen von fMRTs nicht besser sondern eher noch schlechter
    .”

    Ich verstehe nicht warum Sie das so sehen. Warum sollten die Ergebnisse dadurch “noch schlechter” werden?

    Die ermittelte Kopfbewegung (die nicht direkt messbar sondern basierend auf den aufgezeichneten Daten von der Software geschätzt wird) wird über Regressionsverfahren im Preprocessing berücksichtigt. Das bedeutet dass die Kopfbewegung soweit wie möglich herausgerechnet wird. Natürlich handelt es sich dabei nur um eine Kompensation. Aber diese Kompensation ist besser als keine Kompenstation. Die Qualität der Daten (Signal-to-noise ratio, also im Bezug auf das Thema von Stephan Schleim in diesem Blogbeitrag) wird daher im Normalfall besser und nicht schlechter.

    Wenn eine Person über den Scanverlauf weitesgehend signifikante Kopfbewegungen aufweist, was signifikant ist hängt von dem Untersuchungsdesign, den Zielsetzungen und weiteren Einzelfaktoren ab, dann entfernt man diese Person notfalls nachträglich von der Studie bzw. Analyse.

  120. @Philipp
    Aktuell gibt es Versuche, die Gehirnaktivität von Föten im Mutterleib per fMRT zu messen – denn man erhofft sich, damit das sich entwickelnde Gehirn erforschen zu können.
    Hier muss man die Bewegung des mütterlichen Körpers, die Kopfbewegung des Fötus herausrechnen und das Ganze in 3D.

    Das ist eine starke Herausforderung für die Auswertung von Messergebnissen

  121. Ok, das ist ein spezieller Fall. Ich sprach natürlich von ganz normalen Scans erwachsener Menschen.

    Ich sehe die mit größte Limitierung oder Unklarheit von fMRI nicht in der Kopfbewegung der Versuchsteilnehmer, sondern in der Natur des BOLD Signals. Damit hängen drei Punkte zusammen auf die ich kurz eingehe.
    1. Die langsame sampling rate bzw. Aufnahmegeschwindigkeit der Datenpunkte für einen kompletten Gehirnscan
    2. Die langsame Natur des BOLD Signals
    3. Der Ursprung bzw. die Natur des BOLD Signals selbst im Zusammenhang mit elektrophysiologischer Aktivität

    Punkt 1: Selbst wenn man heute einen relativen schnellen Scanner bzw. schnelle Scansettings für das ganze Gehirn nimmt, also beispielsweise eine sampling rate von 1 Sekunde (ein kompletter Scan/Datenpunkt pro Sekunde), dann beträgt der Nutzbare Frequenzbereich von fMRI gerade einmal ca. 0.01-0.5 Hz.
    Unter ca. 0.008 bis 0.01 Hz beginnen Störeinflüsse des Scanners, man kann diesen Frequenzbereich deshalb nicht nutzen. Bei einer sampling rate von 1 Hz (ein kompletter Gehirnscan pro Sekunde) beträgt die Nyquist frequency 0.5 Hz um Aliasingeffekte zu vermeiden.
    Das bedeutet dass selbst ein relativ schneller fMRI Scan daher nur den Frequenzbereich von 0.01-0.5 Hz in diesem Beispiel abdecken kann. (Man vergleiche dies mit EEG/MEG ~1-500 Hz oder noch höher).

    Punkt 2: Auch wenn wir heute, theoretisch gesprochen, Scanner aus ferner Zukunft hätten die eine Kopfmatrix bzw. das ganze Gehirn 100x pro Sekunde scannen könnten (100 Hz), so verbliebe die langsame Natur des BOLD Signals selbst (ca. 5-9 Sekunden bis es sein Maximum erreicht und ca. 16 Sekunden bis der undershoot deutlich überwunden ist). Eine zeitliche Limitierung des BOLD Signals bleibt daher auch mit einer sehr schnellen sampling rate bzw. Aufnahmegeschwindigkeit des Scanners nach wie vor bestehen.

    Punkt 3: Mit welcher elektrophysiologischen Aktivität das BOLD Signal wirklich zusammenhängt ist unklar. Dazu gibt es unendlich viele Studien mit unterschiedlichen Studienergebnissen. Nikos Logothetis hatte bereits vor langer Zeit gezeigt dass das BOLD Signal am besten mit local field potentials (LFPs) der elektrophysiologischen Aktivität korreliert.
    Die Frage mit welchem Frequenzbereich der elektrophysiologischen Aktivität wiederum der Frequenzbereich des BOLD Signals korreliert ist weiterhin unklar und hängt auch von vielen Faktoren ab. Manche Studien zeigten dass das BOLD Signal mit elektrophysiologischer Gamma Aktivität im Bereich von ca. 30-200 Hz zusammenhängt; andere Studien verweisen ebenfalls auf den infra-slow Frequenzbereich von 0.01-0.1 Hz elektrophysiologischer Aktivität; wiederum andere auf eine Mixtur, etc.

    Auch die immer höheren Feldstärken (Tesla) machen das Signal nicht immer “besser. Bestimmte physiologische Störfaktoren steigen ebenfalls mit immer höheren Feldstärken übersignifikant an, auch wenn die räumliche Auflösung steigt. Je nach Untersuchungsziel kann ein Scanner mit geringerer als mit zu hoher Feldstärke sogar besser sein.

  122. @Philipp
    Ganz egal ob man bei Föten oder bei erwachsenen Menschen misst:
    Wenn das Gehirn bei der Messung bewegt wird – dann kann eine Intensitäts-Änderung von einzelnen Messwerten sowohl a) von der Bewegung wie auch b) von neuronaler Aktivität verursacht werden.
    D.h. die Aussage eines solchen Messwerts ist unklar

  123. @reutlinger: Das Ziel…

    Das Ziel der neurowissenschaftlichen Forschung ist ziemlich klar und verändert sich nicht.

    Oh, was denn? Jetzt bin ich aber gespannt.

    Mal am Beispiel Bewusstseinsforschung, die in den letzten 20 bis 30 Jahren ja sehr viel Aufmerksamkeit (und Fördergelder) erhalten hat:

    Man sucht also das “neuronale Korrelat des Bewusstseins”. Es gibt keine Einigkeit darüber, wie man diese Frage in konkrete Forschung überträgt; die Ansätze (mehr als zehn) unterscheiden sich und führen auch zu unterschiedlichen Ergebnissen.

    Aber nehmen wir einmal an, man könnte genau sagen, welche Teile des Nervensystems welche Bewusstseinserlebnisse ermöglichen – was dann? Man könnte sie vielleicht mit Neurotechnologie manipulieren; das kann man ohne aber auch.

  124. @Philipp: BOLD

    Das sind sehr grundlegende Fragen, ja…

    …ich kannte mal eine fMRT-Forschungsgruppe, da bestand die “Methodenausbildung” darin, den Doktorandinnen und Doktoranden zu vermitteln, auf welchen Knopf sie drücken müssen und welche Parameter dafür wichtig sind. Auf die Frage nach Grundlagen kam als Antwort: “Wir sind eben Anwender.”

    Die zeitliche Verzögerung (Latenz) ist beim BOLD-Signal meiner Meinung nach nicht das große Problem. Wenn diese stabil genug ist, kann man dafür ja korrigieren…

    …das eigentliche Problem ist doch, dass sie eben nur ein sehr indirektes und grobes Maß für Zellaktivität im Gehirn ist. Das war doch von Anfang an klar – aber für die Produktivität war es eben viel nützlicher, darüber hinweg zu sehen.

  125. @Schleim
    Kritisieren ist etwas anderes als Polemisieren. Natürlich hat die Neuroforschung ein ganzes Bündel an Zielen, zuallerst das Verständnis der Lebensfunktionen, insbesondere des Menschen. Manipulation mag für einzelne Forscher außerhalb des Mainstream interessant sein. Selbstverständlich gehören gewisse Manipulationen auch zu wissenschaftlichen Experimenten. Es ist ein Charakteristikum der Forschung, mehrere Ansätze parallel zu verfolgen, besonders bei so komplexen Systemen wie dem Nervensystem. Letztlich geht es auch um die Freiheit der Forschung, begrenzt im Rahmen von Fördermitteln und staatlichen Forschungs- und Bildungsprogrammen wiederum.

  126. @Reutlinger: Neurowissenschaften

    Lebensfunktionen? Warum nur denke ich dann in erster Linie an Biologie? (Tipp: bios = Leben) Oder vielleicht noch an die Physiologie?

    Manipulation mag für einzelne Forscher außerhalb des Mainstream interessant sein. Selbstverständlich gehören gewisse Manipulationen auch zu wissenschaftlichen Experimenten.

    “Manipulieren” heißt erst einmal nur “verändern” (von manus = Hand). Bei Experimenten gibt es das nicht nur manchmal, sondern ist es sogar ein definitorisches Kriterium.

    Tipp: Nicht so weit aus dem Fenster lehnen, wenn man nicht so viel von einer Materie versteht.

  127. @Schleim
    Ihre Überheblichkeit beeindruckt mich nicht. Sie zeigt nur Ihre eigene Schwäche, indem Sie zu Ihren pauschalen Behauptungen keinerlei Belege liefern. Lebensfunktionen sind auch Denken, Wahrnehmen, Sprechen und dergleichen. Warum gibt es wohl die Psychophysiologie als eigenen Forschungs- und Wissenschaftszweig? Bezeichnend ist auch, dass die Psychologen und Psychiater zunehmend naturwissenschaftliche Methoden anwenden, Medikamente eingeschlossen. Passen Sie auf, dass Sie nicht selber aus dem Fenster fallen!

  128. @KRichard

    @Philipp
    Wenn das Gehirn bei der Messung bewegt wird – dann kann eine Intensitäts-Änderung von einzelnen Messwerten sowohl a) von der Bewegung wie auch b) von neuronaler Aktivität verursacht werden.
    D.h. die Aussage eines solchen Messwerts ist unklar

    Abend,

    was Sie schreiben ist richtig. Aber haben Sie sich einmal wirklich damit auseinandergesetzt wie die Kopfbewegung im Preprocessing erfasst und korrigiert werden kann?
    Wenn beispielsweise 6 Freiheitsgrade der Kopfbewegung erfasst werden, also 3 translational (x-, y-, z-axis) und 3 rotational (pitch, yaw, roll), dann existieren für die Kopfbewegung der Versuchsperson 6 Zeitreihen/time-series für den aufgenommenen Scan neben der Zeitreihe des BOLD Signals.

    Diese 6 Zeitreihen werden im Preprocessing für jeden Voxel für eine Korrektur passend berücksichtigt. Wenn nun einzelne Datenpunkte massiv durch Kopfbewegung, also über einen selbst gewählen Grenzwert (davon existieren verschiedene Arten), beeinträchtigt wurden, dann lassen sich diese einzelnen Datenpunkte alle zensieren/löschen. Das ist ein ganz normaler Vorgang.
    Diese Datenpunkte werden also gar nicht mehr berücksichtigt und gehen nicht in die weitere Analyse ein, da man das Ergebnis des Preprocessing für jede Person einzeln genau qualitativ überprüft. Die Software erstellt eine Übersichtsseite für jede Person die Auskunft über alle möglichen Qualitätsaspekte des Preprocessing gibt.

    Die gelöschten Datenpunkte lassen sich natürlich durch verschiedene Interpolationstechniken bei Bedarf auch ersetzen. Das habe ich ja weiter oben schon geschrieben.

    Kopfbewegungen sind ja nicht der einzige Störfaktor der vom Mensch ausgeht. Der Herzschlag sowie wie Atmung beeinflussen das BOLD Signal ebenfalls.
    Deshalb gibt es Gürtel die während des Scans den Brustkorb und damit die Atmung aufzeichen. Gleichzeitig lässt sich via Fingerklip der Puls messen. Beide Aufnahmen (Zeitreihen) können dann als physiologische Regressoren im Preprocessing ebenfalls berücksichtigt und und ihre Auswirkungen auf das BOLD Signal kompensiert werden. Ansonsten sieht man in bestimmten Frequenzbereichen nämlich die Atmung im BOLD Signal und man muss den nutzbaren Frequenbereich noch kleiner/kürzer schneiden, nämlich unterhalb des Frequenzbereichs ab der beispielsweise die Atmung und Frequenzen des Herzschlags beginnen.

    @Stephan
    Die zeitliche Verzögerung (Latenz) ist beim BOLD-Signal meiner Meinung nach nicht das große Problem. Wenn diese stabil genug ist, kann man dafür ja korrigieren…

    Es kommt darauf an was man untersuchen bzw. messen möchte. Wenn das Signal von Natur aus langsam ist, also viel langsamer als die zugrundeliegende neuronale Aktivität in diesem Fall, dann ist die langsame Natur des BOLD Signals natürlich “hinderlich”. Selbst eine extrem hohe sampling rate bzw. Aufnahmegeschwindigkeit des Scanners würde dann zumindest grundsätzlich gesehen nichts ändern. Man kommt dann eben schlechter an das was eigentlich von Interesse ist ran, nämlich die neuronale Aktivität, wie selbst von dir angemerkt. Genau so war es von mir weiter oben auch gemeint.

    Gruß

  129. @reutlinger: “Überheblichkeit”

    Bleiben Sie sachlich, wenn Sie hier diskutieren wollen, und lenken Sie nicht ständig davon ab, dass Sie sich verrannt haben.

    Kann doch jedem ‘mal passieren.

  130. @Philipp: Latenz

    Ich verstehe nicht, warum wir hier nicht auf einen gemeinsamen Nenner kommen. Deshalb will ich es noch einmal versuchen:

    Dir muss ich wohl nicht erklären, was der “initial dip” des BOLD-Signals ist, der meiner Erinnerung nach nach zwei bis drei Sekunden auftritt.

    Was ist der wesentliche Unterschied, ob es 2-3 oder 6-8 oder 15-20 Sekunden sind, wenn die Latenz stabil ist? Diese Zeitspanne kann man im Modell doch einfach abziehen.

    Das Problem ist doch vielmehr, dass die Dynamik des “Neuronenfeuerns” in diesem Signal, wenn überhaupt, nur sehr grobkörnig widergespiegelt wird.

  131. Könnte man es so zusammen fassen?
    fMRTs zeigen physiologische Veränderungen, sie zeigen aber nicht physiologische Funktionsweisen. Sie zeigen eine Veränderung an der Leber (oder am Hirn), aber nicht, wie eine Leber (oder ein Hirn) funktioniert. Erst recht zeigen sie keine Inhalte.
    Die Kopplung Mensch – Umwelt können sie nur physiologisch beschreiben, deren Nachhaltigkeit aber auch nicht. Diese Kopplung ist aber gerade inhaltlicher Natur.

  132. @Stephan

    Was ist der wesentliche Unterschied, ob es 2-3 oder 6-8 oder 15-20 Sekunden sind, wenn die Latenz stabil ist? Diese Zeitspanne kann man im Modell doch einfach abziehen.

    Ich habe deinen Beitrag nicht missverstanden, aber ich habe wohl nicht klar genug ausgedrückt worauf ich hinauswollte. Deshalb drücke ich es jetzt expliziter aus.

    Wenn ich verstehen möchte mit welchen Dynamiken das Gehirn arbeitet, dann muss ich auch alle Frequenzbereiche des Gehirns abdecken. Zumindest muss ich die Frequenzbereiche bzw. Zeitskalen abdecken die für bestimmte Funktionen, die ich verstehen oder entdecken möchte, von Relevanz sind.

    Das BOLD Signal operiert bzw. bietet aber nur einen sehr langsamen infra-slow Frequenzbereich an. Ich erfasse damit also nicht direkt schnellere Frequenzen. Der Frequenzbereich, beispielsweise wenn ich mit Variablen im Frequenzraum arbeite, ist dadurch extrem eingeschränkt.

    Das, wovon du sprichst, ist ein anderes Thema. Du sagst: Philipp, die Software kann die Latenz doch einfach weggerechnen um die BOLD Aktivierung genau auf einen Stimulus in einem Task Design zu beziehen. Richtig.
    Aber diese Verschiebung bzw. Bearbeitung der Daten ermöglicht es nicht direkt schnellere Frequenzen einzubeziehen. Das ist ein anderes Thema.

    Das bedeutet natürlich umgekehrt nicht dass der sehr langsame Frequenzbereich des BOLD Signals uninteressant ist, denn gerade die sehr langsamen Frequenzen sind beispielsweise für das Bewusstsein fundamental. Aber die schnelleren Frequenzbereiche muss dann eben das EEG und MEG abdecken. fMRI hat Vor- und Nachteile, genauso wie EEG und MEG Vor- und Nachteile aufweisen. Alles in Kombination kann uns weiterhelfen.

  133. @Philipp: Frequenzen

    Danke für die Ergänzung.

    Dann schlussfolgere ich aber, dass wir im Prinzip einer Meinung sind, wenn ich schrieb:

    Das Problem ist doch vielmehr, dass die Dynamik des “Neuronenfeuerns” in diesem Signal, wenn überhaupt, nur sehr grobkörnig widergespiegelt wird.

    Was ich hier als “Dynamik” bezeichnete, formulierst du meines Erachtens über Frequenzen. Oder ob es in einfacher Sprache auszudrücken: Von dem, was die Neuronen (und anderen Zellen) des Nervensystems “tun”, sieht man im BOLD-Signal nur einen indirekten und kleinen Ausschnitt. Das meinte ich mit “grobkörnig”.

    Stimmst du dem zu oder fehlt in dieser Schlussfolgerung etwas Wesentliches?

  134. @Stegemann: Veränderung vs. Funktion

    Ich verstehe nicht, was dieses Gegensatzpaar uns bringen soll.

    Vielmehr ist es doch so, dass man über die gemessenen Veränderungen Rückschlüsse auf die Funktion ziehen will.

    Zum Beispiel maß man in den 1990ern mit der fMRT Veränderungen im gyrus fusiformis, wenn Versuchspersonen Gesichter sahen (später auch: sich Gesichter vorstellen). Also nannte man diesen Bereich FFA, fusiform face area. Das ist ein Schluss von Veränderungen (im Blutfluss) auf Funktionen (des Gehirnbereichs).

  135. @Stephan

    Ja, wir sind (vielleicht mehr oder weniger) einer Meinung was die Begrenzungen von fMRI und des BOLD Signals angehen. Wie weit unsere Meinungen übereinstimmen oder auseinandergehen müsste man in einem persönlichen Gespräch herausfinden.

    Ich denke dass basierend auf meinen bisherigen Kommentaren auf deinem Blog klar wurde dass ich nicht naiv an die Sache herangehe und hoffe auch nicht so gewirkt zu haben.

    Neuroimaging bzw. die bildgebenden Verfahren sind ein weites Feld. Menschen haben völlig unterschiedliche Vorstellungen darüber wie das Gehirn wohl in etwa funktioniert und welche Messvariablen sinnvoll oder weniger sinvoll sind. Der fMRI Forscher A versteht gar nicht mehr wovon der fMRI Forscher B redet wenn beide an völlig anderen Themen forschen, wenn beide eine unterschiedliche Bildung aufweisen, wenn beide sich mit unterschiedlichen Themen befasst haben usw. usf.

    Für mich gibt es nicht “die” Neurowissenschaften (die häufig mit Neuroimaging gleichgesetzt werden, was natürlich auch nicht korrekt ist). Und, wie schon oben geschrieben, ist auch das Neuroimaging ein sehr breites Feld.

  136. @Balanus: Kaffeesatz

    Der Pop-Philosoph Precht hat meinem Eindruck nach ganze (Bestseller-) Bücher damit geschrieben, dass er Fragen aufwirft, ohne sie zu beantworten.

    Ich würde sagen: In bestimmten Fällen ist die fMRT nicht besser als Kaffeesatzleserei. Ein paar besonders kritische Fälle diskutierte ich hier in der Serie aufgepatst!

    Aber ich schließe nicht aus, dass es sinnvolle Beispiele für die Verwendung von fMRT gibt, wie gerade das mit der FFA. Aber auch hierfür ist interessant, wenn man sich die Daten im single subject anschaut, dass manche diesen Bereich links, andere rechts und wieder andere auf beiden Seiten zu haben scheinen.

    Das passt dann wieder zu dem Kritikpunkt, den auch Eickhoff einräumte, dass man mit den häufig verwendeten statistischen Verfahren wichtige individuelle Information verliert.

  137. @Philipp: Danke dir – hast du denn mal ein gutes Beispiel für fMRT oder wenigstens Neuroimaging, das zu deiner Meinung nach wirklich interessanten Ergebnissen geführt hat?

    P.S. Und nein, der Gedanke “naiv” kam mir bei deinen Kommentaren noch nie. Wir sollten einmal ein Buch zusammen schreiben. Ich habe da auch schon eine Idee………

  138. @Schleim:
    das meine ich nicht mit Funktionsweise, das ist für mich Kartierung (was ja auch wichtig ist). Man wird mit fMRT weder die Funktion des Hirns verstehen und schon gar nicht irgendwelche Inhalte.
    Aber ich habe auch keine Lust, über Begriffe zu diskutieren.

  139. @Stephan:
    @Philipp: Danke dir – hast du denn mal ein gutes Beispiel für fMRT oder wenigstens Neuroimaging, das zu deiner Meinung nach wirklich interessanten Ergebnissen geführt hat?

    Es gibt in fMRI/fMRT soviele Themen die untersucht werden und für die ich mich nicht interessiere, für die es aber sicherlich sehr gute Paper gibt.
    Ich konzentriere mich wiederum nur auf Studien die für mich von Interesse sind. Habe also auch nur meinen eigenen Bias…
    Reicht es wenn ich ein paar Namen von Forschern nenne die meiner Ansicht nach interessante Studien publiziert haben?

    – Enzo Tagliazucchi hat gute Paper im Bezug auf dynamische Systeme publiziert.
    – Biyu J. He (hat ihren PhD bei Marcus Raichle gemacht) hat einige gute Paper im Bezug auf scale-free activity publiziert.
    – Die Fingelkurts Brüder (Alexander und Andrew, arbeiten in Espoo, Finnland) haben mehrere interessante Paper im Bezug auf ihre Bewusstseinstheorie publiziert, auch wenn die Paper teilweise sehr theoretisch sind und mir genügend empirischen Fakten manchmal fehlen.
    – Marcus Raichle ab 2001 mit seinem default-mode network (DMN). Ich glaube Raichle wollte das DMN wirklich als default-mode verstanden haben, aber die community in cognitive neuroscience hat es eher als ein einfach neues unter vielen Netzwerken verstanden. Auch hat er die Spontanaktivität (den resting-state) wieder in das Bewusstsein der Szene geführt, obwohl das eigentlich schon Biswal et al. (1995) mit ihrer Studie taten.

    Die meisten neurowissenschaftlichen Bewusstseinstheorien heute fokussieren sich primär nach wie vor nur auf task-evoked activity, also induzierte Aktivität durch bestimmte Aufgaben/Stimuli und nicht auf die Frage wie die laufende Gehirnaktivität, die fast den gesamten Metabolismus des Gehirns beansprucht, mit eigehenden Stimuli interagiert.

  140. @ Fragliche (f)MRT-Studien?

    Hier folgt die Fortsetzung meines Kommentars von vor einigen Tagen. Es gab seither ja etliche Wortmeldungen, aber die schaue ich mir später an:

    »Mit diesem Befund [Scott Marek et al., 2022] sind auf einen Schlag die Ergebnisse von fast allen fMRT-Studien infrage gestellt «

    Marek gibt ein Beispiel für eine fMRI-basierte BWAS (brain-wide association study), nämlich die „Adolescent Brain Cognitive Development²³(ABCD) study“. Diese umfasst die Daten von 11.874 Personen aus 21 Zentren (2018 war das).

    Wenn man das umrechnet, dann lagen pro Zentrum und über die Zeit des Heranwachsens hinweg (dort oder woanders?) über 500 Jugendliche im/unterm Scanner.

    Ich glaube kaum, dass MRT- und fMRT-Scans in der Mehrzahl „infrage gestellt“ werden können (im Sinne von „insuffizient“, Fragen stellen kann man immer).

    Auch als
    » 70 Forschungsgruppen gefragt wurden, unabhängig voneinander anhand derselben fMRT-Daten neun wissenschaftliche Hypothesen zu testen «,
    und es dabei
    »oft zu unterschiedlichen Ergebnissen«
    kam, würde ich (als Fachfremder!) nicht unbedingt als eine Verschlimmerung der Situation dieses Forschungszweiges sehen.

    Ich frage mich, woran es denn nun lag, dass nicht alle Teams zum ziemlich gleichen Ergebnis gekommen sind? Haben die unterschiedlichen Teams aus den fMRI-Daten sozusagen unterschiedliche Hirn-Bildchen generiert (das technische Procedere halt), oder war vor allem die „subjektive“ psychologische Interpretation dieser Daten ausschlaggebend? Kann man sicherlich im Paper nachlesen, für einen Außenstehenden ist das eher schwierig.

    Zudem, ich hatte ja schon angemerkt, dass so ein „weiches“ Fach wie die Psychologie nicht ohne weiteres durch (relativ) „harte“ fMRT-Daten mehr „harte“ Substanz erhält*). Aber das ist jetzt nur mal so ins Blaue geschossen…

    Immerhin schreiben die Autoren aber auch:

    Nonetheless, we maintain that fMRI can provide reliable answers to scientific questions, as strongly demonstrated in the meta-analytical results across teams along with numerous large-scale studies in the literature and replication of many findings using fMRI.

    (meine Fettung)

    (Rotem B-N et al. 2020, Nature 582, 84–88.)

    Bei all diesen Äußerungen muss man aber schon auch bedenken, dass sicherlich die Mehrzahl der Autoren in diesem Bereich arbeiten und von daher womöglich doch etwas voreingenommen sind.

    Aber Voreingenommenheit ist ein Problem sowohl für Protagonisten als auch Kritiker des Neuroimaging.
    —-
    *) Unbestritten ist, dass die fMRT-Daten wesentlich unschärfer sind als zum Beispiel die Daten aus Temperaturmessungen.

  141. Hallo Philipp,
    du hast ja deinen eigenen Bewusstseinsbegriff, den ich immer noch nicht ganz verstanden habe. Was ich aber auch nicht verstehe, ist das Neue einer Bewusstseinstheorie, wie sie in den von dir zitierten Ansätzen steckt – zu ergänzen wäre noch Nordhoff.
    Grundrauschen wird durch Reize überlagert, und das in zeitlicher Dimension (worin das spezifisch räumliche besteht, ist mir unklar), und Nordhoff spricht davon, dadurch das Leib-Seele Problem zu lösen. Vielleicht bin ich zu blöd, aber darin sehe ich keine Lösung (ich sehe hierf auch keine ‘gemeinsame Währung’)
    Ich habe eher den Eindruck, dass hier wiedermal zwei verschiedenen Bedeutungen von Bewusstsein abwechselnd gebraucht werden, eine ontologische und eine neurokognitive.
    Auch das Konzept der skalenfreien Aktivität ist sehr interessant , aber was trägt es zu einem neuen Verständnis des Bewusstseins bei ?
    Wenn es hier um die Kopplung zwischen Mensch und Umwelt gehen soll dann wissen wir das allerdings schon spätestens seit Karl Marx. Zwar erfolgt die Kopplung zwischen Mensch und Umwelt auch physikalisch (zum Beispiel durch Lärm), aber in erster Linie wird z.B. Stress doch durch interaktive und kommunikative Bedeutungen übertragen und diese kann man nicht auf physikalische Reize reduzieren, wie es in diesen Versuchen ja unternommen wird. Und dass die physiologische Darstellung im Scanner Rückschlüsse auf Bedeutungen (den Inhalt von Gedanken) verbietet, wurde hier ja erörtert. Ich denke, man hat es mit einem mechanischen Detrminismus zu tun, wenn man solche (ontologischen) Schlüsse zieht.

  142. @Stegemann 02.10. 12:29

    „Hallo Philipp,
    du hast ja deinen eigenen Bewusstseinsbegriff, den ich immer noch nicht ganz verstanden habe.“

    Hier gibt es offenbar verschiedene Konzepte, wie man überhaupt Bewusstsein definiert. Einen Dualismus mit Leib-Seele-Problem kann man immerhin überwinden, indem man einfach Innensicht und Außensicht als 2 Seiten derselben Sache definiert.

    „Und dass die physiologische Darstellung im Scanner Rückschlüsse auf Bedeutungen (den Inhalt von Gedanken) verbietet, wurde hier ja erörtert.“

    Mit den fMRT-Scannern alleine wird man mit Sicherheit nicht weit kommen. Die zeitliche und vor allem räumliche Auflösung reicht hier nicht weit. In jedem registrierten Voxel werden immer noch tausende oder gar millionen (?) Nervenzellen zusammen beobachtet.

    Interessant ist wiederum, wie die einzelnen Nervenzellen konkret zusammengeschaltet sind. Hier wäre es praktisch, wenn bestimmte Verschaltungen im ganzen Gehirn immer wieder vorkommen. Wenn man die mal kennt, muss man nicht das ganze Konnektom auslesen, um Fortschritte zu machen.

    Das ist jetzt auch nur die physiologische Seite. Die psychologische Seite, in der wir uns selbst von innen beobachten können, kann nach wie vor interessant bleiben. Auch wenn wir es hier jetzt schon mit einer ziemlich unübersichtlichen Vielfalt zu tun haben.

    Wenn wir jetzt noch an Geisteswelten glauben, dann wird es einfacher. Dann kann ein immaterieller Geistesraum wichtige Funktionen übernehmen. Raum und Zeit des Bewusstseins kann dann rein geistig sein, das Gehirn muss dann nur noch die Inhalte liefern, die in diesen geistigen Bewusstseinsraum abgebildet werden. Aber immer noch bliebe es auch dann sehr spannend, wie das Gehirn seine Inhalte produziert.

    Auch wenn tatsächlich Geisteswelten mitspielen bleibt die weitere Hirnforschung hochinteressant. Das Gehirn trägt in jedem Fall maßgeblich bei.

    Ein ganz anderer Zugang wäre künstliches Bewusstsein, etwa funktionierende Systeme für selbstfahrende Autos. Wenn man das hinbekommt, kann man noch mal gucken, inwieweit wir das mit unseren Leistungen beim Autofahren vergleichen kann. Vielleicht findet man hier auch gemeinsame Prinzipien, wie natürliche und künstliche Intelligenz gleichermaßen funktionieren kann.

  143. @Wolfgang Stegemann

    Hi Wolfgang,

    ich nehme nachfolgend nur Bezug auf die Punkte im Bezug auf fMRI. Auf die Philosophie möchte ich hier nicht eingehen.

    “Grundrauschen wird durch Reize überlagert, und das in zeitlicher Dimension (worin das spezifisch räumliche besteht, ist mir unklar)”

    Ich würde die laufende Spontanaktivität des Gehirns nicht als Grundrauschen bezeichnen, da sie bereits bestimmte Dynamiken oder Prozesse aufweist die sich über zig verschiedene Variablen messen lassen. Diese Dynamiken gehen beispielsweise verloren wenn wir das Bewusstsein verlieren.

    Wie lassen sich dynamische Prozesse des Gehirns über fMRI messen?

    Stephan Schleim hat in seinem Blogbeitrag hier Bezug auf sogenannte Task Designs genommen. In solchen Scans werden den Probanden in bestimmten zeitlichen Abständen Stimuli und/oder Aufgaben während des Scans gezeigt.
    Das BOLD Signal das im Zusammenhang mit den gezeigten Stimuli/Tasks steht ist dann von Interesse und wird als “Signal” betrachtet. Die komplette restliche Aktivität, also die Aktivität zwischen den einzelnen Stimuli/Tasks (trials), wird dann wiederum nur als “Noise” betrachtet. Aber ist die Aktivität zwischen den trials wirklich Noise? Kurz gesagt: nein.

    Für die hier vorgestellten oder angerissenen Task designs lassen sich grob gesagt dann über die Differenz des ständigen “Rauschens” vs. des ganz kurzen “Signals”, letzteres im Bezug auf die trials, die bunten Aktivierungskarten des Gehirns erstellen (die bunten fMRI Bilder).

    Ich möchte nun nicht implizieren dass diese Art von Task Designs überflüssig ist. Aber was wird hier gemacht? Richtig, man wirft im Endeffekt fast die kompletten aufgenommenen Daten weg, da nur die stimulus-induzierte bzw. task-evoked Aktivität betrachtet wird, jeweils im Bezug auf kurze trials (event-related Designs). So kann man nicht erkennen welche Prozesse während des gesamten Vorgangs im Gehirn ablaufen. Man kann so beispielsweise bestimmte Netzwerke identifizieren, aber es passiert ja noch viel mehr im Gehirn als zeitlich korrelierende und statistisch übersignifikante Voxel die dann bunt aufleuchten.

    Es gibt nämlich auch die Möglichkeit den gesamten Scan als “Signal” zu betrachten und zu verarbeiten; das trifft auch auf Task Designs zu, nicht nur auf resting-state Scans (also Scans ohne Stimuli oder Tasks). Die Gehirnaktivität des gesamten Scans, oder signifikanter Längen des Scans, lässt sich hinsichtlich unendlich vieler Variablen untersuchen. Es liegt hier an der Person selbst sich mit Messvariablen zu beschäftigen und insbesondere auch Anregungen für diese aus anderen Wissenschaften zu holen. Man muss nur einmal in ein Buch über die Analyse von Zeitreihen (time-series analysis, digital signal processing, etc.) schauen um sehen welche “Welt” sich hier eröffnet.

    Philipp

  144. @Wolfgang Stegemann:

    Ich hatte noch vergessen Bezug auf deine Frage zu räumlichen Aktivitätsprofilen zu nehmen. Das ist dann auch mein letzter Beitrag in diesem Blogthema.

    Wenn es um die räumliche Lokalisation geht ist fMRI doch ausreichend. Man kann das gesamte Gehirn untersuchen, beispielsweise den cerebralen Cortex, oder bestimmte Gebiete (regions of interests – ROIs), beispielsweise ausgewählt aus bestimmten Atlanten.

    Das Standardbeispiel für räumliche Aktivitätsprofile wäre wohl functional connectivity. Natürlich behandelt functional connectivity die zeitliche Korrelation von verschiedenen time-series, beispielsweise aus mehreren Regionen. Aber gerade diese zeitliche Korrelation über die Topographie des Gehirns ändert sich doch besonders in verschiedenen Zuständen des Bewusstseins: Wachzustand, Schlaf, Anesthesie, Störungen des Bewusstseins wie minimal conscious state (MCS), unresponsive wakefulness syndrome (UWS), etc. Hier lässt sich beobachten wie sich räumliche Profile der Aktivität ausdehnen oder eher zerfallen.

    Wenn man diskutieren möchte welche Limitierungen und Möglichkeiten fMRI bietet um physiologische Aktivität des Gehirns zu messen, zu verstehen und zu interpretieren, dann ist das doch ein ganz anderes Thema als beispielsweise metaphysische Probleme aus der Philosophie des Geistes. Diese Diskussionen zu führen lohnt sich nicht, besonders nicht in einem Blogbeitrag wo sie eigentlich gar nicht Thema sind.

    Philipp

  145. Hallo Philipp,
    (auch mein letzter Beitrag)
    Ich stimme dir zu, aber es ist ja gerade Nordhoff, der die Dimension der Philosophie des Geistes ins Spiel bringt, indem er sagt, sein Ansatz löse das Leib-Seele Problem. Und hier fehlt mir der Baustein, der dies erklärt. Mir ist nämlich schleierhaft, wo sein spatio-temporal Ansatz das bewerkstelligt.

    Die Philosophie des Geistes lauert übrigens hinter jeder Ecke in Form der Fragen nach Willensfreiheit, wer trifft Entscheidungen – Physis, Geist, ICH oder sonst wer – auch wenn man den diesbezüglichen Bewusstseinsbegriff nicht mag.
    Denn diese Fragen bleiben, auch wenn man Nordhoffs Ansatz so interpretiert, dass das Grundrauschen Aktivität und Subektivität repräsentiert und Bewusstsein das (lokale und zeitliche) Aufblitzen von ‘mind’ oder ‘consciousness’ bedeutet.
    Aber dazu vielleicht irgendwann mal irgendwo mehr.
    Viele Grüße
    Wolfgang

Schreibe einen Kommentar