Entropie und Information: Treibstoff des Universums

Die dunklen Tage zwischen Wintersonnenwende und Jahreswechsel sind die Zeit der Kaminfeuer und des Feuerwerks, von Tee und Glühwein, des Rückblicks auf Nachrichten und das Jahresgeschehen, des Nachsinnens über das Leben, Möglichkeiten und Realitäten, Wertvolles und Wertloses, Gutes und Böses und das Vergehen der Zeit selbst.

Kaminfeuer: Der Tausch von Wärme und Heimeligkeit gegen die Erhöhung der Entropie des Universums.

Aus der Perspektive der Physik sind alle diese Dinge, von Feuer, Feuerwerk und Heißgetränk, über Nachrichten und Geschehen, bis hin zu Leben, Werten, Gut und Böse und der Zeit selbst untrennbar verbunden mit einem Konzept, dessen Mächtigkeit kaum überschätzt werden kann: Der Information, und ihres auf engste verwandten Gegenspielers – der Entropie. Tatsächlich sind Entropie und Information wie die zwei gegensätzlichen Gesichter eines Januskopfes, eines lachend, eines weinend – oder die zwei widersprüchlichen Temperamente des Dr. Jekyll alias Mr. Hyde.

Die abstrakte, unanschauliche Entropie ist dabei älter als die heute allgegenwärtige Information. Sie stammt aus dem 19. Jahrhundert, der großen Zeit der Dampfmaschinen, und wurde erstmals eingeführt von dem deutschen Physiker Rudolf Clausius, der 1865 schrieb [1]:

“Die Energie der Welt ist konstant. Die Entropie der Welt strebt einem Maximum zu.”

Der zweite Satz dieser Weisheit ist heute als “2. Hauptsatz der Thermodynamik” bekannt: Er beschreibt Prozesse, die nur in einer Richtung ablaufen. Warum z.B. erwärmt sich Milch, die in einen heißen Tee gegossen wird, während sich der Tee selbst etwas abkühlt? Wenn nur Energieerhaltung gelten würde, könnte das ganze auch andersherum ablaufen, die Milch würde noch kälter und der Tee noch heißer werden. Die Zunahme der Entropie aber erfordert, dass sich die Temperatur angleicht – zumindest, so lange man nicht von außen Energie aufwendet, um den Temperaturunterschied zu erhöhen. Auf diese Weise bestimmt die Entropie, was passiert, also welche Prozesse überhaupt ablaufen, und in welcher Richtung sie verlaufen.

Was Entropie wirklich ist, konnte erst der österreichische Physiker Ludwig Boltzmann entschlüsseln. Er verstand die thermodynamischen Gesetze als Folge statistischer Verteilungen der Atome und Moleküle. Temperatur ist dann nichts anderes als die durchschnittliche Energie dieser Teilchen. Dabei gilt: Wer Statistik betreibt und mit durchschnittlichen Größen arbeitet, der besitzt oder nutzt nicht die vollständige Information über den Zustand eines physikalischen Systems: Statt des Wissens über die Energie jedes einzelnen Teilchens (dem sogenannten “Mikrozustand”) ist nur die durchschnittliche Energie (der sogenannte “Makrozustand”) bekannt. Der gleiche Durchschnitt kann dabei auf viele verschiedene Weisen realisiert werden, eine Zahlenreihe mit zwei 2en hat Durchschnitt 2, genauso wie eine Zahlenreihe, die aus 1 und 3 besteht. Entropie beschreibt dabei die Anzahl der möglichen Mikrozustände in einem Makrozustand, oder genauer: Entropie ist definiert als der (normierte) Logarithmus der Zahl der Mikrozustände, die einem Makrozustand entsprechen. Da angenommen werden kann, dass alle Mikrozustände gleich wahrscheinlich sind, gilt: Die Größe der Entropie gibt somit Aufschluss darüber, wie wahrscheinlich ein Makrozustand ist. Und in physikalischen Prozessen nimmt die Entropie dann deshalb zu, weil sich der unwahrscheinlichere Makrozustand zum wahrscheinlicheren hin entwickelt.

Damit wird Entropie zu einem informationstheoretischen Konzept: Entropie ist die Information, die fehlt, um einen konkreten Mikrozustand im Makrozustand zu identifizieren. Und genau dieses Verständnis begründet die Mächtigkeit des Konzepts: Plötzlich lässt sich Entropie nicht nur auf Gase und Dampfmaschinen anwenden, sondern universell! Wobei Entropie auch eine subjektive Komponente hat: Ob ein Mikrozustand nämlich einem Makrozustand niedriger oder hoher Entropie zugeordnet wird, ist eine Frage der Definition oder des verfügbaren Wissens.

Das tut der Allgegenwart von Entropie freilich keinen Abbruch. Denn auch wenn Entropie zu einem gewissen Maß subjektiv ist, spielt unser Leben sich in Makrozuständen ab: Statt von Atomen und Elementarteilchen sprechen wir von Menschen und Wetter, von Nachrichten, Gesetzen und der Wirtschaft. Oder von Autos.

Warum zum Beispiel gehen funktionierende Autos kaputt, während kaputte Autos sich selten von selbst reparieren? Die Antwort ist: Entropie! Ein funktionierendes Auto ist eines, an dem jedes Teil an seinem Platz ist und auf vorhergesehene Weise funktioniert. Das ist auf genau eine Weise realisierbar: Der Makrozustand “heil” entspricht genau einem Mikrozustand, d.h. er hat Entropie null.

Nur der Mikrozustand oben links beschreibt ein funktionierendes Auto, alle anderen Mikrozustände entsprechen dem Makrozustand “kaputt”. Ergo: “Kaputt” ist wahrscheinlicher als “Heil”, heile Autos gehen kaputt, aber kaputte reparieren sich selten von selbst.

Ein kaputtes Auto kann dagegen auf viele Weisen kaputt sein: Vielleicht ist das linke Vorderrad lose? Im Motor hat sich eine Benzin- oder Abgasleitung gelöst? Die Windschutzscheibe ist zersplittert und liegt auf dem Asphalt? Das Steuer ist nicht mehr mit den Rädern verbunden? Alles ganz verschiedene Mikrozustände unseres Autos, die unter dem Makrozustand “kaputt” summiert werden. Also gehen Autos kaputt, weil der Makrozustand heil viel unwahrscheinlicher ist als der Makrozustand kaputt, der auf viel mehr mögliche Weisen (durch viel mehr Mikrozustände) realisiert werden kann und damit höhere Entropie hat. Und: Wer einen Haufen Schrauben, Metall und Gummi durchschüttelt, wird dabei kaum zufällig ein funktionierendes Auto erhalten. Andersherum ist es durchaus wahrscheinlich mit einem Haufen Schrauben, Metall und Gummi zu enden, wenn man sein Auto einen Abgrund herunter fährt.

Das gleiche gilt beim Würfelspiel: Beim Wurf mit zwei Würfeln ist die wahrscheinlichste Gesamt-Augenzahl die ,,Sieben”. Der Grund dafür ist nicht, dass auf dem einzelnen Würfel eine bestimmte Augenzahl wahrscheinlicher ist als eine andere, sondern, dass es mehr Möglichkeiten gibt, mit zwei Würfeln eine ,,Sieben” zu würfeln (nämlich sechs: ,,16″, ,,25″, ,,34″, ,,43″, ,,52″, ,,61″) als z.B. eine ,,Zwölf”, für die es nur eine einzige Möglichkeit gibt (nämlich ,,66″). Deshalb ist die Gesamtaugenzahl ,,Sieben” genau sechs mal so wahrscheinlich wie die ,,Zwölf”. Hier ist die Gesamtaugenzahl der Makrozustand: der Zustand der Würfel, den wir durch die für uns interessanten (oder wahrnehmbaren bzw. experimentell zugänglichen) Eigenschaften charakterisieren. Der Makrozustand ,,Sieben” entspricht den sechs Mikrozuständen ,,16″, ,,25″, ,,34″, ,,43″, ,,52″, ,,61″, der Makrozustand ,Zwölf” entspricht dem Mikrozustand ,,66″. Weil es viel wahrscheinlicher, aus einer ,,Zwölf” im Würfelbecher durch Würfeln eine ,,Sieben” zu erhalten als umgekehrt, nimmt die Entropie normalerweise zu. Niedrige Entropie entspricht dabei Ordnung (beide Würfel ordentlich auf die gleiche Seite gedreht oder jede Schraube im Auto an seinem Platz), hohe Entropie Unordnung (die Würfel in einem beliebigem Zustand, den sie mit hoher Wahrscheinlichkeit annehmen).

Und daraus folgt auch der Zusammenhang zwischen Entropie und Energie: um einen hochentropischen chaotischen Zustand in einen geordneten niederentropischen Zustand zu verwandeln (z.B. ein Zimmer aufzuräumen oder ein Auto zu reparieren oder bei einer großen Anzahl von Würfeln die Sechsen nach oben zu drehen) muss man Energie aufwenden, und das heißt immer, niederentropische Energie in höherentropische Energie verwandeln. Wenn man z.B. den Kamin anfeuert und die Wohnung heizt, also den Temperaturunterschied zwischen kalter Winternacht und heimeliger Stube erhöht, nimmt die Entropie in Stube und Winternacht zwar ab, dafür verbrennt man aber Holz,  Öl oder Kohle, und verteilt die Energie dieser fossilen Brennstoffe, die in einer geordneten Kohlenstoffstruktur gespeichert war, durch Vermischung und Verbindung mit der umgebenen Luft: die Gesamtentropie nimmt zu. Genauso explodiert Feuerwerk, weil dadurch die Entropie zunimmt.

Niedrige Entropie oder Ordnung ist also die Essenz von Ressourcen, und das Verschwenden von Ressourcen ist immer mit Entropiezunahme verbunden: Kohle, Gas, Holz, Öl und Schwarzpulver haben niedrige Entropie, warme Luft und Asche hohe.

Damit ist die Entropie auch untrennbar mit der Ethik verknüpft: Denn zweifellos gedeiht Böses besonders gut in Konflikten um Ressourcen. Die Verschwendung von Ressourcen ist somit zweifellos böse, während – frei nach Wilhelm Busch: “Das Gute – dieser Satz steht fest – ist stets das Böse, was man lässt”, die Vermeidung sinnloser Entropieerhöhung gut sein muss. Und die meisten  Verbrechen bis hin zum Mord sind durch Entropieerhöhung charakterisiert:

Denn genauso wie ,,Heil sein” niedrige Entropie hat, ,,kaputt sein” hohe, gilt: Leben hat niedrige Entropie, tot sein hohe (ganz einfach weil es viel weniger Möglichkeiten gibt, lebendig zu sein – also so ziemlich alle Organe an ihrem Platz und intakt – als tot (z.B. Kopf abgerissen, Herz rausgerissen, Blut aus dem Körper geflossen, lebenswichtige Adern verstopft usw.). Geordnete Strukturen wie das Leben funktionieren nur, weil biologische Organismen durch die Umwandlung niederentropischer Energie – z.B. in Form von Nahrung – in hochentropische Wärme umwandeln. Und fast jede Form der Entstehung von Nahrung beruht in letzter Konsequenz auf der Photosynthese. Leben nutzt also typischerweise letztlich die Energiereserven der Sonne (eine mögliche alternative Energiequelle ist der Vulkanismus im Erdinnern). Als der legendäre Quantenphysik-Pionier Erwin Schrödinger 1944 in seinem Buch “Was ist Leben?” [2] über die Grundlagen der Biologie nachdachte und damit entscheidend Forscher wie James Watson und Francis Crick bei der Entwicklung der Molekularbiologie inspirierte, sprach er von biologischer Information als “Negentropie”: negativer Entropie.

Und auch diese Vorstellung lässt sich verallgemeinern: Als vier Jahre später Claude Shannon, der Begründer der Informationstheorie, nach einem Namen für den Informationsverlust bei der Datenübertragung in Telegrafenleitungen suchte, riet ihm John von Neumann, Universalgenie, Quanten-, Bomben-, Computer- und Spieltheorie-Pionier sowie Autor der “Mathematischen Grundlagen der Quantenmechanik”:

“Du solltest es Entropie nennen, aus zwei Gründen: Erstens wurde das Konzept in der statistischen Mechanik unter diesem Namen benutzt. Es hat also schon einen Namen. Und zweitens und wichtiger, niemand weiß, was Entropie wirklich ist, also wirst du in einer Diskussion immer einen Vorteil haben.” 

Shannon verstand Entropie also als Maß für Information und verband so Thermodynamik mit Informationstheorie [3]. Wenn die Entropie eines Makrozustands charakterisiert ist durch die Anzahl möglicher Mikrozustände, dann entspricht die Entropie der Information, die fehlt, um den entsprechenden Mikrozustand vollständig zu beschreiben. Information ist dann die Differenz der Entropie eines bestimmten Makrozustands und der Entropie des Makrozustands mit der größtmöglichen Entropie. Entropie wird damit gleichsam fehlende Information, und damit zum Gegenspieler des Begriffs, der für rationale Entscheidungen, politische Transparenz und Demokratie unabdingbar ist.

Letztlich ist die niedrige Entropie am Anfang des Universums auch die Vorbedingung dafür, dass sich überhaupt Dinge in eine Richtung entwickeln (nämlich in Richtung der Entropiezunahme), dass wir Ressourcen nutzen können und dass geordnete Strukturen und Leben überhaupt möglich sind.

Ja, dafür, dass überhaupt etwas passiert! Ohne niedrige Entropie am Anfang des Universums gäbe es nur einen chaotisch durchmischten Einheitsbrei von Teilchen. Oder wie der US-Kosmologe Sean Carroll es ausgedruckt: ,,Wir surfen alle auf einer Welle ansteigender Entropie” [4].

Das Universum, wie wir es kennen (im Hubble Ultra Deep Field). Letztlich sind alle Strukturen im Kosmos nur eine Konsequenz der niedrigen Entropie am Anbeginn der Zeit (Quelle: NASA).

Und vielleicht steckt die Entropie sogar hinter der Zeit selbst: Was wir im täglichen Leben als Zeit erleben, ist eigentlich die Zunahme von Entropie. Das ist leicht zu verstehen, wenn man Filme vorwärts und rückwärts schaut: Sieht man in einem Film eine zersprungene Kaffeetasse auf dem Fussboden, die sich mit Hilfe der durch Abkühlung der Luft in ihrer Umgebung gewonnenen Energie zusammensetzt, dabei den verflossenen Kaffee aufsammelt und auf den Tisch hüpft, dann ist man sicher, den Film im Rücklauf zu schauen. Viele Physiker glauben deshalb, dass Zeit selbst nur eine Beschreibung der Zunahme von Entropie ist.

Ja, selbst was wir als Realität betrachten, unsere Alltagswelt, in der sich Dinge an bestimmten Orten befinden und konkrete Eigenschaften haben, hängt mit Entropie zusammen. Denn diese Alltagswelt funktioniert nach den Gesetzen der klassischen Physik, und die ist nur ein Grenzfall der Quantenmechanik. In der Quantenmechanik dagegen hat ein physikalisches System alle Eigenschaften, die physikalisch möglich sind, bis eine Beobachtung oder Messung entscheidet, welche dieser Eigenschaften “realisiert” wird. Dieser Messprozess lässt sich nun mit den Gesetzen der Quantenphysik beschreiben, als ein Phänomen, das den Namen Dekohärenz trägt und 1970 von dem Heidelberger Physiker H. Dieter Zeh entdeckt wurde. Dekohärenz beschreibt, wie durch die Wechselwirkung beim Messprozess Information in die Umgebung von System und Messapparat abgeleitet wird. Da diese Information für einen lokalen Beobachter verloren ist, kann man zeigen, dass der Beobachter nur noch eine der möglichen Realitäten wahrnehmen kann, während die anderen Realitäten den unbeobachtbaren Parralleluniversen von Hugh Everetts Vieler-Welten-Interpretation entsprechen. Der Informationsverlust beim Messprozess, der zur Enstehung einer klassischen Realität führt, ist dabei gleichbedeutend mit Entropiezunahme, der sogenannten Von-Neumann-Entropie.

Damit werden Zeit und Realität selbst freilich zu Phänomenen, die von unserer Perspektive abhängen und keine fundamentalen Eigenschaften des Universums selbst sind. Philosophen nennen solche Konzepte emergent. Ob das wirklich so ist, ist bisher offen. Zweifellos aber bestimmen Entropie und Information die Welt, in der wir leben. Und bilden gleichfalls eine Klammer zwischen uns und der Welt. Sie beschreiben die Verbindung zwischen dem fundamentalen Universum und unserer Perspektive darauf. Wir sind gleichsam Teil des Universums und bestimmen mit unserer Perspektive ganz entscheidend, wie wir die Welt erleben. Und:

Die Welt ist wunderbar!

[1] Claus Kiefer: Der Quantenkosmos – von der zeitlosen Welt zum expandierenden Universum, S.Fischer-Verlag, Frankfurt am Main 2008.

[2] Erwin Schrödinger: Was ist Leben?, Piper, München 1987.

[3] James Gleick: The Information, HarperCollins, London 2011.

[4] Sean Carroll: From Eternity to Here – The quest for the ultimate theory of Time, Penguin Books, New York 2010.

Heinrich Päs ist Professor für Theoretische Physik an der TU Dortmund und forscht über Neutrinos, Teilchenphysik und Kosmologie. Er hat sich aber auch schon als Zeitmaschinenentwickler und Philosoph versucht, ein Buch ("Neutrinos - Die perfekte Welle") geschrieben und mehrere Science-Fiction Romane inspiriert. Er war Postdoc in Hawaii. Wenn er nicht forscht oder liest ist er gern in der Natur, beim Segeln, Surfen, Wandern, Skifahren oder Laufen. Und noch mehr als die Welt liebt er seine Frau Sara.

210 Kommentare Schreibe einen Kommentar

  1. Sehr schöner Artikel!

    Bei solchen Gedanken komme ich immer wieder zu der (kosmologischen) Frage, ob nicht der Zustand der totalen Unordnung gleichzeitig die totale Ordnung bedeutet?

    Ist es dann nicht wie bei der Tangensfunktion, dass die Entropie bis ins Unendliche wächst, direkt danach aber aus “minus unendlich”, also absoluter Ordnung, wieder auftaucht?

    Dann wäre dieser Zustand der absoluten Entropie also eine Singularität.

    Und wie genau sieht dieser Zustand (kurz zuvor und kurz danach) aus? Ist alles gleichmässig verteilt oder bilden sich irgendwelche Strukturen? Oder fällt dabei alles in einen einzigen Punkt wieder zusammen?

    • Danke für das Lob. Aber nein, wenn ich Sie richtig verstehe: Sobald Makrozustände definiert sind, ist die Entropie objektiv festgelegt. Ich denke, dass die Identifikation von Entropie mit „Ordnung“ (die ja sehr viel subjektiver verstanden kann) hier eher verwirrt.

  2. Die Aussage “Und jede Form der Entstehung von Nahrung beruht in letzter Konsequenz auf der Photosynthese.” ist nicht richtig, seit dem wir wissen, dass es z.Bsp. an sog. “scharzen Rauchern” auch Biotope ganz ohne Photosythese existieren. Man kann auch diverse noch heute existierende Bakterienteppiche zählen. Und noch an Nahrung denken, die es gab, bevor unsere Atmosphäre viel Sauerstoff enthielt…

  3. War ja gruselig wie zu Halloween, ist doch aber Weihnachten 😉
    Hmm, was war zuerst (Gesetz der) Zeit oder (Gesetz der) Entropie oder umgekehrt.
    Manche meinen, Gesetze selbst würden evolvieren, mit der Zeit oder wegen Entropie?
    Ich mag die Entropie nicht, nur relativ oder als Differenz, aber absolut “Henne/Ei”.

    Dann mal Guten Rutsch in die nächste Entropie

    • Es gab mal eine Zeit, da mochte ich die Entropie auch nicht. Inzwischen bin ich allerdings überzeugt, dass Vieles, das uns als fundamental erscheint letztlich von unserer Perspektive auf die Welt abhängt. Und dann kopmmt man an der Entropie nicht mehr vorbei…

  4. Wie geht es zusammen, dass die Entropie erst den Zeitpfeil bestimmen soll, dieser Zeitpfeil aber implizit bereits in der zeitabhängigen Schrödingergleichung vorkommt und die Schrödingergleichung in sich geschlossene, nicht mit der Umgebung wechselwirkende Quantenzustände beschreibt?
    Gefühlsmässig passt mir die Vorstellung, dass die Zeitrichtung allein durch die Zunahme der Entropie, durch zunehmende Unordnung entstehen soll, nicht besonders. Andererseits muss man natürlich zugeben, dass gerade chemische und biologische Vorgänge oft mit vom Gleichgewicht weit entfernten thermodynamischen Prozessen verbunden sind und dass bei diesen Prozessen die Entropie (genau wie die Zeit) unzweifelhaft zunimmt. Doch das könnte auch nur eine Korrelation, keine Verursachung sein. Mit andern Worten: nur weil Entropie und Zeit immer zusammen zunehmen heisst das noch lange nicht, dass die Entropie und der Zeitpfeil ursächlich miteinander verknüpft sind und die Entropiezunahme die Zeit in eine Richtung laufen lässt.

    • Vielleicht ist Entropie wie ein Klapperstorch, dann kommen die Babies 😉
      noch nicht mal Korrelation, sondern nur seltsame immer passende Koinzidenz.

    • @Martin Holzherr: Richtig, bisher ist es eine offene Frage, ob Entropiezunahme die Ursache oder eine Konsequenz des Zeitpfeils ist. Erstere Vorstellung würde aber immerhin erklären, warum die Entropie in der Frühphase des Universums so klein war, da dann „Frühphase“ und „niedrige Entropie“ das gleiche bedeuten. Ihr Argument mit der Schrödinger-Gleichung hat den Haken, dass die Schrödinger-Gleichung (und ihre speziell-relativistischen Verallgemeinerungen) die Gravitation nicht berücksichtigt. Wenn man in der kanonischen Quantengravitation die Hamiltonsche Zwangsbedingung der Allgemeinen Relativitätstheorie quantisiert, kommt man dagegen auf die Wheeler-DeWitt-Gleichung, die tatsächlich wie eine Schrödingergleichung ohne Zeitentwicklung aussieht: H psi = 0. Interpretiert man psi als „Wellenfunktion des Universums“ beschreibt das dann eine zeitlose Welt. Das wird sehr schön bei Claus Kiefer oder H.D. Zeh erklärt.

  5. Jedes Atom im Universum ist ein bewegtes Objekt und könnte somit auch als Maschine betrachtet werden – die eine Energie(X) in ihrem Betrieb abgibt (wenn sie energieärmer wird).
    Nehmen wir theoretisch an, dass diese ´Energie(X)´ eine winzige abstoßende Wirkung hat; dann könnte dies eine Ursache dafür sein, wieso das Universum sich mit zunehmender Geschwindigkeit ausbreitet.
    Wir hätten mit solch einer abstoßenden Wirkung eine ´gleichmäßig beschleunigte Bewegung´ – die, wenn sie langfristig erfolgt, zu einer immer höheren Geschwindigkeit führt.

    Mit dieser Überlegung könnte man eine zunehmende Expansion des Universums erklären.

    • Zu:
      Karl Bednarik
      31. Dezember 2017 @ 09:52

      Wenn das Universum beliebig lange expandiert, beliebig groß wird, und praktisch im thermischen Gleichgewicht angekommen ist, dann sind die Boltzmann-Gehirne die wahrscheinlichste Existenzform.
      (Ende des Zitats)

      Der Ausdruck “beliebig lange” ist eine ungeheuer scharfe Angabe für einen konkreten Zeitpunkt bzw für die Angabe einer Zeitdauer. )-:

  6. Karl Bednarik,
    das Löschen eines bits…….
    damit schaffen Sie die Verbindung von Idealismus mit Materialismus.
    Das Löschen einer Information setzt Energie frei. (war das so gemeint?)
    Damit bekommen Bücher eine messbare Größe.

  7. Information ist eine menschliche Interpretation der Welt. Es gibt viele menschliche Interpretationen der Welt, z.B. die theologische. Insofern kann man Information keinesfalls mit der Welt gleichsetzen. Information ist ein gedankliches Konzept des Menschen als informationserkennendes System. Wenn das informationserkennende System bestimmt, was Information ist, dann ist das offensichtlich eine Tautologie.

    Andererseits besteht der Mensch aus derselben Materie wie die Welt und wechselwirkt mit der physikalischen Welt. Wahrnehmungen als Grundlage von Informationen sind verkettete Abbildungen von Mustern oder Strukturen der Außenwelt auf Strukturen unserer Innenwelt. Insofern gibt es einen Zusammenhang von Materie und Information. Diesen Zusammenhang versucht die Naturwissenschaft zu ergründen, indem wir Erkenntnis über die Welt zu gewinnen versuchen.

    Es war I.Kant, der den Zusammenhang näher entschlüsselt hat, indem er zunächst die Bedingungen der reinen Vernunft ergründet hat. Da er die Evolutionstheorie als biologische Grundlage der Erkenntnisvermögen noch nicht kannte, musste es Stückwerk bleiben. Die Wissenschaftsphilosophie führt diese Aufgabe weiter. Aspekte davon sind die Wahrheitstheorien und die verschiedenen Varianten des Realismus/Antirealismus.

    Ein “S” ist in unserer Sprachkultur ein Buchstabe des Alphabets, als Verkehrszeichen könnte es Schleudergefahr bedeuten und in einer anderen Kultur könnte es Symbol für Schlangen sein, z.B. vor einem vietnamesischen Restaurant. Information ist also nicht gleich Information. Man muss unterscheiden zwischen der Semiotik und der Semantik von Information. Muster, Strukturen, Ordnungen oder semiotische Zeichen können vom (gesunden!) Menschen objektiv erkannt werden, ihre Bedeutung ist in aller Regel aber subjektiv.

    Biologisch gesehen wird Information “erzeugt”, indem Rezeptormoleküle mit Transmittermolekülen zwischen Nervenzellen verglichen werden. Dabei wird im Einzelfall eine binäre (irreversible) Entscheidung getroffen, passt oder passt nicht. Entsprechend sind dann die chemischen Reaktionen. Das ist selbstverständlich nur ein Glied in der Kette der informationsverarbeitenden Schritte des Bewusstseins.

    Wir lernen die grundlegenden Informationen im Kindesalter. Zum Beispiel muss man erst die Sprache und die Bedeutung von Zahlen lernen, um überhaupt mit Informationen umgehen zu können. Das nenne ich Präformation, die implizit oder unbewusst immer enthalten ist.

    In der Wissenschaft ist der Informationsbegriff also mit größter Vorsicht zu gebrauchen. Nicht umsonst erfreut er sich bei Esoterikern umso größerer Beliebtheit. Man denke nur an die Homöopathie oder Astrologie, aber eben auch an Spekulationen der Kosmologie.

    • @Anton Reutlinger:

      Ein “S” ist in unserer Sprachkultur ein Buchstabe des Alphabets, als Verkehrszeichen könnte es Schleudergefahr bedeuten und in einer anderen Kultur könnte es Symbol für Schlangen sein, z.B. vor einem vietnamesischen Restaurant. Information ist also nicht gleich Information.

      Hier muss man aufpassen, zwischen Information und ihrer Darstellung zu unterscheiden. Auch die Zahl eins wird arabisch „1“ und römisch „I“ geschrieben, bedeutet aber in beiden Fällen das gleiche.

  8. AR,
    In der Informatik wird ja Information rein quantitativ betrachtet, mit der Maßeinheit 1 bit. Das ist die Möglichkeit aus 2 Zuständen eine wählen zu können.
    Der Informationsbegriff der Umgangssprache meint eigentlich eine Kombination von Zeichen und Bedeutung.
    Wenn ich eine Schrift einer untergegangenen Kultur habe, dann habe ich die Zeichen, kenne aber deren Bedeutung nicht.
    Die Bedeutung kann ich nicht materialisieren, die existiert nur in unserem Kopf. Wenn der letzte Mensch gestorben ist, verlieren alle Zeichen ihren Sinn. Damit ist die Bedeutungslehre eindeutig nicht materiell, rein geistig.

    Herr Päs,
    die entgültige Trennung zwischen Information und Materie findet erst statt, wenn es keinen Menschen (Tiere) auch Pflanzen mehr gibt , die über Zeichen, Markierungen, Marker miteinander kommunizieren. Die Information ist an das “Leben” gekoppelt. Viren nehmen da eine Sonderstellung ein. Sie tragen Information, können sie selbst aber nicht verarbeiten. Gewagte These : Leben = Information.
    Dann beinhaltet die Information des Lebens wie man die Entropie erniedrigt.
    Guten Rutsch!

    • die entgültige Trennung zwischen Information und Materie findet erst statt, wenn es keinen Menschen (Tiere) auch Pflanzen mehr gibt , die über Zeichen, Markierungen, Marker miteinander kommunizieren. Die Information ist an das “Leben” gekoppelt. Viren nehmen da eine Sonderstellung ein. Sie tragen Information, können sie selbst aber nicht verarbeiten.

      Das habe ich nicht wirklich verstanden. Auch Computer und andere Maschinen „kommunizieren“ über Information.

      Gewagte These : Leben = Information.

      Gar nicht so gewagt. Dass Leben viel mit Informationsverarbeitung zu tun hat, ist sicher unbestritten. Eine wichtige Rolle spielt dabei auch die Möglichkeit der Reproduktion, siehe z.B. Künstliches Leben

  9. Information und Hylemorphismus:
    Die Information ist die räumliche oder zeitliche Anordnung von Materie oder Energie.
    Die gleiche Anordnung kann von ganz unterschiedlicher Materie oder Energie eingenommen werden.
    Ohne Materie oder Energie gibt es nichts zum Anordnen.

  10. Natürlich gab es viele Versuche, aus einem einzigen Wärmereservoir geordnete mechanische Energie zu gewinnen.
    In den Szilard-Maschinen mit einem Kolben, und mit nur einem einzigen Molekül, benötigt der Maxwellsche Dämon Informationen über die Position des Moleküls, um die Ventile richtig zu steuern.
    Spektrum der Wissenschaft, Januar 1988, Seiten 48-55.
    Wenn man auf die Ventile, die Information, und den Maxwellschen Dämon ganz verzichtet, und zwei Überströmkanäle wie in einem alten Zweitaktmotor einbaut, dann kommt man zu der folgenden Animation, aufgebaut aus einem Graphen-Molekül und einem Xenon-Atom.
    Dieses Gerät ist aber nur als Animation lauffähig, weil es einen versteckten Fehler enthält.
    http://members.chello.at/karl.bednarik/AEE-1A.gif

      • Ich finde die Kommentare von Karl Bednarik schon interessant. Auch wenn ich nicht sicher bin, ob ich alles verstehe. Wird hier sofort mit Löschen gedroht, nur weil jemand etwas postet, was jemand anderes eventuell nicht versteht?

        • Policy ist: Ich werde also in Zukunft alle Kommentare, deren Sinn oder Bezug zum Post sich mir nicht erschließt, kommentarlos löschen. Dazu gehören insbesondere Kommentare, bei denen ich den Eindruck habe, dass sie den Post nur zum Anlass nehmen, eine unabhängig verfolgte Agenda zu propagieren wie “die Relativitätstheorie/LIGO/CMB-Experimente ist/sind falsch” oder “Wissenschaftlern kann man nicht trauen”.

          Ziel ist, dass die Kommentarspalte nicht missbraucht wird, hier sein eigenes Steckenpferd zu bewerben, sondern genutzt wird, die im Blog angesprochenen Themen zu diskutieren.

        • “Wird hier sofort mit Löschen gedroht, nur weil jemand etwas postet, was jemand anderes eventuell nicht versteht?” (Zitatende)

          Ja, leider sieht es manchmal so aus. Gelegentlich schrillt schon beim geringsten Geruch nach (angeblicher) Esoterik der Feuermelder. Ist aber interessant, da dies auch manche Rückschlüsse über die “Denkrahmen” der jeweiligen Blogbetreiber zulässt. Das sist aber kein Argument, das Personen betrifft, sondern deren Einstellungen zur Sache bzw. deren Ideologie. Und da Gedankengebäude keine Personenrechte besitzen (können), dürfte man diese sogar unflätig beschimpfen. Sogar nach dem 01.01.2018.

  11. AR,
    “Wenn das informationserkennende System bestimmt, was Information ist, dann ist das offensichtlich eine Tautologie.”

    Das wäre es nur, wenn wir statisch denken. Tatsächlich kommen ja mit jeder Information neue hinzu. Wenn Sherlock Holmes an der Tiefe der Schuhabdrücke erkennt, dass da ein schwergewichtiger Mann zugegen gewesen sein muss, dann taucht gleich die Frage auf, wie kommt ein Mann in das Frauenkloster?

    ” Man muss unterscheiden zwischen der Semiotik und der Semantik von Information. Muster, Strukturen, Ordnungen oder semiotische Zeichen können vom (gesunden!) Menschen objektiv erkannt werden, ihre Bedeutung ist in aller Regel aber subjektiv.
    Diese geniale Einsicht lässt sich auf alles Materielle ausweiten. Alles , was es gibt, trägt Information in sich. Die zu erkennen ist ja die Aufgabe der Naturwissenschaften. Die deutung ist aber nicht subjektiv, sondern objektiv. Denken Sie nur an Spektrallinien des Lichtes. Wer hatte früher gedacht, dass sie uns sagen, wie die Atmosphäre des Planeten aufgebaut ist.

    Noch weiter gedacht, wenn alles, was ist eine Information enthält, was gibt es dann, das keine Information enthält?

    • Die Anordnung der Materie in der Außenwelt wird durch die Anordnung der Nervensignale im Gehirn mehr oder weniger genau abgebildet.
      Das Koordinatensystem des Gehirns ist zwar ziemlich stark verzerrt, aber die Relationen zwischen den dargestellten Objekten bleiben mehr oder weniger genau erhalten.
      Das verhindert in vielen Fällen, dass wir gegen eine Wand laufen.
      Ohne Gehirn und Nervensignale können keine Informationen dargestellt werden.

  12. KB,
    Ohne die Nervenbahnen geht es nicht. Um jetzt mal das Wort Information zu gebrauchen, die Information läuft durch die Nervenbahn, die Deutung der Information ist aber rein geistiger Natur.
    Wo verorten Sie die Phantasie, geniale Gedanken, die noch nie von jemand gedacht wurden, die Fähigkeiten eines Komponisten? Wie ist es möglich, etwas zu denken, das es materiell gesehen nicht gibt, z.B. alle religiösen Meinungen und Gefühle?

    • Die innere Abbildung der Außenwelt, also das Weltmodell, ermöglicht Experimente mit den darin dargestellten Objekten.
      Deshalb weiss man schon vorher, dass man nicht durch eine Wand laufen kann.
      Beim Erfinden kombiniert man die dargestellten Objekte neu, und stellt dann oft fest, dass der gleiche Vorgang in der Außenwelt leider nicht funktioniert.
      Beim Träumen läuft das innere Weltmodell gewissermaßen im Leerlauf.
      Gefühle und ähnliche Zustände kommen aus angeborenen, anerzogenen, und erlernten Informationen.
      Zum Beispiel verhindert der angeborene Schmerz zumeist, dass wir uns selbst verletzen.
      Natürlich kann man die Experimente auch in der Außenwelt durchführen:
      https://www.youtube.com/watch?v=YMTGP9fM04A

  13. @lore ipsum;
    Wenn man aus einer Aussage A durch logische Deduktion eine Aussage B ableiten kann, dann ist das keine neue und zusätzliche Information, oder mit andern Worten, es ist keine Nachricht. Die Information von B ist dann bereits in der Aussage A enthalten.

    Mit subjektiv meinte ich nicht individuelle Subjektivität, sondern bezogen auf Gruppen, Gesellschaften oder Kulturen, insbesondere Sprachgemeinschaften. Die christliche oder die westliche Kultur deutet manche Informationen anders als andere Kulturen.

    Es gibt Dinge, die keine verwertbare(!) Information enthalten. Ein Haufen Sand beispielsweise. Natürlich kann auch die Größe des Sandhaufens oder die Art der Sandkörner noch eine Information sein. Am wenigsten Information findet sich selbstverständlich im leeren und finsteren Weltall.

    Eine Anordnung kann unvollständig sein. Manchmal ist die Unvollständigkeit erkennbar, z.B. fehlende Messwerte in einer Messreihe, manchmal nicht. Unvollständige Ordnungen werden gerne als Rätselaufgaben gestellt, die dann vervollständigt werden sollen. Das kann bedeuten, dass objektiv Information fehlt, es kann auch bedeuten, dass Information nur nicht gegenwärtig ist. Bei fehlender Information könnten die Rätselaufgaben nicht gelöst werden.

    Fehlende Information bezeichne ich als Disformation. Man kann sie mit Entropie gleichsetzen, wie Herr Päs es gemacht hat. Dabei muss man darauf achten, ob sie nicht doch irgendwo schon versteckt enthalten ist. Man denke hier an Maxwells Dämon. Beispielsweise enthält eine Feder, die eine Klappe oder ein Ventil steuert, die Information für die Durchlässigkeit der Klappe. Die Klappe entspricht dem Filter als kybernetisches Instrument.

  14. AR,
    sehr ausführlich und logisch. Ich wollte auf etwa anderes hinaus. Information nicht nur für Menschen , sondern Information als Eigenschaft der Materie. Wenn ein Proton eine positive Ladung trägt, dann ist das sowohl eine Eigenschaft, für die menschliche Wahrnehmung eine Information. Beides ist aber letzlich das gleiche, nämlich die Tatsache , das Proton ist positiv geladen.
    Also zielt Eigenschaft und Information auf das Gleiche.
    Daraus folgere ich, dass das Streben nach Erkenntnis als Suche nach Eigenschaften gedeutet werden kann, als auch die Suche nach Informationen. Klingt etwas sophistisch, ist für mich aber grundlegend.
    Damit materialisiere ich die Information und binde sie an ein Objekt.
    Wie verfahre ich jetzt mit Informationen, die an mehrere Objekte gebunden sind, z.B. der Anblick des Sternenhimmels und damit meine ich die Mustererkennung. Der eine sieht das , der andere sieht das. Keine der beiden Deutungen erheben den Anspruch auf Allgemeingültigkeit.
    Jetzt mal wieder zurück zur Logik. Wenn also der Fußabdruck bereits impliziert, dass da eine Person gelaufen sein muss, dann impliziert der Anblick des Sternenhimmels, dass da etwas wirksam war, dass die Sterne dahin plaziert hat.
    Der eine sagt, der Urknall ist daran schuld, der andere sagt, die Natur ist daran schuld, der dritte sagt, Gott hat das Weltall erschaffen usw.
    Jede Deutung kann nur teilweise auf innere Widersprüche untersucht werden. Den letzten Grund für das vorhandensein der Sterne kann niemand beweisen. Und wer sich da auf die Position des Urknalls zurückzieht, der verschiebt nur den Torpfosten, weil der die Frage nach der Herkunft des Urknalls nicht beantworten will.
    Und jetzt zurück zum Begriffspaar Eigenschaft und Information. Sind die beiden Begriffe noch brauchbar, wenn man nach dem letzten Grund fragt? Welcher begriff ist besser geeignet?

    • @lore ipsum;
      Es ist unsere millionenfache Erfahrung, dass ein Fußabdruck von einer Person stammt. Er könnte aber auch gefälscht sein. Information bezieht sich auf Eigenschaften von Materie, ist aber nicht mit ihr identisch. Auf die gruppenbezogene Bedeutung von Information habe ich schon hingewiesen. Die Vermögen der Wahrnehmung sind uns von der Evolution gegeben, aber sie sind in jedem Menschen unterschiedlich, Beispiel Brillenträger. Man muss bei der Information also höllisch aufpassen und nicht zu viel hinein interpretieren. Die Philosophie beschäftigt sich spätestens seit der Aufklärung mit solchen Problemen.

      Auch das Kausalprinzip bringt viele Probleme mit sich. Wenn man noch keinen schwarzen Schwan gesehen hat, bedeutet es nicht, dass es keine gibt. Die Eigenschaft der Notwendigkeit spielt hier eine große Rolle. Wenn B aus A folgt, bedeutet es nicht, dass immer A gilt, wenn B beobachtet wird, siehe der gefälschte Fußabdruck. Betrüger sind bekanntlich sehr einfallsreich! Man denke auch an die beeindruckenden Vorstellungen von Magiern.

  15. Mein Thema ist nicht die Physik – ich verstehe nicht allzu viel davon, u.a. weil meine Schulzeit etwa ein halbes Jahrhundert zurückliegt -, lese aber mit, weil ich lernen will und es einige Überschneidungen mit meinem Thema gibt, dem menschlichen Gehirn (darauf wird in den Kommentaren bezug genommen) und dazu gehört die sogenannte menschliche Informationsverarbeitung. Ein Begriff mit dem ich Schwierigkeiten habe.

    Herr Päs, Sie schreiben:

    Shannon verstand Entropie also als Maß für Information und verband so Thermodynamik mit Informationstheorie [3]. Wenn die Entropie eines Makrozustands charakterisiert ist durch die Anzahl möglicher Mikrozustände, dann entspricht die Entropie der Information, die fehlt, um den entsprechenden Mikrozustand vollständig zu beschreiben. Information ist dann die Differenz der Entropie eines bestimmten Makrozustands und der Entropie des Makrozustands mit der größtmöglichen Entropie. Entropie wird damit gleichsam fehlende Information (…)

    Norbert Bischof * beschrieb Information als etwas, das Ungewissheit verringert, etwas, von dem es mehr oder weniger geben kann, das sich quantifizieren lässt. Unter diesem Aspekt wäre Entropie dann so etwas wie ein Maß für Ungewissheit (?)

    Nun erwähnen Sie Shannon und sein Problem des Datenverlustes bei der Datenübertragung. Shannon wird auch von Bischof im Zusammenhang mit dem Sender-Empfängermodell erwähnt, bei dem Information vom Signal übertragen wird, und die Bedeutung des Signals für den Empfänger relevant ist. Datenverlust (Entropie) würde dann meinen: Die Ungewissheit wird größer, weil mit den Daten auch Bedeutung verloren geht.

    Wenn ich mir nun das Gehirn anschaue, dann stelle ich zunächst fest, dass es über seine sensorischen Systeme an die Außenwelt “gekoppelt” ist. Da unsere sensorischen Systeme nicht auf das gesamte Spektrum an Wellenlängen reagieren, sondern selektiv nur auf sehr spezifische, haben wir- wenn ich es so ausdrücken will – an dieser Stelle bereits einen Datenverlust zu verzeichnen.

    Ich will jetzt nicht auf Einzelheiten eingehen, mir geht es um Folgendes: Da wir über verschiedene, selektiv reagierende sensorische Systeme verfügen, wird die Außenwelt zunächst einmal “zerlegt” – in Mikro’zustände'(? Theoretisch hätten wir es ja mit einem hohen Maß an Unordnung zu tun, was aber nicht der Fall ist, chaotisch ist das ganze nämlich nicht).
    Intern wird das zuvor Zerlegte wieder zusammengesetzt (unter Zufuhr von Energie), zu Mikro-? oder Makro-? Zuständen (wir erleben die Welt bz.w die Dinge in ihr als einheitlich)?
    Meine Frage: wie bekomme ich da nun die Entropie hinein?

    Norbert Bischof ( 1995): Struktur und Bedeutung. Eine Einführung in die Systemtheorie. Bern, Göttingen: Verlag Hans Huber

    • @Trice:

      Norbert Bischof * beschrieb Information als etwas, das Ungewissheit verringert, etwas, von dem es mehr oder weniger geben kann, das sich quantifizieren lässt. Unter diesem Aspekt wäre Entropie dann so etwas wie ein Maß für Ungewissheit (?)

      Richtig: Die Ungewissheit über den konkreten Mikrozustand im Makrozustand.

      Nun erwähnen Sie Shannon und sein Problem des Datenverlustes bei der Datenübertragung. Shannon wird auch von Bischof im Zusammenhang mit dem Sender-Empfängermodell erwähnt, bei dem Information vom Signal übertragen wird, und die Bedeutung des Signals für den Empfänger relevant ist. Datenverlust (Entropie) würde dann meinen: Die Ungewissheit wird größer, weil mit den Daten auch Bedeutung verloren geht.

      Ja.

      Wenn ich mir nun das Gehirn anschaue, dann stelle ich zunächst fest, dass es über seine sensorischen Systeme an die Außenwelt “gekoppelt” ist. Da unsere sensorischen Systeme nicht auf das gesamte Spektrum an Wellenlängen reagieren, sondern selektiv nur auf sehr spezifische, haben wir- wenn ich es so ausdrücken will – an dieser Stelle bereits einen Datenverlust zu verzeichnen.

      Ich will jetzt nicht auf Einzelheiten eingehen, mir geht es um Folgendes: Da wir über verschiedene, selektiv reagierende sensorische Systeme verfügen, wird die Außenwelt zunächst einmal “zerlegt” – in Mikro’zustände'(?

      Nein, Mikrozustand bezieht sich auf einen Zustand, der vollständig bekannt ist. Mit Zerlegung hat das erstmal nichts zu tun.

      Theoretisch hätten wir es ja mit einem hohen Maß an Unordnung zu tun, was aber nicht der Fall ist, chaotisch ist das ganze nämlich nicht).

      Bei Begriffen wie „Chaos“ und „Unordnung“ muss man vorsichtig sein, darunter werden teilweise ganz unterschiedliche Konzepte verstanden.

      Intern wird das zuvor Zerlegte wieder zusammengesetzt (unter Zufuhr von Energie), zu Mikro-? oder Makro-? Zuständen (wir erleben die Welt bz.w die Dinge in ihr als einheitlich)?
      Meine Frage: wie bekomme ich da nun die Entropie hinein?

      Wie gesagt: Mikro- und Makrozustand bezieht sich nicht auf Teil- oder Gesamtsystem und der Mikrozustand ist (paradoxerweise) auch nicht immer kleiner als der Makrozustand. Der Mikrozustand wird hier verstanden als die fundamentale Beschreibung, in der alles bekannt ist, der Makrozustand ist eine Beschreibung mit statistischen Größen.

  16. Damit kommen wir zur Abstraktion und zur Konkretisierung.
    Bei der Abstraktion gibt es verlustfreie und nicht verlustfreie Methoden der Datenkompression.
    Um viele Bildpunkte sparsam und verlustfrei zu speichern, sind zum Beispiel *.png-Dateien geeignet.
    Wenn man Verluste in Kauf nimmt, dann sind zum Beispiel *.jpg-Dateien geeignet.
    Bei der Konkretisierung wird dann die Abstraktion so gut wie möglich rückgängig gemacht.
    Wenn man hingegen zum Beispiel *.bmp-Dateien verwendet, dann wird jeder einzelne Bildpunkt ohne Datenkompression unverändert gespeichert, was relativ viel Speicherplatz benötigt.
    —–
    Auch Lebewesen sind gezwungen aus einer großen Anzahl von Bildpunkten eine abstrakte Beschreibung ihrer Umgebung zu erzeugen.
    Nach dem sich diese Lebewesen für eine bestimmte Verhaltensweise entschieden haben, müssen sie diese abstrakte Absicht in zahlreiche einzelne motorische Steuerbefehle umwandeln.
    Diese Abstraktion und diese Konkretisierung findet in zahlreichen Zwischenschritten und auf zahlreichen hierarchischen Ebenen statt.
    Im linken Teil der folgenden einfachen Zeichnung wird das durch die “Trichter” dargestellt.
    http://members.chello.at/karl.bednarik/abstrak7.PNG

  17. AR,
    “Information bezieht sich auf Eigenschaften von Materie, ist aber nicht mit ihr identisch”

    Das scheint mir der Knackpunkt zu werden. Wieviel verrät die Materie von sich, wenn wir sie untersuchen. Wieviel Information erhalten wir von ihr. Und da wir aus der gleichen Materie bestehen und nach den gleichen Gesetzmäßigkeiten denken, sollten Eigenschaft und Information über die Eigenschaften sich immer mehr annähern. Und tatsächlich geschieht das ja auch. Wir haben das geheimnis der Kernkraft gelüftet und sind imstande die welt zu zerstören.
    Ist das nicht Beweis genug?
    Und vorallem ist das kein beweis für die Richtigkeit unseres Denkens!

  18. Wenn ein Gas-Molekül von einer Wand abprallt, dann ändert es seine Flugrichtung, weil es durch seinen Aufprall über das Vorhandensein der Wand informiert wurde.
    Die Wand überträgt also einen Teil ihrer Gestalts-Information auf das Gas-Molekül, und das Gas-Molekül überträgt einen Teil seines Impulses auf die Wand.

  19. Folgendes verstehe ich nicht so recht:

    Wenn man z.B. den Kamin anfeuert und die Wohnung heizt, also den Temperaturunterschied zwischen kalter Winternacht und heimeliger Stube erhöht, nimmt die Entropie in Stube und Winternacht zwar ab, dafür verbrennt man aber Holz, Öl oder Kohle, und verteilt die Energie dieser fossilen Brennstoffe, die in einer geordneten Kohlenstoffstruktur gespeichert war, durch Vermischung und Verbindung mit der umgebenen Luft: die Gesamtentropie nimmt zu.

    Dass die E. in der Stube abnimmt ist klar (i.S.v. es wird “ordentlich“ wärmer). Warum in der Winternacht? Dass die Gesamtentropie (sozusagen im Weltraum) zunimmt, ist ja (ebenfalls) klar = durch das Verbrennen der foss. Brennstoffe, d.h. ihre Vermischung mit der umgebenden (Außen-) Luft. Die E. der Winternacht nimmt aber doch nur in der _unmittelbaren_ (Außen-) Umgebungsluft der Stube ab, da die Wände Wärme abstrahlen. Sehe ich das so richtig?

    • „Winternacht“ war hier als Wämereservoir gemeint: Wenn der Temperaturunterschied zwischen zwei Reservoiren erhöht wird, wird lokal die Entropie verringert. Dass dabei niederentropische fossile Energieträger in hochentropische Wärme umgewandelt werden sorgt dafür, dass die Gesamtentropie im Universum zunimmt.

  20. Axel Krüger,
    Entropie kann aus dem Nichts heraus entstehen, wenn der Vorgang irreversibel ist, also bei der Verbrennung von Holz.
    Dadurch, dass sich die Wärme verbreitet, kann die Entropie nur noch zunehmen.
    Bei der Vermischung mit der Außenluft nimmt sie noch weiter zu.
    Wenn du dich als Wanderer diesem Haus näherst, merkst du wie es immer wärmer wird, die Entropie nimmt in Richtung Haus ab.

    “nimmt die Entropie in Stube und Winternacht zwar ab”, ich glaube, dass ist unglücklich formuliert, weil jetzt an die Gesamtentropie des gesamten Universums ??? gedacht wird, was ja in diesem Beispiel keinen Nutzen bringt.

  21. Herr Päs, mich wundert,dass bei der aktuellen Diskussionslage noch nicht Panpsychimus als Begriff gefallen ist. Da Information physikalisch nicht definiert,eher beschrieben,ist,liegt Metaphysik nicht weit. Information im Begriff und angenommenen Wesen,s. Diskussion, böte sich als Grundlage für Panpsychimus an. Wollen Sie das bitte aus Ihrer Sicht einordnen?Ihr Blog-Kollege Lars Jaeger hat das im Blog vom 17.10.2017 auch bereits versucht.Danke!

    • @Mussi:

      Herr Päs, mich wundert,dass bei der aktuellen Diskussionslage noch nicht Panpsychimus als Begriff gefallen ist. Wollen Sie das bitte aus Ihrer Sicht einordnen?Ihr Blog-Kollege Lars Jaeger hat das im Blog vom 17.10.2017 auch bereits versucht.

      Im Lars Jaegers Blog-Post vom 17.10. konnte ich nichts zum Thema Panpsychismus finden. Bei Jaeger geht es um die Entstehung von Leben, Panpsychismus handelt dagegen von einer Omnipräsenz “geistiger” Eigenschaften. Aber ich kann gern ganz kurz meine Einschätzung geben: “Geistig” lässt sich m.E. aus naturwissenschaftlicher Perspektive nur im Sinne von “Bewusstsein” verstehen. Sicherlich ist nicht jede Form von Materie bewusst – auch unser Gehirn ist z.B. im Tiefschaf oder Koma unbewusst. Andererseits ist die gleiche Hirnmaterie zu bewussten und unbewussten Zuständen fähig. Das deutet darauf hin, dass Bewusstsein mehr mit Informationsverarbeitung und weniger mit der materiellen Basis an sich zu tun hat. Meiner Meinung nach ist es insofern gut möglich, dass jede Materieform prinzipiell bewusstseinsfähig ist, und die Frage ob ein Prozess bewusst oder unbewusst ist nur von der Art der Informationsverarbeitung abhängt. Guilio Tononis “Integrated Information Theory” (IIT) ist ein solches Modell, das ich (ohne in diesem Bereich Experte zu sein) für sehr interessant und vielversprechend halte. Auch Christof Koch ist z.B. ein Fan der IIT:
      Is Consciousness universal ?.

    • … bezogen auf die Darstellung im Binärsystem; das ist eine entscheidende Einschränkung. Man kann Information in jedem beliebigen Zeichensystem bzw. Code darstellen. Wohl nur die Älteren oder Experten kennen noch den Begriff “Baud”.

      Die Darstellung sagt nichts über die Bedeutung und sie sagt nichts über den Nachrichtenwert oder Neuigkeitswert von Information aus. Die Maßeinheit bit ist unabhängig vom Empfänger der Information. Gerade darin liegt die Bedeutung der Shannonschen Informationstheorie.

  22. @ Lore ipsum
    ein bit ist ein Energiezustand,aber nicht Information. Es sei denn,der Energiezustand wird als Information angesehen.Mit einen Energiezustand bit wird allerdings Information geschöpft. Dazu hätte die DPG aber auch eine Definition. Hat sie aber nicht. Habe ich 2016 angefragt.Siehe auch den angesprochenen Blog von Lars Jaeger.

  23. Hallo Herr Päs,

    “Und vielleicht steckt die Entropie sogar hinter der Zeit selbst: Was wir im täglichen Leben als Zeit erleben, ist eigentlich die Zunahme von Entropie. …. Viele Physiker glauben deshalb, dass Zeit selbst nur eine Beschreibung der Zunahme von Entropie ist. ”

    Soll das heißen, der Zeitpfeil in seinen vielfachen physikalischen und empirischen Ausprägungen ist nicht fundamental ? Sondern fundamental sei die Entropie, und der Zeitpfeil nur ein anderes Wort für die universale “Entropiezunahme” (statt “Wort” sagen sie “Beschreibung”) ?

    Soll etwa die Entropie sogar kausal für den Zeitpfeil verantwortlich ist ?
    Offenbar ist auch Herr Senf unsicher.

    Die gesamte Physik hat meines Wissens schon immer einen Konsens darüber gehabt, daß sich der Zeitpfeil (egal welcher, sie führen alle auf einen zurück) mit der statistischen Thermodynamik in keiner Weise erklären läßt – und erst Recht nicht mit dem Begriff der Entropie !

    Ihre obige Aussage steht dazu im Widerspruch.

    Welche Gründe haben Sie, die Sie gegen die Gründe der etablierten Physik in Anschlag bringen können ?

    Im Übrigen:
    Die Entropie ist eine eine beschreibende Zustandsgröße mit einer physikalischen Einheit (J/K) ! Information hat keine physikalische Einheit. Daher Kann Entropie auch nicht identisch mit Informationsdifferenz sein – das nur zur Klarstellung. Der Zusammenhang zwischen Entropie und Information ist als reine Differenz (Mangel) an Information jedenfalls nicht darstellbar, solange nicht klar gesagt wird, welche physikalische Definition von Information hierbei gemeint ist. Bitte nachholen.

    Grüße Fossilium

    • Entropie verlangt Absolution, wenn da nicht was anderes wäre.
      Relativität ist einfacher, aber die Emergenz “Henne oder Ei”.

      • Hallo Herr Senf,
        ich möchte Sie als Kommentator gerne ernst nehmen.
        Bitte haben Sie die Freundlichkeit, Ihre Einwände oder Zustimmung in allgemein verständlicher Form darzulegen.
        Ihr o.a. Text erschließt sich mir in dieser Form leider nicht.
        Grüße Fossilium

    • Soll das heißen, der Zeitpfeil in seinen vielfachen physikalischen und empirischen Ausprägungen ist nicht fundamental ?

      Ja. Man beachte allerdings das Wort “vielleicht”, da dieses Problem keineswegs geklärt ist. Aber das ist eine Möglichkeit, die von führenden Wissenschaftlern (Kiefer, Zeh, Barbour…) diskutiert wird. Siehe z.B.

      hier

      Sondern fundamental sei die Entropie,

      Nein, Entropie ist nicht fundamental, sondern vielmehr die Information, die uns fehlt, um den fundamentalen Zustand vollständig zu beschreiben.

      und der Zeitpfeil nur ein anderes Wort für die universale “Entropiezunahme” (statt “Wort” sagen sie “Beschreibung”) ?
      Soll etwa die Entropie sogar kausal für den Zeitpfeil verantwortlich ist ?

      Ich weiss nicht, was Sie hier mit “kausal” meinen. Die Vorstellung ist grob gesagt, dass Zeit keine Eigenschaft des Universums ist sondern unserer Perspektive auf das Universum. Diese Perspektive schreibt fest, welche Informationen uns zur Verfügung stehen und welche nicht (Entropie) und mögliche Zustände des Universums können dann nach Entropiemenge sortiert werden und entsprechend auf einer Achse angeordnet, die wir Zeit nennen. Wie gesagt, das ist eine mögliche Vorstellung, und die Details wie diese Vorstellung in einer Theorie der Quantengravitation erklärt werden kann, sind bisher nicht vollständig gelöst.

      Die gesamte Physik hat meines Wissens schon immer einen Konsens darüber gehabt, daß sich der Zeitpfeil (egal welcher, sie führen alle auf einen zurück) mit der statistischen Thermodynamik in keiner Weise erklären läßt – und erst Recht nicht mit dem Begriff der Entropie !

      Das ist nicht richtig, siehe den Link oben. Vielleicht haben Sie recht, wenn Sie sich auf die phänomenologische Thermodynamik der Dampfmaschinen beschränken, aber dass diese ohne Informationsbefriff unvollständig ist, zeigt ja schon

      Maxwells Dämon

      Im Übrigen:
      Die Entropie ist eine eine beschreibende Zustandsgröße mit einer physikalischen Einheit (J/K) ! Information hat keine physikalische Einheit. Daher Kann Entropie auch nicht identisch mit Informationsdifferenz sein – das nur zur Klarstellung.

      Sie haben das Wort “normiert” übersehen:
      Die Entropie S ist: S = k_B ln Z.
      Hier ist Z die mikrokanonische Zustandssumme, also einfach alle Mikrozustände im Makrozustand abgezählt, und k_B die

      Boltzmannkonstante
      . Die trägt die Ihnen fehlende Einheit.

      Der Zusammenhang zwischen Entropie und Information ist als reine Differenz (Mangel) an Information jedenfalls nicht darstellbar, solange nicht klar gesagt wird, welche physikalische Definition von Information hierbei gemeint ist. Bitte nachholen.

      Information ist ein Maß für die Menge der möglichen Mikrozustände in einem physikalischen System. Wenn Sie das im Binärsystem hinschreiben, kommen Sie auf Bits uns Bytes.

      Beste Grüße, Heinrich Päs

      • Zu:
        “….Ja. Man beachte allerdings das Wort “vielleicht”, da dieses Problem keineswegs geklärt ist. Aber das ist eine Möglichkeit, die von führenden Wissenschaftlern (Kiefer, Zeh, Barbour…) diskutiert wird. Siehe z.B…..”

        Ob sich Herr Päs in anderen Blogs und in Gegenwart von anderen Diskutanten auch getraut hätte (nicht) darauf hinzuweisen, dass H. Dieter Zeh sein Buch von 2012 bei Springer Heidelberg/London/ New York so genannt hat:
        Physik ohne Realität: Tiefsinn oder Wahnsinn?
        Bei solchen Infragestellungen hätte hiesige Blogbetreiber gewisse nervende Diskutanten hier ziemlich bald verscheucht .

          • Wer HIER sonst “Der Physik” hypothetisch den Tiefsinn abspricht und (selbst hypothetisch) den Wahnsinn unterstellt, ist bei den scilog- Blogs nicht gerade ein gern gesehener Gast und wird schnell mal als populistisch- esoterischer “crank” und potentieller Wissenschaftsfeind mit antisemitischer Motivation in die Ecke gestellt.

        • Erstens ist hier sicher mal ein „Quod licet Iovi, non licet bovi“ angebracht.
          Und zweitens ist es keinesfalls Zehs Absicht, der Physik pauschal den Tiefsinn abzusprechen und den Wahnsinn zu unterstellen, sondern, den Widersinn einer epistemischen Interpretation von Naturgesetzen aufzuzeigen.

          • Mag sein. Da müsste ich nochmal nachlesen .Ist schon etwas her. Warum aber lässt er dann zu, dass sein “Wissenschaftsverlag” einen derart “reißerischen” Titel benutzt?

  24. Hallo Herr Päs, hallo an alle.
    Auf meiner Internetseite gibt es viele Perpetuum-Mobiles, weil man durch diese eine Menge über die Physik lernen kann.
    Diese Perpetuum-Mobiles zeigen, wie leicht man sich selbst täuschen kann. (Das innere Weltmodell ist ziemlich ungenau.)
    Am schwersten durchschaubar sind dabei die Perpetuum-Mobiles der zweiten Art. (Hier geht es ja schließlich um die Entropie.)
    Hier sind die Überlegungen zu meiner Animation von weiter oben. (Keine Sorge, das kann nicht funktionieren.)
    http://members.chello.at/karl.bednarik/AEE-1C.PNG
    Natürlich sind alle herzlich eingeladen, herauszufinden, warum genau meine Perpetuum-Mobiles nicht funktionieren können. (Viel Spaß.)
    Mit freundlichen Grüßen, Karl Bednarik.

    • Nachtrag:
      Geschichten der Thermodynamik und obskure Anwendungen des zweiten Hauptsatzes:
      http://www.wias-berlin.de/preprint/330/wias_preprints_330.pdf
      —–
      Das Brillouin-Paradoxon ist ein elektrisches Analogon zur molekularen Ratsche, welches zwar auch nicht funktioniert, aber dafür schwerer durchschaubar ist.
      —–
      Von meinen eigenen Perpetuum-Mobiles halte ich das Umkehr-Osmose Perpetuum Mobile (OSMOPERP.PNG) für ziemlich schwer durchschaubar.
      (Chemotechnisch und mathematisch scheint alles richtig zu sein, aber das Universum wird es dennoch irgendwie verhindern.)

        • OK, aber bitte sagen Sie ein paar Worte dazu, wie sich die Themen auf den Inhalt des Blog-Posts oder die nachfolgende Diskussion beziehen, damit der Eindruck vermieden wird Sie würden hier vor Allem für Ihre Webseite werben wollen.

    • Hallo Herr Bednarik, danke für die Richtigstellung. Tatsächlich können solche Beispiele lehrreich und unterhaltsam sein. Der oberflächliche Betrachter hätte leicht auf die Idee kommen können Sie glaubten tatsächlich an die Möglichkeit eines Perpetuum Mobiles und wollten hier Ihre Modelle bewerben.
      Beste Grüße, Heinrich Päs

  25. @Karl Bednarik;
    Wenn eine Feder eine Klappe oder ein Ventil betätigt, damit Teilchen von einer Seite auf die andere gelangen können, dann entspricht die Stärke der Feder der Information, die darüber entscheidet, ob die Klappe bzw. das Ventil geöffnet wird. Durch das Öffnen und Rückstellen der Klappe erwärmt sich die Feder, d.h. die Entropie der Feder wächst mit jeder Betätigung, während sich die Entropie des Systems erniedrigt.

    • Deshalb habe ich versucht, in der Szilard-Maschine (von weiter oben, AEE-1A.gif und AEE-1C.PNG) mit nur einem Kolben, und mit nur einem einzigen Molekül, ganz ohne Federn, Klappen und Ventile auszukommen.
      Das wäre zwar durch zwei Überströmkanäle möglich, und das würde dann dennoch nicht funktionieren.
      (Wenn man die Dateinamen hinter meine Internetadresse kopiert, dann vermeidet man direkte Links im Text, die oftmals gelöscht werden.)

  26. Mussi,
    die Darstellung der Information als low oder high, bzw. 0,7 V und 4,5V ist ein Energiezustand, die Information dazu wird als Möglichkeit definiert, aus 2 Wahrscheinlichkeiten eine zu wählen, also 0 oder 1, das ist die Informationseinheit 1 bit. Die Bedeutung des bit, was die 0 bedeuten soll, die hängt von der Computersprache ab. Information und Deutung der Information sind also sinnvollerweise zu trennen.

    • Wenn man das klassische alte symmetrische Flip-Flop verwendet, dann ist der Energiezustand für 0 und 1 gleich groß, der Unterschied zwischen 0 und 1 ist dann nur, ob der Strom links oder rechts hindurch geht.
      Als Ausgabe kann man dann eine kontradiktive Datenleitung verwenden, deren beide Drähte abwechselnd Spannung führen.
      Bei magnetischen Speichern ist es zumeist nur die Richtung der Magnetisierung, und nicht deren Energieinhalt, der 0 und 1 unterscheidet.

  27. @ Herr Päs: Mikrozustand /Panpsychismus

    vielen Dank für Ihre Antwort, dann das:

    Nein, Mikrozustand bezieht sich auf einen Zustand, der vollständig bekannt ist. Mit Zerlegung hat das erstmal nichts zu tun.

    und dass es sich beim Mikrozustand um eine Beschreibung handelt, bei der alles bekannt ist, hatte ich wissen wollen.
    Wie gesagt, beschäftige ich mich mit dem menschlichen Gehirn, aber nicht in der Weise, wie es derzeit in den Neurowissenschaften, der Psychologie usw. der Fall ist, sondern mit dem, was die Hirnforscher 20004 in ihrem berühmt-berüchtigten Manifest beschrieben: “Nach welchen Regeln (Hervorhebung von mir) das Gehirn arbeitet, wie es die Welt so abbildet (…), all das verstehen wir nach wie vor nicht einmal in Ansätzen.”
    Ich beschreibe also das Gehirn, seinen Aufbau und seine Arbeitsweise, mit diesen Regeln bzw. einem Regelwerk; der Begriff Information kommt in meinem Modell nicht vor. Dieses Regelwerk muss allerdings auch für die ‘Welt’ gelten, denn sonst hätten wir keine Gewähr, dass unsere Gehirne diese – im Rahmen dessen, auf das die sensoriechen Systeme reagieren – diese Welt auch einigermaßen korrekt abbilden. Eben deshalb muss ich aber wissen, wenn Entropie das ‘Gegenstück’ zur Information ist, was es damit auf sich hat, damit sich nicht am Ende herausstellt, dass mein Modell ein gewaltiges Loch hat.

    Zum Panpsychismus: bei solchen Vorstellungen bekomme ich einen dicken Hals. Im Nachbarblog von Joe Dramiga die Sankore-Schriften gab es im März letzten Jahres eine lebhafte Diskussion zum Beitrag: “Ist das menschliche Gehirn ein Quantencomputer ?” Es ging dabei um die Theorie von Hameroff und Penrose, die man hier nachlesen kann.
    Zur biologischen Basis des Bewusstseins wird u.a. von Alfredo Pereira et al. geforscht:
    “Astrocytes and human cognition: modeling information integration and modulation of neuronal activity. Progress in neurobiology, 92(3), 405- 420. ” Das empfinde ich als seriöser als die Annahme eines Panpsychismus, der mich an Aristoteles’ unbewegten Beweger’ erinnert, den A. sich als beseelt und als reine Wirklichkeit vorstellte.

    • Zum Panpsychismus: bei solchen Vorstellungen bekomme ich einen dicken Hals.

      Das müssen Sie mal genauer erläutern. Es ist ja durchaus möglich, dass es vor allem die Informationsverarbeitung ist, die Bewusstsein ausmacht, und wenn dem so ist, dann ist jede Art von Materie prinzipiell bewusstseinsfähig, und das könnte man als eine Spielart des Panpsychismus ansehen (Christof Koch tut das).

      Auch Pereira et al scheinen sich ja auf integrierte Information (und damit auf Tononi/IIT?) zu beziehen.

      • Aber es wird neuerdings gewaltig spekuliert, ob Quanten(tunnel) phänomene über die Beeinflussung molekularer Katalysatorfunktionen bei der neuronalen Informationsverarbeitung wirksam sein könnten. Da man sich sonst gewisse Mechanismen bei der Orientierung von Vögeln nicht erklären kann.

        Das käme dann Penrose/Hammerhoff wieder ziemlich nahe, obwohl Al- Khahlili und Mc Fadden ( “Life on the Edge” / “Der Quantenbeat des Lebens”, 2014 ) diesen Zusammenhang nicht herstellen wollen.

        • Da das Gehirn ein ziemlich feuchter, warmer Ort ist werden Quantensuperpositionen typischerweise sehr schnell durch Dekohärenz zerstört. Max Tegmark hat das 1999 mal ausgerechnet:

          Siehe hier

          Wenn man in dieser Richtung spekulieren möchte, muss man sich also gut überlegen, wie man solche Prozesse verhindert.

          • Da das Gehirn ein ziemlich feuchter, warmer Ort ist werden Quantensuperpositionen typischerweise sehr schnell durch Dekohärenz zerstört
            (Zitatende)
            Sie mögen recht haben. Zumindest für den Einstein- Mafioso- Blog. Denn dort wurden meine Superpositionen durch ziemlich flinke Dekohärenzen vorhin umgehend zerstört. Die Ursache könnten flinke feuchte Finger gewesen sein.
            Wenns nochmal vorkommt spiel ich nicht mehr mit. Es gibt nämlich noch Wichtigeres im Leben. Zumindest auf der makroskopischen Ebene. Aber vielleicht auch im Zwischenbereich. (-:

  28. KB,
    richtig, nur eine Änderung benötigt Energie, weshalb Computer ja warm werden.

    Trice,
    Entschuldigung, dass ich mich hier einmische, Entropie und Information sind kein Gegensatzpaar. Ich denke, das ist mehr bildhaft gemeint, dass mit der Auflösung von Strukturen auch Information gelöscht wird.
    Ich denke auch, dass die Speicherung von Gedanken ganz ähnlich strukturiert ist, wie bei einer Objektsprache.
    Wenn das Objekt benannt wird, fallen einem auch die Eigenschaften/Umstände dazu ein.
    Wenn es tatsächlich gelingen sollte, aus den Gehirnwellen das Denken abzulesen, das wäre eine Katastrophe. Dann wäre es vorbei mit der Gedankenfreiheit, dann wären wir nur noch Ameisen.

  29. Zu:
    “..Dann wäre es vorbei mit der Gedankenfreiheit, dann wären wir nur noch Ameisen…”
    Blödsinn. (Sorry) . In menschlichen Gesellschaften lässt sich alles durch entsprechende Normen regeln. Falls der mehrheitliche Wille dazu da ist. Auch neue Techniken. Fast alles war irgendwann mal neu.
    Über Ihre Gedankenfreiheit sollten Sie sich lieber jedesmal dann Gedanken machen, wenn sie den Mund zukneifen, weil es Ihrem Chef eventuell (!) nicht gefallen könnte.
    Denn vor allem anderen mitgeteilte oder in der Realisierung begriffene Gedanken werden gerne unterdrückt. Oft gerade auch von einem selbst.

  30. H.Päs, #2.1.
    auch Computer können miteinander kommunizieren,
    da haben Sie vollkommen Recht, mit dem Begriff Information muss man genauer umgehen.

    • Das ist ein beliebtes Beispiel der Evolutionsleugner. Es beweist aber nur die Bildungsferne der Bibelgläubigen. Wie lernen eigentlich Kleinkinder die Sprache, wenn sie die Sprache noch gar nicht kennen?

      • Aber Herr Reutlinger, ich möchte Sie doch bitten, das Problem (hier) nicht billig klein zu reden. Es ist nämlich zuerst mal irrelevant, von wem es auch noch oder vielleicht schon zuvor aufgegriffen wurde. Sie könnten sich eventuell die Zähne daran ausbeißen. Denn daran ist schon sehr lange herumgekaut worden und neueste Forschungen und Experimente machen die Sachlage nicht gerade in Ihrem Sinne durchsichtiger.
        Denn je weiter etwas in der Vergangenheit zurückliegt, und je weniger echte Falsifikations- oder auch nur Verivikationsmöglichkeiten möglich sind, desto mehr kann man relativ unbelegt behaupten. Ich war aus anderen Gründen ein Fan vom Autor des “Blinden Uhrmacher”, aber auch er musste schon etwas zurückrudern.
        (Ich kenne die Komplexität der Sachlage, muss mich hier aber kurt fassen).

  31. Hallo Herr Päs,

    Sie schreiben als Form des 2. Hauptsatzes:

    „Die Entropie der Welt strebt einem Maximum zu.”

    Ich kenne den “2. Hauptsatz der Thermodynamik” in einer anderen Form, die da lautet:

    „Sich selbst überlassene Systeme streben einem themodynamischen Gleichgewicht zu“,

    Sie sagen un, die Entropie sei eine Größe, die Aufschluss darüber gibt, wie wahrscheinlich ein Makrozustand ist. Und in physikalischen Prozessen soll die Entropie dann deshalb zunehmen, weil sich der unwahrscheinlichere Makrozustand zum wahrscheinlicheren hin entwickelt.

    Wenn das nicht mal zirkulär gedacht ist.

    Was Entropie ist, läßt sich doch in einfachen Worten erklären: die Entropie ist ein Maß dafür, wie weit der Gleichgewichtszustand erreicht ist ! Das thermodynamische Gleichgewicht ist durch ein Minimum an (innerer) Energie und durch Stillstand aller makroskopischen Prozesse gekennzeichnet.

    Die Annäherung an den Gleichgewichtszustand läßt sich statistisch beschreiben, indem man in jedem Moment die Anzahl der möglichen Mikrozustände betrachtet, die den aktuellen, zum Gleichgewicht strebenden Makrozustand bestimmen (jeder Makrozustand wird durch eine Teile bestimmt). Wenn der Makrozustand (z.B. gekennzeichnet durch eine Wärmeströmung) sich auf dem Weg zum Gleichgewicht befindet (Temperaturausgleich), dann wird die Zahl der die Temperaturverteilung bestimmenden Mikrozustände immer größer, und diese ist am größten, wenn der Gleichgewichtszustand = Temperaturausgleich erreicht ist. Die Entropie ist dann der Logarithmus dieser Zahl der Mikrozustände multipliziert mit der Bolzmannkonstante (ok, das ist die Normierung, die Sie meinen).

    Alle Systeme, die von den Naturgesetzen bestimmt werden, chemische, biologische, beliebig komplexe, streben – wenn man sie sich selbst überläßt, also nicht von außen einwirkt – einem Gleichgewicht zu, eben einem Zustand, bei dem sich nichts mehr verändert. Man kann das als Entropie definierte Maß der Annäherung an den Gleichgewichtszustand daher universell anwenden, bei allen Prozessen, die durch die Naturgesetze bestimmt werden. Die Mächtigkeit der Entropie, die sie überschwänglich beschreiben, ist nichts anderes als eine Folge der viel mächtigeren Tatsache, daß man bei a l l e n sich selbst überlassenen Systemen eben dieses Streben zum Gleichgewicht vorfindet. Wenn wir also die Grenzen dicht machen und sich dadurch in unserem Land das Einkommensungleichgewicht zwischen Reich und Arm von selbst ausgleicht, kann man aus den der Vielzahl der Einzeleinkommen und der Bolzmannkonstante eine Entropie bilden, deren Zahlenwert ein gewissermaßen statistisch ermitteltes Maß für diesen Ausgleich ist.

    Wenn Sie die Entropie nun als „Treibstoff“ beschreiben, und die Entropie so klassifizieren: „Auf diese Weise bestimmt die Entropie, was passiert, also welche Prozesse überhaupt ablaufen, und in welcher Richtung sie verlaufen“ – dann meinen Sie wohl, die Entropie sei der Antrieb für dieses Streben zum Gleichgewicht, also die Ursache dafür, daß dieser irreversible Prozess in Gang kommt. Dieses Streben zum Gleichgewicht ist aber doch nicht verursacht durch das Maß der Annäherung an dasselbe.

    Dafür sind vielmehr die Naturgesetze und ihre Randbedingungen verantwortlich. Die Naturgesetze lassen eben nicht jeden Prozeß zu, sondern nur die, die im Einzelfall nach den jeweils vorliegenden Randbedingungen möglich sind. Es gibt da keinen Antrieb, der dafür sorgt, daß etwas passiert. Was passiert, passiert durch den Ausschluß aller anderen Möglichkeiten, den Auschluß besorgen die Naturgesetze. Auch der erste Anstoß für alle Prozesse nach dem Urknall wurde so in Gang gesetzt, daher rührt der Zeitpfeil – darauf will ich aber jetzt nicht auch noch näher eingehen.

    Der Zeitpfeil ist jedenfalls nicht durch die Entropie verursacht. Die Entropie nimmt deshalb (im universalen Maßstab) zu, weil man zu jedem System, das sich vom Gleichgewichtszustand entfernt (Entropieabnahme) ein größeres findet, daß dieses System enthält und selbst als Ganzes wieder dem Gleichgewicht zustrebt (mehr Entropiezunahme) – also letztlich wegen der Ausdifferenzierung aller Mikrozustände.

    Im Übrigen läßt sich mit der Annäherung an das Gleichgewicht auch die Information gut erklären. Ein beliebiges Ungleichgewicht hat mehr Strukturen als das Gleichgewicht. Mehr Strukturen heißt mehr Information. Mit Annäherung an das Gleichgewicht verschwinden die Strukturen, es entsteht – im metaphysischen Sinne – etwas Konturloses, Gleichmäßiges, Diffuses, das weniger Informationen enthält.

    Daher nimmt die Information über ein System bei der Annäherung an ein Gleichgewicht im Gegensatz zur Entropie ab und zwar auf analoge Weise, wie diese zunimmt. Zunahme der Entropie und Abnahme an Entropie sind parallel laufende Vorgänge. Aber die Information ist genauso wenig Treibstroff für die zugrundeliegenden physikalischen Prozesse wie die Entropie.

    Ich halte den Titel daher für verfehlt. Sie wecken damit falsche Vorstellungen.

    Und aus dem parallel laufenden Zu- und Abnahmen von Entropie und Information
    schließen Sie:

    „Damit wird Entropie zu einem informationstheoretischen Konzept: Entropie ist die Information, die fehlt, um einen konkreten Mikrozustand im Makrozustand zu identifizieren.“

    Was da heißen soll, kann man nur dunkel erahnen.

    Grüße Fossilium

    • Der 2. Hauptsatz gilt nur für abgeschlossene Systeme, ohne Wechselwirkungen mit der Umwelt. Das Universum expandiert aber, vielleicht unbegrenzt, erhöht somit das Volumen und erniedrigt die mittlere Energiedichte. Die Hintergrundstrahlung hat heute nur noch 2,7K. Daher nimmt die Entropie immer weiter zu. Ob es jemals eine Umkehrung geben wird, ist rein spekulativ.

    • @ fossilium
      Eventuell haben Sie tatsächlich ein Luftschlösschen zerstört. Und ich dachte, nur Informatiker seien Geisteswissenschaftlern ähnlich im (luftigen) Denken.

    • @Fossilium:

      Sie sagen un, die Entropie sei eine Größe, die Aufschluss darüber gibt, wie wahrscheinlich ein Makrozustand ist. Und in physikalischen Prozessen soll die Entropie dann deshalb zunehmen, weil sich der unwahrscheinlichere Makrozustand zum wahrscheinlicheren hin entwickelt.

      Wenn das nicht mal zirkulär gedacht ist.

      Ist es nicht.

    • @Fossilium:

      Dafür sind vielmehr die Naturgesetze und ihre Randbedingungen verantwortlich. Die Naturgesetze lassen eben nicht jeden Prozeß zu, sondern nur die, die im Einzelfall nach den jeweils vorliegenden Randbedingungen möglich sind. Es gibt da keinen Antrieb, der dafür sorgt, daß etwas passiert.

      Naturgesetze geben an, welche Prozesse möglich sind, aber nicht in welche Richtung sie ablaufen. Das folgt aus der Entropiebilanz.

      Aber die Information ist genauso wenig Treibstroff für die zugrundeliegenden physikalischen Prozesse wie die Entropie.

      Ich halte den Titel daher für verfehlt. Sie wecken damit falsche Vorstellungen.

      Wie gesagt zeichnen sich fossile Ressourcen wie Treibstoffe durch niedrige Entropie aus. Niedrige Entropie ist der Grund dafür, dass Treibstoffe Prozesse antreiben können. Und die niedrige Entropie zu Beginn des Universums ist der Grund dafür, dass sich überhaupt Prozesse im Universum abspielen.

      „Damit wird Entropie zu einem informationstheoretischen Konzept: Entropie ist die Information, die fehlt, um einen konkreten Mikrozustand im Makrozustand zu identifizieren.“

      Was da heißen soll, kann man nur dunkel erahnen.

      Nehmen Sie das Beispiel der 2 Würfel: Jemand würfelt eine 7. Entropie ist die Information, die Ihnen fehlt, um sagen zu können, ob die Würfel auf 16, 25, 34, 43, 52 oder 61 lagen. Wenn Sie sich die Mühe machen, die Zahl der nötigen Fragen mit ja/nein-Antwort auszurechnen, die Sie brauchen, um diese Information zu erhalten, können Sie das auch in Bits angeben.

  32. @Mussi;
    Information hat keinen Impuls, denn sie ist ein rein menschliches Konstrukt. Mit der Natur hat Information insofern zu tun, als der Mensch in der aus Elementen zusammengesetzten Natur gewisse wiederkehrende Muster erkennen kann. Einmalig erscheinende Muster würden keine Information bieten. Das wäre wie ein unbekannter Buchstabe, der einmal und nie wieder in Erscheinung träte.

    Solche Muster oder Strukturen in der Natur kann man als Emergenz verstehen. Aber auch hier ist wieder vor unbegründeter Spekulation zu warnen, denn somit wäre alles in der Welt Emergenz und folglich würde der Begriff dann seine Bedeutung verlieren. Die Emergenz wird ohnehin gerne schon von Esoterikern benutzt, um die Mühen der Wissenschaft zu umgehen, wie z.B. die Erscheinung des Lebens oder des Bewusstseins.

    Für die Darstellung, Speicherung und Übertragung von Information ist Energie notwendig. Diese Funktionen basieren auf Materie oder elektromagnetischer Strahlung als Zeichenträger. Dagegen braucht die logische Verarbeitung von Information keine zusätzliche Energie! Allerdings ist die logische Verarbeitung nicht ohne Darstellung, Speicherung und Übertragung möglich.

    • Keine Bange,ich favorisiere das naturalistische Welt- und Menschenbild.
      Aber es geht wohl eher darum,welche Rolle die Information in den Naturwissenschaften einnimmt. So verstehe ich die Intention des Artikels. Auch wenn es manchmal in den Diskussionen um Meinung und Anschauung geht,mag ich die Offenheit in alle Richtungen,um etwas,was bisher bestenfalls umschrieben ist, der Ansicht frei zu geben. Manche geben Wissen wieder,manche Vermutungen. Wenn ich es aber nicht falsch verstehe,sind Befürchtungen eben auch manchmal hinderlich.
      Information ist noch ein Geheimnis,offensichtlich. Ich verstehe die Bedenken und Hinweise zur Esoterik. Sie sind u.a. auch der Pfad zu Ideologien und Theologien, damit verbundene Schwierigkeiten zu gesellschaftlichen Begründungen und Machteinflüssen.
      Information in einem naturwissenschaftlichen Sinne darf und muss aber offen angesprochen werden können. Sie ist eben nicht nur ein “geistiges” Produkt. Zumindest in den angesprochenen Dimensionen. Ist Zeit eine Information? Ist Raum eine Information? Auch? Es ist nicht definiert. Schön das es besprochen wird.

    • @Anton Reutlinger:

      Information… ist ein rein menschliches Konstrukt

      Das kann man so nicht sagen.
      „Information is physical“ hatte ja bereits Rolf Landauer herausgefunden.
      Ein Elektronenspin hat im Magnetfeld zwei mögliche Ausrichtungen, „up“ oder down“, das ist gerade ein Q-Bit, egal, was sich die Menschen denken.

  33. Mussi,
    Raum und Zeit sind die Vorbedingung für die Information, ihr Ausmaß kann selbst zur Information werden.
    Stellen Sie sich vor, Sie haben ein Date und die erwartete Frau kommt 2 Stunden zu spät, ohne Erklärung.

    Information , quantitativ behandelt ist nicht geistig, sondern eine physikalische Größe.
    Information, qualitativ hehandelt ist ein Grenzbereich zwischen Vereinbarung und Deutung.
    Kryptologen finden sogar versteckte Informationen in Grabinschriften.

    Ist der Sternenhimmel selbst eine Information? Aber ja. Er lässt uns staunen und verlangt nach einer Antwort .
    Ist das Vorhandensein der Natur eine Information? Aber ja, sie lässt uns staunen und verlangt nach einer Antwort .
    Ist die Existenz von Dir selbst eine Information? Aber ja, sie lässt uns staunen und verlangt nach einer Antwort .
    Die Materialisten beantworten alle diese Fragen ganz lapidar mit Natur und Evolution.
    Religiöse Menschen finden als Antwort: Gott hat diese wunderbare Welt erschaffen.

  34. Ich vermeide direkte Links im Text, weil diese hier oftmals gelöscht werden.
    Natürlich ist dieses Kopieren und Einfügen viel mühsamer als das einfache Draufklicken.
    Entropie und Information:
    In der englischen Wikipedia: Reversible computing
    In Google suchen (alles zusammen): Zyvex Merkle Two Types of Mechanical Reversible Logic
    Kausalität und Zeit:
    In einer Planck-Zeit können die Elementarteilchen höchstens eine Planck-Länge weit kommen.
    Dadurch entstehen die zusammenhängenden Weltlinien der Elementarteilchen.
    Alle anderen Anordnungen der verschiedenen zeitlichen Zustände des Universums würden zumindest die Lichtgeschwindigkeit verletzen.
    Natürlich erzwingen die zusammenhängenden Weltlinien alleine noch keine bestimmte Richtung der Zeit.
    In der deutschen Wikipedia: Weltlinie
    Bild auf meiner Internetseite, die man hier oben mit meinem Namen erreichen kann: RAUMZEIT.jpg
    Gestalt und Information:
    In Google suchen (alles zusammen): Youtube Bednarik Marble Computer
    Bild auf meiner Internetseite, die man hier oben mit meinem Namen erreichen kann: INFORMAT.PNG

    • Zu meinem letzten Bild (INFORMAT.PNG):
      Eine Kugel in einer W-förmigen Vertiefung kann zwei verschiedene räumliche Orte auf dem gleichen Energieniveau einnehmen.
      Solange ihre thermische oder kinetische Energie niedrig genug ist, kann sie nicht ihren Platz wechseln.
      Beim ausreichenden Erwärmen und dem darauf folgenden Abkühlen, ist dann ein solcher Speicher in einem zufälligen Zustand.
      Vermutlich ist für diese Art der Löschung immer die gleiche Energiemenge notwendig, ganz gleich ob er 00000000, 11111111, oder 00001111 enthält.
      Vermutlich ist diese Art der Information in Bezug auf ihre Ordnung und Entropie energie-neutral.
      Das folgende ist nur eine dazu passende Wiederholung:
      Die Information ist die räumliche oder zeitliche Anordnung von Materie oder Energie.
      Die gleiche Anordnung kann von ganz unterschiedlicher Materie oder Energie eingenommen werden.
      Ganz ohne Materie oder Energie gibt es nichts zum Anordnen.
      Die Information ist vom Vorhandensein eines Trägers abhängig.
      Die Information ist von der Art ihres Trägers unabhängig.

      • Energie und Information:
        Die W-förmigen Vertiefungen können in einer Kugelbahn sein, oder genau so gut in jeder anderen Potential-Fläche.
        Um eine Kugel über die Mitte einer W-förmigen Vertiefung hinweg zu heben, ist eine bestimmte Energiemenge notwendig.
        Die Höhe der Mitte der W-förmigen Vertiefung muss immer wesentlich höher sein, als die mittlere thermische Energie bei der herrschenden Temperatur.
        Daraus folgt, dass auch bei einer sehr hohen Energie-Schwelle, die Orts-Information nicht beliebig lange stabil bleiben kann, weil sehr selten auch hohe thermische Energien vorkommen.
        Nachdem man die Kugel über die Mitte der W-förmigen Vertiefung hinweg gehoben hat, muss man sie natürlich wieder bremsen, damit sie nicht weiter hin-und-her springt.
        Wenn man diese Brems-Energie in Wärme umwandelt, dann wird die Entropie des Systems erhöht.
        Beim reversiblen Computing versucht man diese Energie in geordneter Form zurück zu gewinnen.

      • Was ist der (materielle ) Informationsträger bei der “Übermittlung” der Art des “Spins” bei der “Quantenteleportation”? Oder als Metapher:
        Aufgrund welchen Informationsträgers weiß Alice instantan am anderen Ende des Universums, dass Bob eine linke Socke anhat, wenn sie sich eine rechte anzieht?

        • Je nach Interpretation der Quantenmechanik lautet die Antwort: „Es wird keine Information übertragen“ (Kopenhagen) oder „die Übertragung passiert nicht instantan, der Informationsträger ist die quantenmechanische Wellenfunktion“ (Viele Welten).

          • Man sollte sich halt mal entscheiden können. (Beim fixen Löschen auf anderen Blogs geht das doch auch recht einfach 😉 Aber so springen wir , wenn auf der einen Seite die nächste Paradoxie auftaucht, halt schnell auf die andere. Und wenn die Aufregung sich wieder gelegt hat, halt problemlos ebenso schnell wieder zurück.

          • > Und zweitens ist es keinesfalls Zehs Absicht, der Physik pauschal den Tiefsinn abzusprechen und den Wahnsinn zu unterstellen, sondern, den Widersinn einer epistemischen Interpretation von Naturgesetzen aufzuzeigen.

            Wenn ich Zeh richtig verstanden habe ist die Wellenfunktion das einzig Wahre denn z.B. Atome oder Elementarteilchen gibt es gar nicht. Merkwürdig nur dass sie vor der gar nicht existierenden Realität kuscht und nicht augenfälliger in Erscheinung tritt.

            Physik ohne Realität: Tiefsinn oder Wahnsinn?

          • @Karl Mistelberger: Ja, aber das gilt auch für das Konzept, das üblicherweise mit Metrik g_(mu nu) oder eta_(mu nu) parametrisiert wird, das kuscht auch vor observablen Raum- und Zeitabständen. (Ich rede hier im Code, da die Nennung des Buzzwords gleich wieder zu einem Entrüstungssturm der üblichen Verdächtigen führt, nicht dass Sie zur Beruhigung heute abend noch am Feynman schnuppern müssen 😉 )

            Ist meiner Ansicht nach ein Trend der modernen Physik, dass beobachterunabhängige Konzepte nicht mehr unmittelbar observabel sind.

  35. KB,
    Für Sie ist der Zusammenhang von Wärmeenergie , Information und Entropie sonnenklar.
    Für mich, der ihr Modell noch nicht verinnerlicht hat, bleiben Fragen offen.
    Da sich Wärmeenergie nur noch zum Teil wieder in kinetische Energie umwandeln lässt, geht also bei der Entstehung von Wärme Information verloren. Richtig/falsch? Die Entropie nimmt also zu. Richtig/falsch?

    wenn ich einem geschlossenen System Wärmeenergie zuführe, erniedrigt sich die Entropie Richtig/falsch?
    Sie sehen schon , ich bin noch am Anfang.

    • Beim reversiblen Computing versucht man die Entstehung von Wärme von vornherein möglichst vollständig zu vermeiden, weil man von der Wärmeenergie niemals vollständig zu einer Energie in geordneter Form zurück kommt.
      Man könnte sich ein rotierendes Schwungrad denken, dessen Rotationsenergie zum heben der Kugel verwendet wird, und das dann beim Absenken der Kugel nahezu die gleiche Energiemenge wieder zurück bekommt.
      Natürlich kann man so etwas ähnliches auch mit Molekülen und Energiepotentialen, aber dafür viel unanschaulicher machen.
      Einige gute Überlegungen dazu sind hier:
      In Google suchen (alles zusammen): Zyvex Merkle Two Types of Mechanical Reversible Logic

      • Ein Buckling-Element nach Merkle, ohne Kontaktflächen, ohne Gelenke, nur mit elastischen Blattfedern, die die mechanische Energie zurück geben.
        Hier ist eine leider sehr kleine Animation auf meiner Internetseite, die man hier oben mit meinem Namen erreichen kann: BUCKELEO.gif

        • Diese kleine Animation sollte man stark vergrößern, dann sieht man auch die winzige Legende:
          S0 = auf 0 setzen,
          W0 = der Wert 0 ist gespeichert,
          F0 = die Abfrage ergibt 0,
          S1 = auf 1 setzen,
          W1 = der Wert 1 ist gespeichert,
          F1 = die Abfrage ergibt 1.
          Irgendwann baue ich ein schönes Modell aus einer Folie.
          Die Blattfedern sieht man in dieser Animation nur von der Kante.

  36. @Herr Päs: Panpsychismus

    Nachdem inzwischen wieder viele Kommentare geschrieben wurden, antworte ich hier unten, statt die Antwortfunktion zu nutzen – das erspart das Suchen, hoffe ich.

    Zum Panpsychismus: bei solchen Vorstellungen bekomme ich einen dicken Hals.
    Das müssen Sie mal genauer erläutern. Es ist ja durchaus möglich, dass es vor allem die Informationsverarbeitung ist, die Bewusstsein ausmacht, und wenn dem so ist, dann ist jede Art von Materie prinzipiell bewusstseinsfähig, und das könnte man als eine Spielart des Panpsychismus ansehen

    In den Kommentaren in Joe Dramigas Blog habe ich auf Untersuchungen zur Wirkungsweise von Anästhetika verwiesen. Die Autoren beschrieben, dass ab einer betimmten Dosis z.b. des Anaesthetikums Isofluran das Bewusstsein schlagartig weg ist. Die Aktivität der Neurone ist jedoch nicht etwa lahmgelegt, sondern teilweise sogar erhöht, nur ist sie unsinnig, weil ungeregelt. Es kommt bereits auf der unteren Stufe der Verarbeitung zu vielen Synchronisationen, während bei geregelter Verarbeitung große Bereiche synchronisiert sind. Das heißt, sobald die geregelte Verarbeitung gestört ist, funktioniert auch Bewusstsein nicht mehr. Es liegt daher weniger an der Materie, sondern vielmehr an der Art und Weise in neuronale Prozesse geregelt sind, ob es Bewusstsein gibt oder nicht. Und die Informationsverarbeitung ist geregelt, sie vollzieht sich weder willkürlich noch beliebig.
    Die Materie spielt dennoch eine Rolle, von nichts kommt ja nichts. Pereira beschäftigt sich mit den Astroglia, die er als biologische Basis des Bewusstseins für geeignete Kandidaten hält. Die, um die es dabei geht, bilden mit den Nervenzellen “Schnittstellen” (tripartite Synapse), kommunizieren aber auch untereinander mittels Calzium-Ionen, die sich in Wellen und langsamer ausbreiten.

    Es ist also ein wenig wie beim Auto: auch jede Menge Bauteile in einem Sack und ein paar Jahrhunderte kräftig geschüttelt ergeben kein Auto. Man braucht die richtigen Teile und man muss vor allem wissen, nach welchen Regeln “gespielt” wird.

    Deshalb halte ich Panpsychismus oder die Vorstellung Hameroffs, dass wenn beim Tod “die Quantenkohärenz in den Mikrotubuli verlorengeht, sich die Quanteninformationen der Planck-Skala in unserem Kopf nicht vollständig auflösen, sondern in die Planck-Skala des Universums fließen und wegen der Quantenverschränkung zusammenhängen “usw. , für Unsinn.

    • @Trice: Ich glaube, Sie müssen erst einmal erklären, was Sie mit “Panpsychismus” meinen. Koch meint zumindest genau das, was Sie auch anführen:

      Es liegt daher weniger an der Materie, sondern vielmehr an der Art und Weise in neuronale Prozesse geregelt sind, ob es Bewusstsein gibt oder nicht.

      Deshalb halte ich Panpsychismus oder die Vorstellung Hameroffs, dass wenn beim Tod “die Quantenkohärenz in den Mikrotubuli verlorengeht, sich die Quanteninformationen der Planck-Skala in unserem Kopf nicht vollständig auflösen, sondern in die Planck-Skala des Universums fließen und wegen der Quantenverschränkung zusammenhängen “usw. , für Unsinn.

      Ich bin auch kein Anhänger der Penrose-Hameroffschen Ideen. Prinzipiell finde ich es allerdings zulässig, zu diskutieren, ob Bewusstsein auf einer speziellen Art der Informationsverarbeitung beruht (ala Koch/Tononi, was ich als Panpsychismus auffassen würde) oder auf neuer Physik (ala Penrose/Hameroff, die so weit ich weiss einen physikalischen Quantenkollaps auf Basis der Quantengravitation annehmen). Für letzteres gibt es m.E. wenig Gründe, heißt aber nicht, dass es sicher falsch sein muss. Allerdings scheint mir die Penrose/Hameroff-Vorstellung (“man kann keinen bewussten Comnputer bauen”) weiter von Panpsychismus entfernt zu sein, als das Tononi-Koch-Szenario (“alles kann bewusst sein, wenn nur die Informationsverarbeitung entsprechend funktioniert”).

      Sind Sie vielleicht doch eine versteckte Panpsychistin?

  37. @ Herr Päs und L. Schaber: Informationsträger

    Jetzt hänge ich mich doch mal aus dem Fenster…

    Je nach Interpretation der Quantenmechanik lautet die Antwort: „Es wird keine Information übertragen“ (Kopenhagen) oder „die Übertragung passiert nicht instantan, der Informationsträger ist die quantenmechanische Wellenfunktion“ (Viele Welten).”

    Aus meiner Perspektive, dass auch die Vorgänge in der Welt außerhalb unseres Gehirns denselben Regeln unterliegen wie die Vorgänge im Gehirn, trifft die Kopenhagener Interpretation zu: es wird keine Information übertragen.

  38. Ok,Ok. …das mit dem Impuls war schlicht. Zum Titel:Ich habe ein Verständnis dafür,das Entropie Treibstoff sein kann. Aber nicht für Information. Irgendwas weigert sich da.

  39. Hallo Herr Päs,

    Sie sagen:

    “Naturgesetze geben an, welche Prozesse möglich sind, aber nicht in welche Richtung sie ablaufen. Das folgt aus der Entropiebilanz.”

    Das ist nicht richtig. Das folgt überhaupt nicht aus der Entropiebilanz . Wie kommen Sie darauf ?

    Das folgt aus den Randbedingungen der Naturgesetze:

    Tatsächlich sind die fundamentalen Naturgesetze, die die Dynamik der Atome eines makroskopischen Gegenstandes (z.B. eines Gases) beschreiben, zeitsymmetrisch. Aus diesem Grund ist es von den Naturgesetzen her überhaupt nicht ausgeschlossen, daß sich ein abgeschlossenes System aus dem Gleichgewicht wegbewegt, und von selbst in einen Ungleichgewichtszustand übergeht – entgegen dem zweiten Hauptsatz.

    Der zweite Hauptsatz ist doch nur ein Hauptsatz – bitte nicht in den Rang eines Naturgesetzes erheben !

    Die Naturgesetze schließen daher nicht aus, dass sich ein in die Pfanne gehauenes zerplatztes Spiegelei sich von selbst wieder zusammensetzt – es ist nur extrem unwahrscheinlich. Nicht beobachtet wird dieser Vorgang deshalb, weil für das Zurücklaufen des Vorgangs, mit begleitender Entropieabnhame, extrem unwahrscheinliche Randbedingungen herrschen müssen. Die Einzelimpulse aller Atome müßten sich zufällig in eine Richtung kehren, mit zufällig einer Anfangsgeschwindigkeit, die zum lokalen, dann zum gemeinsamen Zusammenschluß führt, usw. usw. Es sind also die unwahrscheinlichen Randbedingungen die verhindern, daß sogenannte irreversible Vorgänge reversibel werden – im gesanmten Universum. Und das liegt daran, daß eben beim Urknall wiederum bestimmte Randbedingungen für alle Naturgesetze eingestellt wurden (dabei ist allerdings noch einiges unklar)

    Wenn Sie meinen, die Entropie erzeugt eine naturgesetzliche Irreversibilität aller Vorgänge, dann sind Sie aber schwer auf dem Holzweg !

    Sie haben ja oben sogar auf ein Experiment verwiesen, bei dem ein Teilchen dazu gebracht wird, eine Treppe hinaufzuspringen, Stufe für Stufe – also einen Vorgang, der von selbst – also ohne Einwirkung von außen (z.B. Energiezufuhr) – vom Gleichgewicht wegführt, quasi von selbst zum Ungleichgewicht führt, und daher entgegen dem 2. hauptsatz im abgeschlossenen System eine Entropieabnahme stattfindet. Das müßte ja dann ein Vorgang gegen die Zeitrichtung sein. Davon habe ich (beim Querlesen) aber nichts gelesen.

    Tatsächlich ist ein solcher Vorgang auf der molekularen Ebene überhaupt nicht so unwahrscheinlich. Im Experiment wurden auf geschickte Weise bei jedem Prozessschritt des Teilchens die Randbedingen des Vorgangs ohne Energieaufwand so eingestellt, daß sich das Teilchen aus dem Gleichgewichtszustand herausbewegen mußte, hin zum Ungleichgewicht. Also das ist eine riesige experimentelle Leistung, aber hier werden nur die Möglichkeiten genutzt, die die Naturgesetze anbieten – die Entropie ist bei dem ganzen Spiel nur ein beschreibender Parameter. Die sorgt nicht dafür, in welche Richtung der Prozess abläuft.

    Grüße Fosslilum

    • @Fossilium: Sie widersprechen sich selbst:

      Die Naturgesetze schließen daher nicht aus, dass sich ein in die Pfanne gehauenes zerplatztes Spiegelei sich von selbst wieder zusammensetzt – es ist nur extrem unwahrscheinlich. Nicht beobachtet wird dieser Vorgang deshalb, weil für das Zurücklaufen des Vorgangs, mit begleitender Entropieabnhame, extrem unwahrscheinliche Randbedingungen herrschen müssen.

      Unwahrscheinliche Randbedingungen = unwahrscheinlicher Makrozustand = niedrigee Entropie. Der entwickelt sich nicht aus einem Zustand höherer Entropie.

      Wenn Sie meinen, die Entropie erzeugt eine naturgesetzliche Irreversibilität aller Vorgänge, dann sind Sie aber schwer auf dem Holzweg !

      Ihr Beispiel oben besagt das Gegenteil.

      Sie haben ja oben sogar auf ein Experiment verwiesen, bei dem ein Teilchen dazu gebracht wird, eine Treppe hinaufzuspringen, Stufe für Stufe – also einen Vorgang, der von selbst – also ohne Einwirkung von außen (z.B. Energiezufuhr) – vom Gleichgewicht wegführt, quasi von selbst zum Ungleichgewicht führt, und daher entgegen dem 2. hauptsatz im abgeschlossenen System eine Entropieabnahme stattfindet. Das müßte ja dann ein Vorgang gegen die Zeitrichtung sein. Davon habe ich (beim Querlesen) aber nichts gelesen.

      Das ist eben kein abgeschlossenes System, wenn gilt:

      Im Experiment wurden auf geschickte Weise bei jedem Prozessschritt des Teilchens die Randbedingen des Vorgangs ohne Energieaufwand so eingestellt, daß sich das Teilchen aus dem Gleichgewichtszustand herausbewegen mußte, hin zum Ungleichgewicht.

      • “@Fossilium: Sie widersprechen sich selbst:
        Unwahrscheinliche Randbedingungen = unwahrscheinlicher Makrozustand = niedrigee Entropie. Der entwickelt sich nicht aus einem Zustand höherer Entropie.”

        Herr Päs, Sie irren !

        Unwahrscheinliche Randbedingungen, das heißt: alle regellosen Atome ordnen sich zufällig zu einem einzigartigen Mikrozustand, bei dem die Impulse aller Atome gleichgerichtet sind, usw. Bei diesem zufälligen Ordnen bewegt sich das System von selbst aus dem Gleichgewicht, es erniedrigt sich die Entropie des Makrozustands spontan, Daß sich diese Randbedingungen in dem ungeordneten Atomgewimmel plötzlich zufällig einstellen, ist voll im Einklang mit den Naturgesetzen, aber extrem unwahrscheinlich. Daher passiert das eben nicht, es passiert das, was der 2. Hauptsatz sagt, nichts ordnet sich, das Sytem bleibt im Gleichgewicht. Ordnen und Entropieabnahme ist nur eine denkbare, von den Naturgesetzen nicht ausgeschlossene Möglichkeit.

        Allgemein: Alle sog. irreversible Vorgänge sind von den Naturgesetzen her reversibel ! Das ist doch ein alter Hut. Denn die Naturgesetze, die für die Teile des Mikrozustands gelten, sind zeitsymmetrisch. Alle Vorgänge, die von selbst ablaufen, machen dies dennoch entsprechend dem 2. Hauptsatz, weil der rücklaufende Vorgang eben erfahrungsgemäß nicht vorkommt – eben weil sich die notwendigen geordneten Randbedingungen für die Teile des Mikrozustands zufällig nur mit größter Unwahrscheinlichkeit – also gar nicht – einstellen.

        Genauso ist es auch in dem u.a. Experiment: das System geht spontan aus dem Gleichgewichtszustand in den Ungleichgewichtszustand über, weil sich für das kletternde Teilchen die Mikro-Randbedingungen nach jedem Schritt neu einstellen. Das ist ja gerade das Besondere an dem Experiment: das System verstößt gegen den 2. Hauptsatz, aber nicht gegen die Naturgesetze. !

        Der 2. Hauptsatz ist nur eine Erfahrungsregel – außerhalb der Naturgesetze. Größen die sich entsprechend der Erfahrungsregel verhalten, wie die Entropie, haben nur sekundäre Bedeutung vor dem Hintergrund von Raum und Zeit.

        Grüße Fossilium

        • Genauso ist es auch in dem u.a. Experiment: das System geht spontan aus dem Gleichgewichtszustand in den Ungleichgewichtszustand über, weil sich für das kletternde Teilchen die Mikro-Randbedingungen nach jedem Schritt neu einstellen. Das ist ja gerade das Besondere an dem Experiment: das System verstößt gegen den 2. Hauptsatz, aber nicht gegen die Naturgesetze. !

          Nein, das Experiment verstößt nicht gegen den zweiten Hauptsatz, wenn Sie die Shannon-Entropie berücksichtigen. Sie verstehen einfach nicht, was Information ist. Das zeigt sich auch an diesem Zitat:

          Landauer irrt hier leider fatal. “up” oder “down” sind zwei verschiedene Zustände. Das ist Physik – wenn Sie ein QBit daraus machen, ist das Bewertung, Sie geben den Zuständen eine subjetkive zweckgebundene Qualität, dann ist es ein Q-Bit.

          Information ist eben keine subjektive Qualität sondern gegeben durch die Zahl der möglichen Zustände eines physikalischen Systems.

          • Hallo Herr Päs,

            bitte seien Sie präzise ! Ich achte auf jedes Wort, wie es sein muß unter Wissenschaftlern.

            Die Zahl der möglichen Zustände ist eine Zahl !
            Warum soll diese Zahl Information sein ?
            Eine Zahl könnte zur Information werden durch Bewertung.
            Eine Bewertung ist aber nichts Physikalisches.
            Also wie kann ein nicht-physikalisch bewertetes Abstrakta physikalisch relevant sein ?

            Warum sagen Sie uns nicht einfach Ihre Definition der Information ?
            Der Satz “Informatiion ist eine Zahl” ist jedenfalls als Definition nicht schlüssig.

            Grüße Fossilium

          • Die Zahl der möglichen Zustände ist eine Zahl !
            Warum soll diese Zahl Information sein ?

            Schreiben Sie die Zahl im Binärsystem und Sie haben die Information in Bits.
            Ganz ohne Bewertung.
            Wenn ein physikalisches System einen von n mögliche Zuständen einnimmt, ist die das System beschreibende Information um so größer, je größer n ist.

            Warum sagen Sie uns nicht einfach Ihre Definition der Information ?

            Das habe ich jetzt mehrfach getan.

            Und was ist eine Shannon-Entropie ?
            Eine zweite Art der Entropie ?

            Einfach mal nachlesen .

          • Hallo Herr Reutlinger,
            … jedoch wäre Information ohne Übertragung ziemlich sinnlos.

            Das sehe ich auch so. Physikalische und informationstheoretische Begriffe stehen doch nicht einfach nur für sich da. Da kann ich mir beliebige Definitionen ausdenken, für die Entropie, für Information, für Kausalität, für Energie, usw. Die Begriffe stehen in einem Aussagekontext, Dort bekommen Sie ihre Bedeutung, und zwar besonders dann, wenn sie von verschiedenen Parteien verschieden verwendet werden.

            Was mit Entropie gemeint ist, erschließt sich erst, wenn ich die Statistik beschreibe, innnerhalb der ich diese Größe verwende. Und Information erhält eine Bedeutung, wenn ich die zugehörigen Nachrichtenkontext benenne. Wer behauptet, zwei Bits seien eine Information, unterstellt ihre Verwendung als Nachricht, sagt dies aber nicht.

            Wohin solche ungesgaten Voraussetzungen führen zeigt die Aussage:
            Information ist eine Zahl (von Bits), und Entropie ist eine Zahl (von Zuständen) und daher ist Entropie gleich Information. So ein Unsinn.

  40. Hallo Herr Päs,

    sorry komme jetzt erst dazu Ihre Antworten zu lesen. In jedem Fall vielen Dank, daß Sie antworten !

    Sie schreiben:

    “Niedrige Entropie ist der Grund dafür, dass Treibstoffe Prozesse antreiben können. Und die niedrige Entropie zu Beginn des Universums ist der Grund dafür, dass sich überhaupt Prozesse im Universum abspielen.”

    Nein nein, daß ist nicht der Grund. ich sage immer: man muß sich, wenn man die Naturgesetze verstehen will, metaphysisch mit der Frage auseinandersetzen, was Naturgesetze eigentlich sind. Was beschreiben die mathematischen Formeln, in denen eine Größe wie die Entropie auftritt ? Sie können eine solche Größe nicht einfach zu einer Art “Wirkmacht” emporheben, die im Universum irgendeinen Anschub aller Prozesse ausübt, die dann entsprechend den Naturgesetzen ablaufen, wo doch diese Größe durch diese Naturgesetze erst definiert wird. Ihre Auffassung läßt sich metaphysisch nicht rechtfertigen – sie entbehrt schlichtweg einer metaphyischen Grundlage, oder haben Sie eine ?

    Es spricht alles dafür – s. Begründungen oben – daß die Entropie ein Prozeßparameter ist, und zwar einer für thermodynamische Betrachtungen statistisch relevanten Teilchenmenge – mehr nicht. Sie behaupten, Entropie sei so was wie eine “treibende Kraft” und würde den Zeitpfeil hervorbringe, obwohl es Prozessen mit lokal abnehmende Entropie gibt, bei denen die positive Zeitrichtung erhalten bleibt.
    Ich meine auch genug Argumente für meine Auffassung vorgebracht zu haben.

    Um Ihre Auffassung zu respektieren, müssten Sie mehr Begründungen für Ihre These anführen. Welches sind diese ? Daß die Entropie zu Beginn des Universums niedrig war- das ist ja keine Begründung, das kann sein und die Entropie ist dennoch nur eine Parameter. Was zu Beginn des Universums war, ist zudem höchst umstritten.

    Grüße
    Fossilium

  41. @fossilium;
    Wissen Sie denn, wie die Naturgesetze oder die Theorien der Physik zustande kommen? Die Erhaltungssätze oder Hauptsätze sind die grundlegendsten Naturgesetze. Daraus erst leiten sich viele sogenannte Naturgesetze ab, die in mathematischen Gleichungen formuliert sind. Also beispielsweise wird ein Prozess als reinkommende Energie = rausgehende Energie angenommen. Eine solche Gleichung lässt sich dann auflösen nach der abhängigen Variable und mathematisch als Naturgesetz oder Operator formulieren.

    Mit der Entropie ist es nicht ganz so einfach wie mit der Energie, weil sie nicht so eindeutig definiert ist. Beim Schmelzen und Sieden macht die Entropie einen Sprung nach oben. Das sind diskontinuierliche Phasenübergänge. Andererseits kann die Entropie kontinuierlich ansteigen. Die Welt ist keine geschlossene Kiste mit konstantem Volumen und konstanter Energiedichte, auf Grund der Expansion des Universums. Deshalb gibt es für die Entropie keinen Erhaltungssatz. Jedes natürliche System unterliegt der Dissipation.

    Kleinere Brötchen backen, fossilium!

    • Hallo Herr Reutlinger,

      Entropie ist keine Erhaltungsgröße.
      Und ein Hauptsatz ist kein Naturgesetz.
      Newton spricht von Axiomen, das sind unhintergehbare vorausgestzte Prämissen.
      Man muß da gut unterscheiden.
      Ein Naturgesetz ist eine Selektion von Möglichkeiten aus der Allmöglichkeitsmenge.
      Ist meine Meinung, muß nicht maßgebend sein.
      Grüße
      Fossiloum

  42. Hallo Herr Päs,

    “Was da heißen soll, kann man nur dunkel erahnen”

    Sorry, das war eine herablassende Bemerkung. Ich kann es nicht lassen. Ich werde mich bessern ! ich versuche Sie zu verstehen, aber ich glaube, die bewegen sich auf einem Terrain, das für Sie voller Fallstricke ist.

    Was die Shannonschen Informationsbegriff anbetrifft, so ist mir dieser ja bekannt. Im Kern kann man damit (unter idealisierten Problembedingungen) Information quantifizieren, indem man die Zahl der informierenden Ereignisse zählt, die zur Beseitigung einer Ungewißkeit nötig ist. Aber bereits Herr Reutlinger hat in schon in seinem ersten Kommentar darauf hingewiesen, daß dieser Begriff viele Bedeutungen hat, und daß er vor allem untrennbar verbunden ist mit einer Informationsquelle und einem informationsverarbeitenden Empfänger. Wenn ich von einem “informationsverarbeitendem” Empfänger rede, dann meine ich einen Empfänger, der Signale empfängt, selektiert und entsprechend der Entscheidungsituation nach bestmmten Kriterien bewertet. Signale bestehen bekanntlich nicht nur aus Informationen, sie können auch Rauschen und sonstigen unbrauchbaren Schrott enthalten. Zur Information werden sie durch eine Bewertung. Information als physikalische Entität gibt es nicht, Information ist eine bewertete Entität, etwas Qualitatives. Daran ändert auch die Quantisierung der Information durch Shannon nichts. Shannon spricht von Informationen als Zahlen dann, wenn bereits eine bestimmte bewertete Situation vorliegt. Die Quantisierung erfolgt auf bewerteter Grundlage. Der Shanonsche Info-Begriff ist sehr voraussetzungsvoll.

    Ich glaube Heisenberg oder Weizäcker hat schon mal versucht, die Information als ontologische Entität in die Physik reinzubringen – ist gescheitert, dasselbe mit Zeilinger.

    Ich sehe gerade, daß Sie schreiben:
    “Information is physical“ hatte ja bereits Rolf Landauer herausgefunden.
    Ein Elektronenspin hat im Magnetfeld zwei mögliche Ausrichtungen, „up“ oder down“, das ist gerade ein Q-Bit, egal, was sich die Menschen denken.”

    Landauer irrt hier leider fatal. “up” oder “down” sind zwei verschiedene Zustände. Das ist Physik – wenn Sie ein QBit daraus machen, ist das Bewertung, Sie geben den Zuständen eine subjetkive zweckgebundene Qualität, dann ist es ein Q-Bit.

    No No, vor allem ist Entropie keine Information. Ein abgeschlossenes physikalisches System, das dem Gleichgewichtszustand zustrebt, weiß nichts davon, daß sich dieses System im Vergleich zur ungleichgewichtigen Umgebung auszeichnet, daß hier Information produziert wird, die eine Bewertung erlaubt, wie weit das Gleichgewicht schon erreicht ist oder wie weit es noch weg ist. Es produziert keine Information als physikalische Entität aus sich heraus, es produziert diese aus menschlicher Sicht.

    Aber in der Physik geht es um Obhjekte und deren Beziehungen unabhängig von der menschlichen Sicht. Daher ist Information nichts Physikalisches, so gerne dies einige Leute hätten. Das ist ein metaphysische Standpunkt, der glaube ich nur sehr schwer erschütterbar ist.

    Grüße
    Fossilium

  43. Ein besonders schwer durchschaubares Perpetuum Mobile der zweiten Art, auf das schon viele Menschen herein gefallen sind, ist das Verhalten von Gasen in einem Gravitationsfeld.
    Der Hausverstand (der ab und zu versagt) sagt uns, dass die Gasmoleküle, die in einem Gravitationsfeld nach oben fliegen, einen Teil ihrer kinetischen Energie verlieren müssen.
    Daraus folgt, dass nach oben hin der Druck abnimmt (richtig), und dass nach oben hin die Temperatur abnimmt (falsch).
    Natürlich muss das senkrechte Rohr mit dem Gas sehr gut gegen die Außenwelt isoliert sein, denn sonst handelt es sich dabei nur um meteorologische Beobachtungen.
    Um den (nicht auftretenden) Effekt noch genauer zu beobachten, kann man ein Gas mit hohem Atom- oder Molekulargewicht wie zum Beispiel Xenon verwenden, und eine Ultrazentrifuge verwenden, um der Beschleunigung auf die Sprünge zu helfen.
    Ausserdem könnte man einen sehr geringen Gasdruck verwenden, so dass die mittlere freie Weglänge größer als die Rohrlänge wird, also ein Knudsen-Gas.
    Die Physiker erklären, warum die Gase in einem Gravitationsfeld nach oben hin nicht kühler werden, zumeist mit einigen Gleichungen, die für den Hausverstand noch viel schwer durchschaubar sind, als das Verhalten der Gase in einem Gravitationsfeld selbst.
    Hier, in Kapitel 2.3, Entropie und Gravitation, ab Text-Seite 25, findet man etwas zu diesem Thema:
    In Google suchen (alles zusammen): pdf Geschichten der Thermodynamik und obskure Anwendungen des zweiten Hauptsatzes
    In der deutschen Wikipedia wird dieses Thema etwas einfacher behandelt:
    In der deutschen Wikipedia: Perpetuum mobile, Inhaltsverzeichnis, Fehlinterpretierte Effekte und Prinzipien, Schwerkraft und Gaskinetik
    Josef Loschmidt war im Jahre 1876 ebenfalls nicht von der Entropie begeistert:
    In Google suchen (alles zusammen): pdf Loschmidt Über den Zustand des Wärmegleichgewichts eines Systems von Körpern mit Rücksicht auf die Schwerkraft
    Unser Hausverstand befindet sich also in bester Gesellschaft, aber leider hat das Universum eine andere Meinung.

  44. fossilium,
    ich glaube Herr Päs hat Information und Entropie nicht als Gegensatzpaar verwendet, das macht er nur um die Blogteilnehmer aus dem Winterschlaf zu locken.
    Aber, wenn wir diese Metapher schon haben, dann behaupte ich mal, die Entropie strebt einem Maximum zu und die Information(Erkenntnis) strebt einem Maximum zu. Das wäre im Sinne einer religiösen Kosmologie, bei der der Sinn des Ganzen, darin liegt, dass sich die Materie selbst erkennt und damit Gott erkennt.

    • ich glaube Herr Päs hat Information und Entropie nicht als Gegensatzpaar verwendet,

      Entropie ist fehlende Information. So war das gemeint.

      Aber, wenn wir diese Metapher schon haben, dann behaupte ich mal, die Entropie strebt einem Maximum zu und die Information(Erkenntnis) strebt einem Maximum zu.

      Nein, wenn die Entropie einem Maximum zustrebt, strebt unser Wissen, welchem Mikrozustand unser Makrozustand entspricht, einem Minimum zu. Das wäre also das Gegenteil von Ihrer Behauptung.

      • Über all das hat (nur zum Beispiel) ein Mr. Frank Tipler (Physik der Unsterblichkeit) vor mehr al 20 Jahren schon ausführlichst spekuliert. Oder auch etwas weniger religiös- metaphysisch David Deutsch (Physik der Welterkenntnis) Der lief damals (1996) unter:
        ” ..führende Persönlichkeit bei der Erforschung von Quantencomputern…”

        • Naja, Tiplers Vorstellungen waren schon damals mehr Science Fiction als Science und sind heute größtenteils widerlegt, wenn auch eine ganz lustige Gedankenspielerei: So nimmt Tipler an, dass die Menschheit
          mit Hilfe von intelligenten Robotern das ganze Universum kolonialisiert, und dass diese Roboter dann bei einem Rekollaps des Universums die vollständige Information über alles im Universum geschehene sammeln. Insofern könnten sie, kurz bevor das Universum in einem umgekehrten Urknall verschwindet, alle Menschen die jemals gelebt haben, auf Supercomputern simulieren. Dabei soll diese Simulation ununterscheidbar und damit identisch zu einer realen physischen Existenz sein. Den Endpunkt der kosmischen Entwicklung identiziert Tipler dann mit Gott. Kurioserweise gibt sich Tipler davon überzeugt, dass dieses Szenario nicht nur möglicherweise eintreten kann, sondern notgedrungen genau so realisiert werden muss.
          Allerdings sind die Annahmen, die Tipler in seiner Szenario zur Wiederauferstehung macht, keinesfalls selbstverständlich. So geht Tipler davon aus, dass sich die Ausdehnung des Universums verlangsamt, in Zukunft umkehrt und in einen ,,Rekollaps” mündet. Dabei haben Kosmologen anhand der Beobachtungen
          weitentfernter Sternexplosionen, sogenannter Supernovae, 1998 herausgefunden, dass sich die Ausdehnung des Universums keineswegs verlangsamt, sondern sich, durch die bisher rätselhafte ,,Dunkle Energie” getrieben,
          im Gegenteil beschleunigt ausdehnt. Alle kosmologischen Daten passen bisher zu dieser kosmischen Beschleunigung und kein Hinweis existiert auf einen Rekollaps. Des weiteren macht Tipler eine Vorhersage für die Masse des Higgs-Teilchens, die fast doppelt so hoch ist wie die des 2012 am europäischen
          Teilchenphysiklabor CERN gefundenen Teilchens. Schließlich beruhen sein Schlussfolgerungen (wie z.B. das Uberleben der Menschheit bis hin zum Ende der Geschichte des Universums) zum Teil auf einer zweifelhaften Logik. So rechtfertigt Tipler einige seiner gewagten Annahmen dadurch, dass sie nötig seien, damit selbst spekulative physikalische Theorien weit außerhalb ihres erprobten Gültigkeitsbereichs weiter gelten. Dass diese universelle Gültigkeit selbst eine gewagte Annahme ist, wird nicht kritisch hinterfragt. Und ob die Roboter wirklich Lust haben Herrn Päs und Herrn Schaber zu simulieren? Na ich bin gespannt…

  45. Hallo Herr Bednarik,

    “in besonders schwer durchschaubares Perpetuum Mobile der zweiten Art, auf das schon viele Menschen herein gefallen sind, ist das Verhalten von Gasen in einem Gravitationsfeld. Der Hausverstand (der ab und zu versagt) sagt uns, dass die Gasmoleküle, die in einem Gravitationsfeld nach oben fliegen, einen Teil ihrer kinetischen Energie verlieren müssen.”

    Sie verlieren keine kinetische Energie, die bleibt konstant. Aber Sie gewinnen potentielle Energie. Das senkt die Entropie. Aber es fliegen im Mittel genauso viele nach unten, für die sinkt die potentielle Energie, was den Entropiewert wieder anhebt.

    Also bleibt – im Mittel – alles wie es ist, alles im Gleichgewicht, Entropie maximal. Wo ist das Problem ? Nix mit Perpetuum Mobile. Alles leicht durchschaubar. Die Physik kann in ihrer Prägnanz und Einfachheit sehr eindrucksvoll sein, da hat Herr Päs recht. Das liegt an den Möglichkeiten in der Natur und den Fähigkeiten der Physiker, komplexe Geschehnisse auf einfache idealisierte Modelle abzubilden, deren Regelmäßigkeiten mathematisch zu beschreiben und geeignete Begriffe dazu zu bilden. Das machen übrigens Ökonomen und andere Wissenschaften auch, deren Modelle sind nur nicht so einfach. Das Ganze hat aber auch einen Haken: die Methode funktioniert manchmal nicht. Aber das ist ein anders Thema.

    Grüße
    Fossilium

    • Hallo fossilium,
      mein Hausverstand sagt mir aber, dass sich jedes einzelne Gas-Molekül in einem Knudsen-Gas wie ein hüpfender, ideal elastischer Ball verhält.
      Deshalb erwarte ich, dass mit zunehmender Höhe die potentielle Energie der Gas-Moleküle zunimmt, und dass die kinetische Energie im gleichen Maße abnimmt.
      Die Summe aus potentieller und kinetischer Energie muss während des ungestörten Fluges konstant bleiben.
      Mit freundlichen Grüßen, Karl Bednarik.

  46. Entropie ist ein Begriff der mich zeitweise sehr beschäftigt. Und aktuell eben infolge dieses dieses threads. Mit E. verbinde ich drei Hauptbegriffe: Natürlich Entropie selber, Energie und Information. Dann noch Mikro- und Makrozustand sowie abgeschlossenes und offenes System. Erwähnen sollte ich [wie man sehen wird ;)], dass meine Ansichten (auch) vom Buddhismus geprägt sind – und dass ich kein “professioneller“ Physiker bin. Nachfolgend habe ich einige Aussagen zusammengestellt, die, m.A.n., wichtige Aspekte dieser fünf Begriffe gut charakterisieren:

    Entropie

    E. kommt aus dem Griechischen und meint Wendung/umwandeln (Wandlungspotenzial); en tropē – “innerhalb Umkehr“.

    Herr Päs: Entropie ist die Information, die fehlt, um einen konkreten Mikrozustand im Makrozustand zu identifizieren [..]. Wobei Entropie auch eine subjektive Komponente hat: Ob ein Mikrozustand nämlich einem Makrozustand niedriger oder hoher Entropie zugeordnet wird, ist eine Frage der Definition oder des verfügbaren Wissens.

    T. Görnitz (s. Anm. 1): Die Physik kann bedeutungsfreie Information messen (sie wird dort auch „Entropie“ genannt) [..]. Das Wachsen der Entropie bedeutet eine Zunahme derjenigen Information, die nicht erreichbar oder zugänglich ist.

    Harald Lesch (2004): https://www.br.de/mediathek/video/alpha-centauri-was-ist-entropie-av:584f8e443b46790011a364f4 (bei 12:00): „Höchste Entropie = geringste Information.“

    https://oparu.uni-ulm.de/xmlui/bitstream/handle/123456789/2636/vts_8452_12451.pdf?sequence=1&isAllowed=y (PDF S. 2): Entropie wird oft Unordnung gleichgesetzt. Die Begriffe Ordnung und Unordnung sind aber sehr subjektiv. Es gibt möglicherweise so viele verschiedene Auffassungen von Ordnung, wie es Menschen gibt. (Original S. 35): Warum wird Entropie so oft als Unordnung verstanden? Weil in den für uns wichtigen Systemen die Elemente in einer ganz bestimmten Weise kombiniert sein müssen, die, statistisch gesehen, sehr unwahrscheinlich ist. (OS. 34): Sowohl Entropie als auch Information beruhen auf einer möglichst großen Vielzahl von Kombinationsmöglichkeiten der Elemente. Aber für den Entropiebegriff zählt ihre Gleichwertigkeit, für die Information ihre Unterscheidbarkeit. Entropie und Information sind komplementär zu einander: Je weniger sich die Bedeutungen einzelner Kombinationen von Elementen voneinander abheben, desto kleiner wird der Informationsgehalt und desto größer die Entropie. (OS. 49): Alles, was sich bewegen kann – wie etwa freie Moleküle oder die Energie – strebt weiträumiger und gleichmäßiger Gleichverteilung zu aufgrund ihrer inneren Dynamik, ohne Wechselwirkung zwischen den Teilchen. Hat die Entropie ein Maximum erreicht, dann laufen die dynamischen Vorgänge zwar weiter, aber im Großen tut sich nichts mehr Neues, der makroskopische Zustand bleibt weitgehend derselbe.

    Energie/Temperatur (thermische Energie)

    Wiki Entropie: Die Entropie [..] ist eine fundamentale thermodynamische Zustandsgröße [..]. Sie bemisst den Ordnungszustand eines physikalischen Systems aus sehr vielen einzelnen Objekten. Die in einem System vorhandene Entropie steigt oder sinkt bei Aufnahme bzw. Abgabe von Wärme [..]. Stehen zwei Körper unterschiedlicher Temperatur miteinander in wärmeleitendem Kontakt, so verursacht die Temperaturdifferenz einen Entropiestrom. Aus dem wärmeren Körper fließt Entropie ab, wodurch sich dessen Temperatur absenkt —- Anm. von mir/Krüger: Also muss ggfls. neue (thermische) Energie zugeführt (die Temperatur erhöht) werden. —- Der kältere Körper nimmt diese Entropie (und die zusätzlich in diesem Prozess neu erzeugte) Entropie auf, wodurch seine Temperatur steigt. Der Prozess — Krüger: Die Dissipation/Zerstreuung von Energie — kommt zum Erliegen, wenn die Temperaturen beider Körper gleich geworden sind.

    https://www.uni-muenster.de/imperia/md/content/fachbereich_physik/didaktik_physik/publikationen/energieentwertung_entropie_2.pdf (S. 1): Wem ist schon klar, daß der Übergang ins Gleichgewicht —- Krüger: Keine geordnete Struktur wie z.B. ein Mensch; obwohl man Gleichgewicht (alles gleich/“ungeordnet“) ja auch als geordnete Struktur auffassen kann —- nur unter Dissipation von Energie, also Zunahme von Entropie möglich ist und in der einseitigen Tendenz eines Gegenstandes, den Zustand minimaler potentieller Energie einzunehmen, das Entropieprinzip zum Ausdruck kommt. (S. 3): Das Prinzip von der Entwertung der Energie — Krüger: Zunahme der Entropie/Gleichverteilung — schließt nicht aus, daß Teilvorgänge mit einer Energieaufwertung einhergehen. Entscheidend ist, daß der gesamte (mit Aufnahme und Abgabe von Energie, also unter Energieerhaltung) verbundene Vorgang von selbst abläuft und daher eine Energieentwertung bedingt —- Krüger: “Sterben“. Man kann das Leben aber verlängern, indem man Energie zu sich nimmt (ewiges Leben allerdings ist noch nicht möglich). Weiterleben i.S.v. Energieumwandlung/-erhaltung gibt’s ja (physikalisch und auch buddhistisch) —- (S. 4): Stoffen liegt die Tendenz zugrunde [..] sich von selbst mehr oder weniger schnell auf den zur Verfügung stehenden Raum zu verteilen. Ein Tropfen Parfüm, der auf dem Handrücken verteilt wird, ist bald auch in einiger Entfernung wahrzunehmen. (S. 5): Ohne Dissipation bliebe die Welt im jeweiligen Zustand erstarrt ohne Chance einer Veränderung —- Krüger: Stagnation (keine Entropie, kein Verfall) = kein Fortschritt (keine Verbesserung); was den buddhistisch ja negativ akzentuierten Begriff der Vergänglichkeit/Unbeständigkeit positiv sieht. “Nibbāna “ aber ist nicht mehr zu verbessern [gewissermaßen erstrebenswerte Stagnation ;)] —- [S. 6 (etwas umgestellt)]: Entropieerzeugung ist die Verteilung des oder der ursprünglich an einer Stelle konzentrierten und damit beherrschbaren Stoffes oder Energie auf ein größeres Raumgebiet. —- Krüger: Entropie kann man z.B. hier auch “unphysikalisch“ assoziieren = als Gleichheit/Gerechtigkeit im politisch-kommunistischen Sinn. —-

    https://www.youtube.com/watch?v=tUKQDR0lGPM (Harald Lesch, Energie, 2002) —- Krüger: Niedrige Energie/Temperatur (Weltraum) = hohe Entropie. Bzw. niedrige Entropie = hohe Energie/Temperatur. Allerdings ist auch das “relativ“; Lebewesen haben eine hohe T., verglichen mit dem Weltraum. Die Sonne hat eine viel höhere T. als Lebewesen – ist aber nicht so komplex strukturiert (“intelligent“) wie ein Mensch [jedenfalls aus Sicht des Menschen ;)].

    Information

    Herr Päs (bzw. Wiki): Entropie ist die Information, die fehlt, um einen konkreten Mikrozustand im Makrozustand zu identifizieren [..]. Information ist dann die Differenz der Entropie eines bestimmten Makrozustands und der Entropie des Makrozustands mit der größtmöglichen Entropie. —- Krüger [buddhistisch umformuliert, weil Wissen (i.S.v. Information assoziiert) ein wichtiger Begriff im Buddhismus ist]: Wissen ist dann die Differenz zwischen dem Nichtwissen (relativ geringen Verständnis) hins. eines Sachverhalts und dem größtmöglichen (richtigen) Wissen (Verstehen/“Sehen“) dieses Sachverhalts.

    T. Görnitz (s. Anm. 1): Unsere Gedanken mit ihrer speziellen und nur uns zugänglichen Bedeutung — Krüger: Den subjektiven Assoziationen/Interpretationen — kennen nur wir allein. Wenn wir Naturwissenschaft betreiben wollen, so suchen wir etwas, was über das Subjektive hinausgeht, was verallgemeinert werden kann. In einem für eine Naturwissenschaft glücklichen Fall findet man objektive Erkenntnisse. Der Preis, der dafür bezahlt werden muss, ist nicht gering, man muss auf Bedeutung verzichten. — Krüger: Die subjektiven Assoziationen/Interpretationen — […]. Wie stark die Wirksamkeit von Information ist, wird heute weltweit (z.B. durch das Internet) immer deutlicher.

    Mikro-/Makrozustand

    (Wiki – unter Energie): Makrozustände höherer Entropie haben mehr Mikrozustände und sind daher statistisch wahrscheinlicher als Makrozustände niedrigerer Entropie.

    Herr Päs: Entropie hat auch eine subjektive Komponente: Ob ein Mikrozustand nämlich einem Makrozustand niedriger oder hoher Entropie zugeordnet wird —- Krüger (buddhistisch umformuliert): Ob etwas (mein Denken, eine Ansicht von mir) niedrige E. hat [“in Ordnung“ ist (i.S.v von richtig/wahr/ethisch gut) oder hohe E. hat (i.S.v. falsch/schlecht; Herr Päs: ethisch böse)] —-, ist eine Frage der Definition oder des verfügbaren (Krüger: gewussten) Wissens. Das tut der Allgegenwart von Entropie —- Krüger: Der _Möglichkeit_ von Wissen/Verstehen (“die Dinge so zu sehen wie sie wirklich sind“) —- freilich keinen Abbruch. Denn auch wenn Entropie zu einem gewissen Maß subjektiv — Krüger: relativ; insf. — ist, spielt unser Leben sich in Makrozuständen ab: Statt von Atomen und Elementarteilchen sprechen wir von Menschen und Wetter, von Nachrichten, Gesetzen und der Wirtschaft. Oder von Autos —- Krüger: Kommunizieren mit Konzepten (abstrakten Begriffen). Nicht mit “objektiven Tatsachen“, den das Konzept konstituierenden Wirklichkeiten/Wahrheiten. Wobei, etwas trivial angemerkt, “die Messung (aber) die Wahrheit beeinflusst.“

    Herr Päs: Beim Wurf mit zwei Würfeln ist die wahrscheinlichste Gesamt-Augenzahl die ,,Sieben” [..]. Der Makrozustand ,,Sieben” entspricht den sechs Mikrozuständen ,,16″, ,,25″, ,,34″, ,,43″, ,,52″, ,,61″, der Makrozustand ,Zwölf” entspricht dem Mikrozustand ,,66″. Weil es viel wahrscheinlicher ist, aus einer ,,Zwölf” im Würfelbecher durch Würfeln eine ,,Sieben” zu erhalten als umgekehrt, nimmt die Entropie normalerweise zu. — Krüger: S.a. das Bild 3 auf S. 10 in der URL direkt hier unten drunter.

    https://oparu.uni-ulm.de/xmlui/bitstream/handle/123456789/2636/vts_8452_12451.pdf?sequence=1&isAllowed=y (S.35): Ein falsch eingeordnetes Buch ist in einer alphabetisch geordneten Bibliothek kaum noch zu finden. Das alphabetisch geordnete System (hingegen) hat nur einen einzigen Mikrozustand [..]. Überlässt man ein System seiner eigenen, vom Zufall gesteuerten Dynamik, dann stellt sich bald der Zustand maximaler Wahrscheinlichkeit ein und der bildet meist kein brauchbares System. Das neue Auto (sensibel selbst gegen kleine Beulen) endet, wenn nicht instandgehalten, als Häufchen Rost (fast alle Anordnungen der Moleküle sind gleichwertig) [..]. Ordnung leistet nur eine ganz bestimmte, sehr seltene Anordnung, ein Zustand, der eine extrem kleine Anzahl von Mikrozuständen aufweist. Oft nur einen. — Krüger: Lebendig sein z.B. (aus menschlicher Sicht sehr wertvoll) — (S. 36): Wenn wir die Bedeutungsunterschiede kennen gelernt haben, sind sie informativ. Das Wort “Bedeutung” ist also sehr subjektiv vom Wertesystem abhängig — Krüger: Dem “Bezugssystem“: https://www.youtube.com/watch?v=mnJuKXhFaQ8.

    Abgeschlossenes und offenes System

    https://www.uni-ulm.de/fileadmin/website_uni_ulm/nawi.inst.251/Didactics/thermodynamik/INHALT/DEF.HTM

    Wiki (unter *Abgeschlossenes System*): Als abgeschlossenes oder isoliertes System wird ein System ohne Wechselwirkung mit seiner Umgebung bezeichnet. — Krüger: Das All ist insf. ein abgeschl. System [kein offenes, wie man (i.S.v. unendliches) denken möchte], da es keine “Umgebung“ hat.

    Wiki (unter *Offenes System*): Ein hinsichtlich irgendeiner Kategorie offenes System ist ein System, das an den Schnittstellen zu seiner Umwelt eine Austauschbilanz hat, die in dieser Kategorie ungleich null sein kann. — Krüger: Das All hat keine Umwelt; nur “sich selbst.“

    Wiki (unter *Erster Hauptsatz der Thermodynamik*): Der Erste Hauptsatz der Thermodynamik beschreibt die Energieerhaltung in thermodynamischen Systemen. Er sagt aus, dass die Energie eines abgeschlossenen Systems konstant ist.

    Dekohärenz ist ja eigtl. auch noch ein wichtiger Begriff i.Z.m. Entropie. Dass ihn, wie Herr Päs schreibt, H.D. Zeh “entdeckt“ hat, empfinde ich nicht so. (Weiter-) entwickelt aus vorherigen Konzepten träfe es besser. In seinem (Zeh’s) Buch *Physik ohne Realität: Tiefsinn oder Wahnsinn?* [das ich nicht ausführlich gelesen habe (kostenlos als download verfügbar), da es für mich als Laie zu “schwierig“ ist)] schreibt er (S. 92), dass **das Wesen der Dekohärenz also in nichts anderem besteht als der permanenten Zunahme von Verschränkung zwischen allen Teilsystemen des Universums, was einer ständigen Dislokalisation von zunächst lokalen Superpositionen entspricht.** — Krüger: Dislokalisation (Begriff aus der Medizin) = Lageveränderung. — (S. 46): **Der Dekohärenz-Mechanismus beschreibt mittels der Schrödinger-Gleichung eine irreversible Delokalisierung von Superpositionen in Form einer globalen Verschränkung, so dass diese für einen lokalen Beobachter unzugänglich werden.** — Krüger: Was, wenn ich das richtig verstehe, auf “Viele Welten“ hinausläuft. Zu Dekohärenz siehe (“ggfls.“) auch (Harald Lesch; 2006): https://www.br.de/mediathek/video/alpha-centauri-was-ist-dekohaerenz-av:584f90033b46790011a4ee5b.

    Herr Päs erwähnt ja auch *Von-Neumann-Entropie*. “Puh“; hat offenbar mit der Wechselwirkung (bei einer Messung) – außer zwischen Apparat und Objekt (auch) – mit der W. zwischen Apparat und Beobachter zu tun. H.D. Zeh bemerkt dazu (S. 56): **Von Neumann begründete seinen Kollaps daher auch mit dem Ziel, einen „psychophysischen Parallelismus“ zu ermöglichen, durch den man den Bewusstseinszustand des Beobachters eindeutig einem bestimmten Quantenzustand in seinem Gehirn zuordnet.** — Krüger: In dem Buch **Philosophie der Quantenphysik: Einführung und Diskussion der zentralen Begriffe und Problemstellungen der Quantentheorie für Physiker und Philosophen** von Cord Friebe (et al.) steht auf S. 280: In von Neumanns Theorie des Messprozesses [..] wird auch der Messapparat quantenmechanisch beschrieben. Dabei entsteht das Problem, dass für das Zustandekommen eines eindeutigen Messergebnisses eine diskontinuierliche Zustandsänderung („Kollaps“) gefordert werden muss. Von Neumann lässt die Möglichkeit offen, dass diese Zustandsänderung erst bei der Wahrnehmung, also durch das Bewusstsein des Beobachters, eintritt.

    Zum Schluss nochmal kurz (obwohl ich mich tlw. wiederhole): Niedere Entropie [Ordnung, komprimierte Struktur, endliches Volumen, Leben; ein (verglichen mit dem All) Mikro-/Ausnahmezustand] ist gleichzeitig auch eine Form hoher (komprimierter) Energie/Temperatur. Hohe Entropie [Unordnung, ausgedehnte Struktur, ein Makrozustand (bestehend aus, wie immer gearteten, Mikrozuständen)] enthält natürlich ebenfalls Energie (“die Gesamtenergie des Alls ist/bleibt konstant“), aber in einem ausgedehnten/ausgedehnterem (“unendlichem“) Volumen – und hat eine niedrigere Temperatur als die komprimierte Struktur. Herr Päs: In physikalischen Prozessen nimmt die Entropie zu (Krüger: die Temp. ab), weil sich der unwahrscheinlichere Makrozustand (Krüger: die hohe Temp.) zum wahrscheinlicheren (K.: der niedrigen Temp.) hin entwickelt [..]. Geordnete Strukturen wie das Leben funktionieren nur, weil biologische Organismen die niederentropische (K.: geordnete, “hoch“konzentrierte) Energie – z.B. in Form von Nahrung – in hochentropische Wärme umwandeln —- K. = Exkremente; aus menschlicher Sicht wenig ordentlich; nicht/kaum wiederverwendbar); https://vimeo.com/153070134 (“Energiekreislauf“) *My cat in me*.

    Hohe Wärme (die Temp. sehr kurz nach dem Urknall) wird ja eher mit Unordnung (i.S.v. Chaos) assoziiert. Obwohl man hohe Wärme (i.S.v. höher als in Lebewesen daher) eigtl. mit _noch_ strukturierter/geordneter (“intelligenter, besser“) als Lebewesen assoziieren möchte (was man aber als anthropozentrische Sicht kritisieren kann). Jedenfalls muss man aufpassen in welchem Kontext man wertende Begriffe gebraucht, denn sie sind eben auch qualitativ “relativ“ – je nach “Bezugssystem“ (man denke an den gr. Stamm von Entropie = “Wandlungspotenzial“). Herr Päs schrieb (am 4.1. – 13:57): *Und die niedrige Entropie zu Beginn des Universums ist der Grund dafür, dass sich überhaupt Prozesse im Universum abspielen.* Damit meinte er (oder?), dass sich etwas Ordentliches nur aus etwas Unordentlichem entwickeln kann. Zwar kann sich auch aus etwas bereits Ordentlichem etwas _noch_ ordentlicheres entwickeln, aber logischer (vom Beginn her gesehen) erscheint es doch umgekehrt (Ordnung aus Unordnung). Auch die Natur mit ihrem Bestreben die Art zu erhalten (was ja konträr zu Entropie i.S.v. “kaputt gehen“ ist) spricht dafür – dass Struktur aus niedriger/er Struktur (der Unordnung im Urknall) entsteht.

    Im Buddhismus nun wiederum allerdings wird Leben (Fortpflanzung) als (Aufrechterhaltung von) Leiden angesehen. Insofern ich Herrn Päs‘ “Leitspruch“ *Die Welt ist wunderbar* nicht “von ganzem Herzen” zustimmen kann (andererseits könnte es schlimmer sein; wenn es besser wäre, wäre es aber auch nicht schlecht). Im Buddhismus gibt es verschiedene Existenzformen. Niedere und höhere als die menschliche. Die niederen sind natürlich nicht erstrebenswert – aber die höheren letztendlich auch nicht. Die menschliche Existenzform (Struktur) ist eine für die man dankbar sein muss. Denn nur in ihr, so der Buddhismus, kann man erkennen “wie die Dinge wirklich sind.“ Welche Konsequenzen man dann daraus zieht ist jedem selbst überlassen.

    Beste Wünsche für 2018.

    Anm. 1: *… und Gott würfelt doch: Irrtümer und Halbwahrheiten über die Quanten … und wie es wirklich ist* von Thomas Görnitz (zz. nur als E-book bei Amazon verfügbar – Kindle Edition). Ein durchaus lesenswertes Buch; mit allem einverstanden sein muss man ja nicht.

  47. Herr Päs,
    damit wir nicht aneinander vorbeireden, mit welchen Begriff belegen Sie das Wissen der Physik, also den gegenwärtigen Stand der Wissenschaft?
    Beinhaltet sie nicht Information und werden die Informationen über den Stand der Wissenschaft nicht an die Studenten weitergegeben? Was haben alle Wissenschaftler in ihrem Kopf , doch nur Wissen, das ich mit Information bezeichne.
    Also das Streben der Wissenschaft ist das nach einem Maximum an Wissen/Information.
    dazu braucht es Zeit. Jahrtausende. Was geschieht in dieser Zeit?. die Entropie nimmt zu. So war das von mir gemeint.

  48. @ Herr Päs: Ihre Antwort vom 5. Januar 2018 @ 14:07

    Prinzipiell finde ich es allerdings zulässig, zu diskutieren, ob Bewusstsein auf einer speziellen Art der Informationsverarbeitung beruht (ala Koch/Tononi, was ich als Panpsychismus auffassen würde)

    Zunächst einmal: Nein, ich bin ganz sicher keine Panpsychistin, und ja, es ist zulässig, auch das zu diskutieren – oder zu behaupten. Man muss halt nur sagen, worauf mein seine Behauptungen stützt.
    Ich muss wohl etwas ausholen, um zu verdeutlichen, wovon ich ausgehe. Wie ich schon schrieb, beschäftige ich mich mit dem menschlichen Gehirn und dem, was Informationsverarbeitung genannt wird. In den Wissenschaften, die dies untersuchen, geht man davon aus, dass unabhängig von individuellen, kulturellen usw. Unterschieden, die Informationsverarbeitung bei allen Menschen in der gleichen Weise abläuft: Wenn wir einen Gegenstand sehen, dann sind es im Wesentlichen dieselben Neuronen / Neuronengruppen, die an der Farbe, der Form, dem Ort des Gegenstandes beteiligt sind, von denen die einen auf dem Was- und die anderen auf dem Wo-Pfad liegen. Dies trifft zwar zu, aber ich habe durch einen Zufall herausgefunden, dass die ‘Verarbeitung’, wenn man das so nennen will, nicht bei allen Menschen gleich ist, sondern Menschen sich in zwei Gruppen teilen. Sehr vereinfacht beschreibe ich es manchmal so: Würde die Informationsverarbeitung auf dem Kommutativgesetz beruhen, so würde das Gehirn der einen Gruppe addieren, das der anderen Gruppe multiplizieren.
    Die menschliche Informationsverarbeitung beruht allerdings nicht auf dem Kommutativgesetz, sondern auf einem Regelwerk, das in zwei Varianten vorliegt und dessen Regeln alle aus drei Variablen – X,Y,Z – bestehen. Der Unterschied liegt in der Reihenfolge der Variablen: entweder X, Y, Z oder (ZX) Y. Das Gehirn der einen Gruppe Menschen arbeitet also mit der ersten, das Gehirn der anderen Gruppe mit der anderen Variante und zwar entweder / oder. Die Varianten sind zwar ineinander überführbar, aber nicht innerhalb eines Gehirns. Die Wirklichkeit, die wir erleben, entspricht jedenfalls der ersten Variante: Von X über Y zu Z.

    Ich bin übrigens nicht die erste, die davon ausgeht, dass es zwei Gruppen gibt, ich bin aber die erste, die festmachen kann, was diese beiden Gruppen bzw. die beiden Arten der Informationsverarbeitung konstituiert: ein Regelwerk in zwei Varianten. Erklären kann ich das am sogenannten Bindungsproblem, das ich oben erwähnt habe: wie arbeitet das Gehirn, um Form (X), Ort (Y) und Farbe (Z) zu einem einheitlichen Objekt zusammen zu fügen. Aus der Interaktion ergibt sich der Verbund: das Objekt wird wahrgenommen. Auf den nächsthöheren Verarbeitungsebenen bilden alle drei gemeinsam die Variable X, in Y kommen weitere sensorische Systeme, insbesondere das haptisch-taktile hinzu, aus der Interaktion ergibt sich: das Objekt wird erkannt, usw. Das betrifft dann schon das Bewusstsein, was allerdings auch nur dann der Fall sein kann, wenn am synaptischen Spalt zu den interagierenden Neuronen eine Y-Größe hinzukommt und “mitmischt”.

    Ich habe keine Ahnung, von welcher “speziellen” Art der Informationsverarbeitung Koch und Tononi ausgehen bzw. auf welchen Regeln diese Art beruhen soll. Wenn wir davon ausgehen wollen, dass in im Fall des Bewusstseins dieses eine Eigenschaft des Universums ist, die auf Informationsverarbeitung beruht, kann diese als “spezielle” Art nur auf der zweiten Variante beruhen: (ZX) Y, denn auch wenn es drei Klassen von Regeln gibt und jeder Klasse eine ganze Reihe von Regeln enthält, mehr als zwei Varianten gibt es nicht.

    Wenn man von Regeln spricht, sollte man 1. sagen können, um welche Regeln es sich handelt und man sollte 2. sagen können, welche Eigenschaften die Variablen von den in sie einzusetzenden Größen fordern.
    Zu 1.: Beim Regelwerk handelt es sich um die Kausalität – und die XYZ-Variante beschreibt, wie gesagt, die Wirklichkeit die wir erleben als Ursache -Wirkungs-beziehung: Wenn X der Fall ist (ein Haus, ein Fenster) und Y hinzukommt (der Blitz schlägt ein, der Tritt gegen einen Ball befördert diesen ins Fenster), dann gehört Z dazu (das Haus fängt an zu brennen, die Scheibe geht zu Bruch) – mit der zweiten Variante lassen sich diese Vorgänge nicht beschreiben – außer man nimmt sie gedanklich vorweg.
    Zu 2.: Welche Eigenschaften haben ein Haus, ein Fenster, usw. sowie ein Blitz, ein Ball der ins Fenster fliegt usw. und das, was als Wirkung daraus hervorgeht, gemeinsam? Die Zeit: Haus und Fenster sind etwas, das vorhanden sein muss, sie haben eine Vergangenheit, Blitz, Ball usw. geschehen in der Gegenwart des Ereignisses “Ursache”, und was sich als Wirkung ergibt, wird in der Zukunft (nicht / nicht mehr) existieren.
    Die XYZ-Regel schreibt mit einer der Grundregeln den Zeitpfeil vor, und ich habe keine andere Möglichkeit gesehen, welche Größen dann in diese Grundregel eingesetzt werden könnten, die gemeinsam die Eigenschaft “Zeit” haben – als die drei Dimensionen.

    Mit der Variante (ZX)Y ist es schwieriger: Nach ihr muss die Vergangenheit in der Zukunft vorkommen, dann ist auch Gegenwart der Fall. Die Eigenschaft Zeit gilt also auch für die Variablen dieser Variante …

    Ich sehe daher absolut keine Möglichkeit, nach welcher Variante welche Materieteilchen so miteinander interagieren könnten, dass daraus Bewusstsein entstehen könnte.

  49. @Herr Päs

    Diesen Zusammenhang [Aus meiner Perspektive, dass auch die Vorgänge in der Welt außerhalb unseres Gehirns denselben Regeln unterliegen wie die Vorgänge im Gehirn, trifft die Kopenhagener Interpretation zu ] verstehe ich nicht.

    Meine Perspektive betrifft die Regeln, die ich oben beschrieben habe und von denen ich behaupte, sie bilden das Regelwerk Kausalität. Auch wenn die Physiker mit ihr nichts mehr am Hut haben – das liegt vermutlich daran, dass bisher nur der Sonderfall des Verhältnisses von Ursache und Wirkung in Form einer Beziehung bekannt ist, der mit einigen Regeln vom XYZ-Typ beschrieben werden kann. Kausalität umfasst aber wesentlich mehr Regeln und vor allem: ihre Regeln sind präskriptiv und sie liegen in zwei Varianten vor.

    Und ich bin auch anderer Meinung 😉

    Ich würde Ihnen ja gern Widerstand entgegen setzen, aber dafür ist momentan das Eis, auf dem ich mich bewege, noch zu dünn, 🙁

    • @Trice:

      Diese Aussagen verstehe ich überhaupt nicht:

      Mit der Variante (ZX)Y ist es schwieriger: Nach ihr muss die Vergangenheit in der Zukunft vorkommen, dann ist auch Gegenwart der Fall. Die Eigenschaft Zeit gilt also auch für die Variablen dieser Variante …

      Ich sehe daher absolut keine Möglichkeit, nach welcher Variante welche Materieteilchen so miteinander interagieren könnten, dass daraus Bewusstsein entstehen könnte.

      und:

      Kausalität. Auch wenn die Physiker mit ihr nichts mehr am Hut haben

      Wie kommen Sie darauf?

  50. Trice,
    was Sie das sehr eindrucksvoll beschreiben, wie Menschen in zwei Typen des Denkens eingeteilt werden, dass ist das tägliche Brot von Grundschullehrern/innen. Kinder zeigen beim spielerischen Lösen von Aufgaben tatsächlich zwei verschiedene Verhaltensmuster. Die einen ordnen und die anderen kombinieren. Die Lernpsychologie hat auch längst herausgefunden, dass es optische Typen gibt, akustische und habtische. Die Information, die beim Kind ankommt wird also erstmal verschieden aufgenommen und auch dann noch verschieden verarbeitet. Durch die vielen Mischtypen wird nur verschleiert, dass man auf verschiedene Arten zu einem gleichen Ergebnis kommen kann. Deshalb ist in der Schule ein regelmäßer Lehrer/innenwechsel notwendig.
    Was jetzt Information direkt mit Bewußtsein zu tun hat, weiß ich auch nicht. Es wäre aber denkbar, dass es auch verschiedene Arten von Bewußtsein gibt. Und das würde auch erklären, warum manche Menschen emotional denken und reagieren, andere wieder logisch analytisch und emotional unterkühlt.

  51. @hmann: zwei Typen?

    wie Menschen in zwei Typen des Denkens eingeteilt werden, dass ist das tägliche Brot von Grundschullehrern/innen

    Dieser Einteilung liegt mein Ansatz zwar zugrunde, sie ist aber deshalb nicht dasselbe. Wie ich schon schrieb, bin ich nicht die erste, die darauf gekommen ist. Dreizehn Jahre vor mir stellte das schon die Mathematikdidaktikerin Inge Schwank* fest, die diesen Unterschied auf zwei verschiedene kognitive Strukturen zurückführte – mit dem Erfog, dass man ihr bescheinigte, sie habe zwei weitere Denkstile entdeckt. Damals ist sie jedes Mal ausgeflippt, wenn man in ihrer Gegenwart von den beiden Denkstilen spricht. Ich habe damals zwei Stunden gebraucht, um ihr zu erklären, woran sie es hätte festmachen müssen (sie ist keine Psychologin, die verstehen es sofort), und sie sagte damals: Ja, das ist es.

    Die Lernpsychologie hat auch längst herausgefunden, dass es optische Typen gibt, akustische und habtische.

    Damit hat es nun absolut nichts mehr zu tun.

    Die Information, die beim Kind ankommt wird also erstmal verschieden aufgenommen und auch dann noch verschieden verarbeitet.

    Das ist die crux mit dem Begriff “Information” – es wird Unterschiedliches darunter verstanden und er wird auch nicht einheitlich gebraucht. Deshalb finde ich den Zusammenhang mit dem Begriff Entropie so interessant, daher habe ich aber auch in meinem Ansatz konsequent auf ihn verzichtet, um keine Missverständnisse aufkommen zu assen. Ich habe mich auf die verschiedenen Regeln beschränkt, mit denen ich zeigen kann, wie das Gehirn nach ihnen aufgebaut ist, und wie es deshalb auch arbeitet – Struktur und Funktion bedingen sich wechselseitig.
    Das heißt, ich bestreite, dass das Gehirn ein informationsverarbeitendes System ist.

    Was Sie meinen, vollzieht sich innerhalb der Systeme Bewusstsein und Repräsentationssystem. Die gehören zwar zu meinem Ansatz dazu, aber mich interessiert nur das Regelwerk Kausalität, das u. a. dem Aufbau und der Arbeitsweise des Gehirns zugrunde liegt.
    Einstein hatte doch recht, als er sagte: “Der Alte würfelt nicht” – nicht mit dem Alten, der wird nicht gebraucht, aber gewürfelt wird tatsächlich nicht, sondern geregelt.

    *Inge Schwank: Kognitive Mathematik

    • Das heißt, ich bestreite, dass das Gehirn ein informationsverarbeitendes System ist.

      Auch diese Aussage ist mir rätselhaft. Jede Zeitentwicklung besteht doch aus Informationsverarbeitung: Ein System hat einen Zustand, bekommt Input (wird beeinflusst) und ändert seinen Zustand entsprechend (bzw. behält ihn bei). So arbeiten alle physikalischen Systeme und damit auch das Gehirn, ja auch dezidiert nicht-physikalische Systeme wie z.B. der Aktienmarkt.

  52. @Trice

    Was Sie beschreiben,erinnert mich stark an den Sukzessivkontrast. Modern ist es,den Komplementärkontrast anzufügen und aus Komplementarität ein Prinzip zu formulieren. Aber der Sukzessivkontrast hängt eben stärker mit Elektromagnetismus und eben Informationsverarbeitung zusammen. Er entsteht ‘im’Gehirn. Es ist aber eine Frage die bleibt,ob rot und grün Information ist?

  53. @Mussi

    Ich sehe keinen Zusammenhang zwischen dem, was ich beschreibe und dem, was Sie offenbar damit verbinden.
    Das z.B.:

    Er [der Sukzessivkontrast] entsteht ‘im’Gehirn. Es ist aber eine Frage die bleibt,ob rot und grün Information ist?

    kann ich überhaupt nicht einordnen. Wonach fragen Sie und wovon gehen Sie, was die Arbeitsweise eines menschlichen Gehirns betrifft, aus?

    • Meine Assoziation geht in Richtung Optogenetik und des Einsatzes von Licht bei der Erforschung des Gehirns. Da sie selbst Farbe als Teil der Informationsverarbeitung ansprechen, hoffte ich, Sie hätten etwas zu dem Phänomen Sukzessivkontrast sagen können. Desweiteren wird bei Chomsky reduktionistsich diskutiert, das es lediglich “ja/nein”-Strukturen geben könnte. Das könnte auf “plus-minus” bei EM hinweisen. Auch nur eine Assoziation zu zwei “Grundmustern” des Denkens. Nichts für ungut. Lediglich Assoziationen die nichts aussagen müssen.

  54. @Trice

    Zitat: „… Das heißt, ich bestreite, dass das Gehirn ein informationsverarbeitendes System ist. …“.

    Seit Warren McCulloch (ca. 1943) steht fest dass im Gehirn eine „Informationsverarbeitung“ stattfindet.

    Wenn von sensorischen Zapfen im Auge, z.B. beim Auftreten der Farbe blau, elektrische Signale (Impulse) auf einer Nervenfaser letztlich in das Gehirn geleitet werden, wird zweifellos Information elektrisch abgebildet, wie in technischen Systemen. (Auf den Umstand dass in der Realität eine Vorverarbeitung der Information noch im Auge stattfindet, soll hier nicht eingegangen werden).

    Wenn weiters ein Neuron hauptsächlich dann triggert (einen Impuls aussendet) wenn auf möglichst viele Dendriten (Eingängen) möglichst gleichzeitig derartige Impuls eintreffen, so entspricht dies ungefähr einer „Gatterfunktion“ (UND Funktion) wie in elektronischen Systemen. Jedenfalls statistisch, worauf ich hier nicht näher eingehen kann.

    McCulloch hat weiters aufgezeigt dass auch eine Negationsfunktion (NOT) möglich ist.

    Diese beiden Funktionen (UND, NOT) ermöglichen grundsätzlich eine vollständige Informationsverarbeitung und sind auch systemimmanent für Information verarbeitende Systeme. Mittels Boolscher Algebra könnten diese Signale prinzipiell mathematisch ausgewertet werden.

    Wie weit Quanteneffekte, die Grundlage der Chemie sind, eine zusätzliche besondere Rolle spielen, ist hier nicht wirklich relevant.

    Dass bei verschiedenen Typen von Menschen verschiedene „Pfade“ von den die Information abbildenden Signalen aktiviert werden, ist naheliegend.

    Entsprechend der anliegenden Information gelangen örtlich (von einem bestimmten Sensor ausgehend) und zeitlich nacheinander, elektrische Signalmuster zum Gehirn und können verarbeitet werden. Andererseits gelangen ebenfalls elektrische Signalmuster an die motorischen Organe und generieren den Output. (z.B: Sprache). Das Gehirn ist demnach auch eine Signalverarbeitungsmaschine.

    Was wir unter „Bewusstsein“ (jedoch ohne das besondere „Empfindungsbewusstsein“, wie Lust und Schmerz) verstehen, betrifft meiner Meinung nach hauptsächlich die gleichzeitige (mathematisch) Abbildung von vielen „Musterkomponenten“ auf besonderen meistens „flächigen neuronalen“ Strukturen. Es sind so etwas wie „Zwischenergebnisse“ oder „Ergebnisse“ von „Rechenoperationen“. Könnte man sich vorstellen wie einen Flachbildschirm, nur steht nicht das optische Bild, sondern die gleichzeitigen Triggerungen von Neuronen auf „hautartigen Schichten“ (wie z.B. auf der Netzhaut oder an den Grenzschichten zwischen Hirnorganen) im Vordergrund. (Auf der Netzhaut des Auges steht tatsächlich zunächst ein optisches Bild an, dass danach im neuronalen Netz umgesetzt wird.)

    Diese Bewusstseinsabbildung kann Ausgangspunkt für Handlungen sein.

    Dieses Bewusstseinsanzeigesystem kann aber auch, z.B. „unterbewusst umgangen“ werden um ein schnelleres reflexhaftes Handeln zu ermöglichen.

  55. Elektroniker
    Das Gehirn als Signalverarbeitungsmaschine, das ist ein griffiges Modell, die Gedanken sind dann die Ergebnisse einer Software, die wiederum eine Abbildung der realen Welt ist.
    Zur realen Welt gehören Gefühle, wie passen die in dieses einfache Modell?
    Dabei machen die Gefühle unsere Existenz aus, nicht unser Intellekt.
    Wie passen moralische Maxime in dieses Modell?
    Was machst du mit Menschen, die an Gott glauben?
    Ich denke, so eine Modellvorstellung hat einen praktischen Nutzen, man darf sie aber nicht philosophisch deuten.

  56. @Mussi

    Sie schreiben:

    Da sie selbst Farbe als Teil der Informationsverarbeitung ansprechen, hoffte ich, Sie hätten etwas zu dem Phänomen Sukzessivkontrast sagen können.

    Nein, ich habe nicht Farbe als Teil der Informationsverarbeitung angesprochen, sondern beispielhaft am Trio “Form-Ort-Farbe” beschrieben, wie das menschliche Gehirn arbeitet, um diese drei Merkmale zu einer Einheit, einem Objekt, zusammenzufassen. Das ist etwas völlig anderes, als das, worauf Sie abheben, ok?

    Desweiteren wird bei Chomsky reduktionistsich diskutiert, das es lediglich “ja/nein”-Strukturen geben könnte. Das könnte auf “plus-minus” bei EM hinweisen. Auch nur eine Assoziation zu zwei “Grundmustern” des Denkens.

    Darin könnte der Verständnisfehler liegen: Sie haben aus meinem Bezugssystem ein Element entnommen und versucht, es in Ihren Bezugsrahmen zu integrieren. Da wir aber sehr unterschiedliche Bezugssysteme meinen, konnte ich mit Ihren Ausführungen so wenig anfangen, wie Sie mit meinem – denn ich habe auch nicht von Grundmustern des Denkens geschrieben.

  57. @Elektroniker

    Sie haben in meinem Zitat den kursiv geschriebenen Teil unterschlagen, 😉 ich hatte – und statt kursiv nun fett: Informationsverarbeitung geschrieben, also nicht bestritten, dass es Information gibt, sondern dass sie verarbeitet wird.

    Seit Warren McCulloch (ca. 1943) steht fest dass im Gehirn eine „Informationsverarbeitung“ stattfindet.

    🙂 Kennen Sie den Film “Men in Black”? Ich meine, im ersten Teil gibt es eine Stelle, an der Agent K sinngemäß sagt, vor tausend Jahren haben die Menschen gewusst, dass die Erde eine Scheibe und der Mittelpunkt des Universums ist, vor 250 Jahren haben die Menschen gewusst, dass der Mensch von Gott im Paradies erschaffen wurde – und ich füge mal hinzu: vor 150 Jahren haben die Physiker gewusst, dass es in der Physik nichts Neues mehr zu entdecken gibt …
    Sie verstehen, worauf ich hinauswill? Eine Annahme ist so lange richtig, bis sie von einer neuen Idee, die den Sachverhalt besser beschreibt, abgelöst wird.

    Wenn man aber eine Annahme ablösen will, sollte man sie kennen, d.h., was Sie beschreiben, kenne ich – Dörner arbeitet in seiner PSi-Theorie mit den genannten Verknüpfungen, usw.
    Nun schreiben Sie:

    Dass bei verschiedenen Typen von Menschen verschiedene „Pfade“ von den die Information abbildenden Signalen aktiviert werden, ist naheliegend.

    Ich vermute, Sie haben noch nie vom “Wo” und “Was”-Pfad gehört? Den Was-Pfad bilden Neurone des parvozellulären, den Wo-Pfad Neurone des magnozellulären Systems. Auf ersteren geht es um Form und Farbe, auf dem zweiten um Ort und Bewegung – bei allen Menschen! Wird allerdings, je weiter man voranschreitet, umso diffiziler.

    Da es in diesem Beitrag von Herrn Päs um Entropie und Information geht, will ich den Rahmen nicht sprengen, und lang und breit auf mein Modell eingehen. Nur so viel: die Disziplinen, die sich mit dem menschlichen Gehirn befassen, sind empirische Wissenschaften, heißt, sie arbeiten experimentell, und sie versuchen, das Gehirn anhand seiner Materie (Substanzen) und seiner Vorgänge zu erklären. ich mache etwas vollkommen anderes: Ich postuliere ein Regelwerk und lege dieses zur Erklärung des Aufbaus und der Vorgänge im Gehirn zugrunde. Das heißt, wenn im Gehirn Prozesse auf den gerade genannten Pfaden ablaufen, um beispielsweise die Merkmale Form Ort Farbe zu einem Objekt zusammenzufassen, dann ist nach meinem Modell die einzige “Information”, die beteiligte Neuronengruppen brauchen, die über die Variablen-Position: wer hat Position X (Form), wer hat Position Y (Ort), wer hat Position Farbe (Z). Das ist aber keine Information, die irgendwie “verarbeitet” werden muss. Aber je höher man beim Konzepterwerb in der Hierarchie nach oben steigt, umso vollständiger wird die Information, die sich über diese Prozesse ergibt. Nach demselben Prinzip werden übrigens auch “Und”-, “Oder”-, “Not”-Verknüpfungen angelegt.
    Ich habe drei Jahre lang mit einer Physikerin an diesem Modell gebastelt – sie gehörte vor Jahren mal zum Team von Zeilinger, daher habe ich ein bisschen was über Quantenmechanik gelernt -, und sie meinte zunächst auch, für die Verknüpfungs-oder Verschaltungsarchitektur brauche man das Regelwerk nicht. Das war ein Irrtum, denn wie ich oben schrieb: im Gehirn bedingen sich Struktur und Funktion wechselseitig, das Gehirn ist nach denselben Regeln aufgebaut und baut sich und seine Verknüpfungen auch selber nach den Regeln, nach denen es arbeitet.

    Das Gehirn ist also keine Informationsverarbeitungsmaschine, es gibt keine Bewusstseinsabbildung und keine Musterkomponenten – all diese Annahmen beruhen auf einer falschen Vorstellung vom menschlichen Gehirn. Da ich Dörner erwähnt habe: er betitelt seine Psi-Theorie als “Bauplan für eine Seele”. Er fragte mich damals, wie er in diesem Bauplan die komplementäre, auf der Regelwerksvariante beruhende, Art unterbringen könne, und war verärgert, als ich sagte, das ginge nicht, weil er zu Beginn einen Fehler gemacht habe. Deshalb habe ich mich, nachdem ich mein Modell in Grundzügen entwickelt hatte, an einen anderen Wissenschaftler – auch eine Koryphäe auf dem Gebiet – gewandt, um dessen Meinung zu hören. Er sage damals, dieser Ansatz passe nicht in die derzeitige wissenschaftliche Landschaft, weil es eine theoretische und nicht empirische Arbeit sei, aber ich wisse ja, dass die beiden größten herausforderungen für die Wissenschaften seien, die Antworten auf die Fragen zu liefern: wie funktioniert das Universum und wie arbeitet das menschliche Gehirn. Daran arbeiteten Tausende von Wissenschaftlern und würden Milliarden an Forschungsgeldern verwendet. Und dass nun ausgerechnet jemand wie ich kommt, die das Gehirn im Alleingang stemmt und ihm die Lösung auf den Tisch legt, das sei imgrunde jenseits aller Wahrscheinlichkeit.
    Also: diejeinigen, in deren Fachgebiet meine Arbeit gehört und die meinen Ansatz kennen, wissen, dass er die Lösung und Antwort auf die Frage nach dem Gehirn ist. Oder sein wird, wenn ich das Regelwerk komplett habe (und es sich mathematisieren lässt).

  58. @hmann;
    Physikalisch ist der blaue Himmel nicht blau, sondern schwarz. Die Streuung der elektromagnetischen Strahlung in der Atmosphäre täuscht uns einen blauen Himmel vor. Blaues Licht gibt es nicht, es gibt nur die kurzwellige Strahlung, die uns blau erscheint. Warum das so ist, das wissen wir nicht, und werden es wahrscheinlich nie wissen. Genauso wissen wir nicht, warum nicht Nichts ist.

    Der Organismus ist ein riesiges Konglomerat biochemischer Prozesse. Tausende Prozesse finden gleichzeitig statt und wandeln chemische Substanzen in andere Substanzen um, transportieren elektrische Ladungen oder Moleküle als Signale durch die Nervenstränge, oder reagieren mit ganz spezifischen Substanzen gemäß dem Schlüssel-Schloss-Prinzip zur Signalverarbeitung (z.B. Transmitter und Rezeptor). Die Substanzen und Prozesse selber sind nicht wahrnehmbar. Sie erscheinen uns als Empfindungen, Gefühle oder Gedanken. Störungen oder Abweichungen in den biochemischen Prozessen zeigen sich als organische, psychische oder mentale Störungen bzw. Krankheiten.

    Wir alle kennen die Folgen von Alkohol, Drogen, Medikamenten, Dopingmitteln oder anderen Substanzen, die Einfluss nehmen auf die biochemischen Prozesse mit entsprechenden Folgen. Es sind die materiellen Strukturen und Prozesse, die im Computer Information hervorbringen. Genauso bringen sie im Organismus die Information hervor, die wir als Gefühle deuten und deren wir uns bewusst sind.

  59. Hallo Elektroniker,

    Sie schreiben:
    “Wenn von sensorischen Zapfen im Auge, z.B. beim Auftreten der Farbe blau, elektrische Signale (Impulse) auf einer Nervenfaser letztlich in das Gehirn geleitet werden, wird zweifellos Information elektrisch abgebildet, wie in technischen Systemen. ”

    Informationen entstehen aus Signalen durch Bewertung. Denn Signale können alles sein, Rauschen, zufällige Muster, Einzelimpulse im sonst Garnichts, usw. Informationen werden daraus, indem diese Signale bewertet werden.

    Informationen sind bewertete Signale.

    Die Bewertung von elektrischen Impulsen, die über eine Nervenfaser geleitet werden, werden an den Neurotransmitter-Positionen nach Stärke und Frequenz (soweit ich weiß, bin kein Fachmann) gefiltert. Diese Filterung ist eine Bewertung. Der Organismus hat diese gelernt, als er feststellte, daß es dem Überleben oder etwas anderem dienlich ist, auf bestimmte Umweltreize nicht zufällig sondern einem Wert folgend zu reagieren. Die elektrischen Impulse der Nervenfaser sind und bleiben Signale und werden nicht von selbst auf die höhere Stufe der Information gehoben.

    Ihren Informationsbegriff müßten Sie definieren, auch Herr Päs hat das versäumt. Das ist ja keine physikalische Größe, die in der Formel für ein Naturgesetzes steht, formal also leicht zu definieren ist, und einfach nur noch als physikalische Bestimmungsgröße anschaulich interpretiert werden muß. Es handelt sich um ein komplexes Abstraktum, das verschiedene Bedeutungen hat.

    Grüße
    Fossilium

  60. Hallo Trice,

    “Und dass nun ausgerechnet jemand wie ich kommt, die das Gehirn im Alleingang stemmt und ihm die Lösung auf den Tisch legt, das sei imgrunde jenseits aller Wahrscheinlichkeit.”

    Das kenne ich. Das passiert. Sind verpaßte Gelegenheiten für die Ansprechpartner. Muß man aber verstehen, das sind auch nur Menschen, wenn sie in ihrem Fach gut sind, müssen sie nicht in allem gut sein.
    Sind wir ja auch nicht. Also weitermachen.

    Grüße Fossilium

  61. @ hmann

    Mit der nachstehenden Passage

    Zitat: „… Was wir unter „Bewusstsein“ (jedoch ohne das besondere „Empfindungsbewusstsein“, wie Lust und Schmerz) verstehen, betrifft meiner Meinung nach hauptsächlich die gleichzeitige (mathematisch) Abbildung von vielen „Musterkomponenten“ auf besonderen meistens „flächigen neuronalen“ Strukturen. …“

    habe ich das „Empfindungsbewusstsein“ ausdrücklich ausgeklammert, weil man das „Empfindungsphänomen“ zwar eingrenzen und darauf einwirken (Drogen) kann, man kann es aber nicht wirklich verstehen wie z.B. das Schwerkraftphänomen.

    Religionen und Ideologien sind für mich das „Betriebssystem für die Psyche“, steuern die Existenz des Menschen und berücksichtigen die „moralische Maxime“ wie Sie es sehen.

    Im grundlegenden Konzept der Informatiker dass auf „Prozessoren – Prozesse – Information“ aufbaut, wollen manche das „Trinitätskonzept“ der Theologen wiedererkennen.
    (Vater =Ausgangspunkt symbolisch Prozessor, Sohn= generatives Prinzip symbolisch Prozess, Hl Geist=symbolisch für Information wie auch der Begriff „Wort“ (Am Anfang war das Wort….))
    Wer will kann das rein technische Konzept auch philosophisch deuten…. und allenfalls sogar Bestätigung für seinen Glauben finden.

  62. @Trice

    „Verarbeitet“ bedeutet im neuronalen System, aber auch in der Elektronik, dass Signale verknüpft werden müssen. „Verarbeitet“ bedeutet aber auch, dass eine Verknüpfung allein oft nicht reicht um alles zu erklären. Es muss z.B. eine Art von Speichereffekt und einen Strukturbildungseffekt geben um z.B. auch Wissen (=strukturierte Daten) mittels der Synapsen abzubilden, den Eric Kandel bestens erklärt hat.
    Gemäß Ihres Konzeptes werden Signale auch verknüpft, müssen sogar irgendwie verknüpft werden. Es wäre sinnlos würden Signale einfach auf Nervenfasern wild „herumlaufen“ nirgends verknüpft werden und auch nirgends Reaktionen hervorrufen. Man kann im Prinzip beobachten dass die Neuronen verknüpft sind, dies kann nicht sinnfrei sein.

    Das Lernen (Wissensspeicherung) mittels Synapsenbildung hat demnach Kandel erklärt und die Auswertung mittels „Gattertechnik“ McCulloch.

    Die Wissensspeicherung ist eng mit der Auswertung der Signale von Input und Output verwoben. Derartiges entspricht nun einmal einer Informationsverarbeitung und es gibt Vorbilder in der Elektronik/Informatik.

    Mir kommt vor, Sie wollen wie es Psychologen gerne machen, Funktionszusammenhänge mittels schematischer Funktionspläne erklären, gehen aber auf die realen Grundlagen der Signalverarbeitung und Wissensabbildung überhaupt nicht ein, bzw. ignorieren was Stand der Wissenschaft ist.

    Wenn Sie akzeptieren dass elektrische Signale im neuronalen Netz bedeutsam für das Denken sind, können Sie die Grundlagen die Warren McCulloch und Eric Kandel, völlig unabhängig voneinander ausgearbeitet haben, nicht ignorieren.

    May-Brit Moser konnte als Höhepunkt der Forschung, aus Messungen von Hirnströmen an Versuchsmäusen sogar mit hoher Trefferwahrscheinlichkeit vorhersagen wohin eine Versuchsmaus im Labyrinth laufen wird um ihr selbst ausgewähltes Futter zu suchen. Damit konnte sie nachweisen wie und wo im Gehirn „Landkarten“ gespeichert sind.

    Dass möglicherweise auch quantenphysikalische Effekte bestimmte Neurone zum statistisch häufigeren Triggern bringen und Einfluss auf das Denken („Gedankenübertragung“) nehmen könnten, kann vermutlich nicht ausgeschlossen werden.

    Wenn es ein individuelles Bewusstsein gibt, so muss das zwingend irgendwo im System „abgebildet“ werden, einfacher „seinen Sitz“ haben. Es ist auch klar dass elektrische Signale die von diesem Ort ausgehen z.B. die Sprechmuskeln ansteuern.

    „Musterabbildungen“ gibt es sehr wahrscheinlich deswegen, weil Neurone einerseits immer dann Triggern können wenn sie z.B. von örtlich benachbarten Neuronen Signale erhalten. Andererseits können Neuronen etwas verzögert triggern, damit kann ein Zustand vom Zeitpunkt T1 mit einem etwas späteren Zeitpunkt T2 verglichen werden.
    Dass sich allmählich durch Synapsenbildung entwickelnde neuronale Netz entwickelt „Cluster“ von Neuronenverbänden (deren Neurone nicht benachbart sein müssen), die die „Muster“ der einströmende Information im Netzwerk (aus Neuronen und Synapsen) baumartig abbilden.

    „Abbildung“ bedeutet hier, angelehnt an die Mathematik, dass im Prinzip z.B. ein Bildpunkt auf der Netzhaut als Signal auf einer bestimmten Leitung abgebildet wird, zunächst einmal ohne auf den Code einzugehen. Derartiges ist in der Nachrichtentechnik völlig alltäglich.

    „Mathematisieren“ lässt sich ein „Regelwerk“ nur dann, wenn Sie sich den Regeln der Mathematik, z.B. der Boolschen Schaltalgebra und der Statistik nicht verschließen.

  63. @fossilium

    Ihr Einwand trifft natürlich zu.
    Obwohl dies eigentlich eher ein philosophisches Forum ist, nutze ich den Technikerjargon, wobei Philosophen und auch Juristen die Haare zu Berge stehen könnten.

    Auf die sicherlich wichtige Kodierungsfrage, die natürlich auch eine Bewertung impliziert, bin ich im Detail nicht eingegangen.
    Es dürfte nicht nur die Bewertung wie Sie es sehen geben und die mir auch bekannt ist.
    Es dürfte auch darauf ankommen, dass bei wichtigen (häufig auftretenden Signalen) mehrere neuronale Verknüpfungen mit Synapsen gebildet werden. Eine Bewertung erfolgt auch, (anders als in der Technik) durch zusätzlich angelegte synaptische Verknüpfungen.

    Beispiel: Bei 1+1 =2 werden sehr viele neuronale Verknüpfungen angelegt wobei, sagen wir einmal 99% von 100% aktiviert werden wenn dieses Problem abgefragt wird.

    Andere Probleme werden mit geringerer Triggerwahrscheinlichkeit der relevanten Neuronen entschieden. Hat man falsch oder unzureichend gelernt, kann es zu falschen Mehrheitsentscheidungen kommen, weil z.B. wie von Ihnen angedeutet, Rauschen, zufällige Muster, Störimpulse … eine fehlerhafte Struktur gebildet haben und es kommt zu falschen Lösungen. Diese „Launenhaftigkeit“ dürfte systemimmanent in neuronalen Systemen sein.

    Dass es sich bei Information um ein komplexes Abstraktum handelt, das verschiedene Bedeutungen hat, ist auch mir klar.

    Ich habe noch keine wirklich realistische Definition gefunden die alle Ansprüche abdeckt.

    Jedes Fachgebiet hat eigene Sichtweisen.
    In der Analogtechnik ist es das veränderliche Signal auf einer Leitung was von Relevanz ist.
    In der Informatik und der Digitaltechnik ist es eine bestimmte Kombination von „gleichen“ Signalen, z.B. jeweils „5 Volt Impulse“ auf mehreren Leitungen.

    So gesehen dürfte es sich, was die elektrische Signalverarbeitung in neuronalen Systemen betrifft, einerseits analog verhalten, wie Sie es beschrieben haben, aber auch digital, weil stets mehrere Neuronen beteiligt sind und die Neuronen jeweils triggern oder auch nicht (Ja/nein Entscheidung).

  64. @fossilium

    Danke für Ihre Aufmunterung:

    Also weitermachen.

    Ja, werde ich, :-), auch wenn die Bemerkung des Profs, ich sei halt meiner Zeit voraus und die Wissenschaft brauche noch mindestens fünfzig Jahre, bis sie dort ist, wo ich jetzt bin, nicht zuversichtlich stimmt, wenn man die siebzig überschritten hat.

    @Mussi
    Sie fragen:

    Was ist eine Regel? Wenn Entropie eine Regel ist, was ist das? Enthält eine Regel Information?

    Ohne damit eine endgültige Antwort zu geben: Eine Regel ist eine “Wenn,Dann”-Vorschrift, Entropie ist Entropie, aber keine Regel, und eine Regel selbst enthält keine Information.

    @Elektroniker, Mussi, fossilium …

    Damit wir nicht weiter aneinander vorbeireden, und um beim Thema zu bleiben, vielleicht kommen wir so weiter:

    Der Philosoph David Lewis wollte mit seinem Gedankenexperiment der “Möglichen Welten” – nicht zu verwechseln mit Everetts “Viele-Welten-Theorie” – den Wahrheitswert kontrafaktischer Aussagen untersuchen: In unserer wirklichen Welt gibt es Ereignisse vom Typ e1, das sind alle Ursachen, die es in dieser Welt gibt, und es gibt Ereignisse vom Typ 2, das sind alle Wirkungen, die es in unserer Welt gibt. Ereignisse vom Typ e1 sind kausal mit Ereignissen vom Tp e2 verbunden, zwischen ihnen besteht ein Beziehungsverhältnis, und Ereignisse vom Typ e1 terten vor ereignissen vom Typ e2 auf, nie umgekehrt.
    Eine mögliche Welt ist eine vollständige Beschreibung, wie eine Welt sein könnte (das sollte dann also einem Mikrozustand entsprechen, oder?). Nun kann es Welten geben, in denen es weder Ereignisse vom Typ e1 noch Ereignisse vom Typ e2 gibt, und es kann Welten geben, in denen es nur Ereignisse vom Typ e2, aber keine vom Typ e1 gibt. In diesem Fall stellt eine Welt, in der es nur Ereignisse vom Typ e2 gibt, eine größere Abweichung von unserer Welt dar, als eine Welt, in der es weder e1- noch e2-Ereignisse gibt.
    Lewis’ Beschreibung unserer wirklichen Welt, basierend auf einem Verständnis von Kausalität als Ursache-Wirkungs-Beziehung, hat jedoch ein riesiges Loch – ihr fehlt eine große Menge an Information ( also ist sie so etwas wie die Beschreibung eines Makrozustandes?) – denn sie beschreibt nur einen Teil der Wirklichkeit, die wir erleben und trifft für quantenmechanische Ereignisse nicht zu, obwohl die Quantenmechanik die (physikalisch) umfassendere Weltbeschreibung ist.

    Ich habe deshalb den Vorschlag gemacht, Kausalität sei ein Regelwerk, das in zwei Varianten vorliegt, und einige seiner Regeln, längst nicht alle, beschreiben Ursache-Wirkungs-Beziehungen (bzw. schreiben diese vor). Beispiel:
    Wenn X gegeben ist (also eine Vergangenheit hat), und dann, wenn Y in der Gegenwart der Fall ist, dann wird Z (in der Zukunft) (nicht/ nicht mehr) existieren:
    Wenn X ein Haus ist, und dann, wenn Y ein Blitz ist, der ins Haus einschlägt, dann wird Z (ein brennendes Haus,ein abgebranntes Haus, ein teilweise zerstörtes Haus, usw) in der Zukunft (nicht mehr) existieren.
    Mit dieser Regel lassen sich eine Menge (nicht alle) Ursache-Wirkungs-Beziehungen beschreiben, aber ganz sicher nicht das Verhalten eines Teilchens beim Doppelspalt-Experiment. Weshalb ja auch behauptet wird, für die Quantenmechanik spiele Kausalität keine Rolle mehr.

    Das heißt, die derzeitige Vorstellung von Kausalität als Ursache-Wirkungs-Beziehung ist keine vollständige Beschreibung unserer Welt. Und da das menschliche Gehirn ebenfalls Teil dieser Welt ist und den in ihr geltenden Gesetzen unterliegt, aber die Beschreibung seines Aufbaus und seiner Abläufe aus der derzeitigen Kausalitätsperspektive erfolgt, ist seine Beschreibung ebenfalls nicht vollständig und kann so nicht zutreffen.

    Und eben deshalb wüsste ich halt gern, ob man auch in diesem Fall (wie ich es gerade getan habe) von fehlender Information und von Entropie sprechen kann.

  65. @fossilium

    Auf das Definitionsproblem für „Information“ möchte ich nochmals eingehen.

    Der Grund dürfte sein, dass alle Definitionen praktisch „beschreibende Information“ sind.
    „Selbstbezüge“ sind bei Definition nicht gestattet.
    „Information“ kann demnach vermutlich nicht mit „Information“ beschrieben werden.

    Ich war auf dem Gebiet Elektronik – Kommunikation – Informationsverarbeitung tätig und sehe „Information“ aus diesem Blickwinkel:

    Bedeutet, Information hat für mich einen beschreibenden (z.B. mittels Sprache, Text, Zeichen, Symbolen …) oder auch einen Prozess steuernden Charakter (Computer, DNA Expression ….) und kann auch selbst Objekt des Transports (z.B. mittels Elektrizität, Signale, Botenstoffe ….) oder der Verarbeitung sein.

    Ich sehe Information völlig losgelöst vom „Datenträger“, der z.B. ein Blatt Papier, elektronische Schaltelemente, eine Festplatte oder auch ein chemischer Speicher (DNA) sein kann.

    Allerdings „ecke“ ich mit diesem für mich selbstverständlichen Sachverhalt an, weil „Fach fremde“ diese totale Trennung vom Datenträger nicht nachvollziehen und anders sehen.

    • Man kann durchaus eine Definition für Information angeben: eine Information ist eine binäre Relation aRb, also eine Relation R zwischen den Objekten a und b, z.B. “die Erde ist rund”. Auch Eigenschaften wie “rund” können in diesem Sinn (sprachliche) Objekte sein. Der Wert dieser Definition ergibt sich aus verschiedenen äquivalenten Strukturen menschlichen Denkens:

      Die Grammatik definiert einen Satz als Subjekt-Prädikat-Objekt,
      Eine Tabelle besteht aus Zeilen, Spalten und Werten,
      relationale Datenbanken enthalten records, fields und values,
      eine logische Aussage enthält Individuum-Prädikat-Individuum, z.B. 2>1.

      Man sieht, das sind immer dieselben dreielementigen Strukturen. Dafür gibt es Gründe. Mit dieser Definition lassen sich viele Dinge erklären.

  66. @Elektroniker: Mathematisierung

    Sie schreiben:

    Mathematisieren“ lässt sich ein „Regelwerk“ nur dann, wenn Sie sich den Regeln der Mathematik, z.B. der Boolschen Schaltalgebra und der Statistik nicht verschließen.

    🙂 Eben deshalb habe ich einen befreundeten Mathematiker gebeten,mich mal mit mir zusammen zu setzen und das zu probieren. Stattdessen lud er mich zu einem Treffen mit mehreren Mathematik-Professoren einer Hochschule ein. Auf diesem Treffen habe ich meine Idee vorgestellt und wurde gefragt, was ich denn erreichen wolle. Als ich sagte, ich bräuchte die Mathematisierung der Regeln, um damit die Arbeitweise des menschlichen Gehirns zu erklären, schaute er mich an, als hätte ich nicht alle Tassen im Schrank und meinte: “Das ist viel zu groß, das schaffen Sie nicht!”
    Auf dem Nachhauseweg habe ich meinen Bekannten gefragt, was der Prof gemeint habe, und er sagte, es sei bisher noch nicht gelungen, Kausalität zu mathematisieren. Und auf meinen verwirrten Blick hin ergänzte er, Kausalität sei die Beziehung von Ursache und Wirkung, aber ich beschreibe sie wie eine Regel …
    Ich habe ihm daraufhin das Modell zugesandt, das ich mit einer Physikerin erarbeitet hatte und geschrieben, das seien die Regeln, um die es geht und ob das zu mathematisieren sei, und er schrieb zurück (was mir auch die Physikerin schon sagte), die heutige Mathematik reiche nicht aus, um das zu beschreiben …

  67. Hi Trice,
    Sie schreiben: “Eine mögliche Welt ist eine vollständige Beschreibung, wie eine Welt sein könnte (das sollte dann also einem Mikrozustand entsprechen, oder?).“

    Das denke ich eigentlich nicht. Eine mögliche Welt ist alles mögliche. Mögliche Welten kranken daran, daß keiner genau weiß, was damit gemeint sein soll. Denn der Begriff der Möglichkeit verweist auf Unbestimmtes, auf Zukünftiges, auf Vergangenes, auf Zwangs- und Randbedingungen, auf In- und Extrinsisches, sogar auf Naturgesetzliches. Den Begriff der Möglichkeit hat bisher niemand ohne Unbestimmtheiten bestimmen können.

    Und ein Mikrozustand ist ein Mikrozustand, und viele Mikrozustände bilden eine statistische Gesamtheit, und mit dieser statistischen Gesamtheit kann ich statistische Größen definieren, die meinen Makrozustand äußerst effektiv beschreiben. Das gilt zum Beispiel für Gase, die aus Atomen bestehen, die einzeln nur wenige Freiheitsgrade haben und voneinander unabhängig agieren. Dann liefert die Statistik so riesige große Wahrscheinlichkeiten für die Eigenschaften des Makrozustands, daß man sagen kann: diese Eigenschaften treten auf und verändern sich naturgesetzlich, obwohl das nicht so ist. So ist das auch mit der Entropie, ihr wird häufig etwas Naturgesetzliches untergeschoben, obwohl sie nur eine statistische Größe ist – eigentlich nur ein Parameter. Noch schlimmer ist es mit der Information. Schon die Aussage „der Ball ist rund“ soll Information sein können, und ist es auch, wenn ich dieses jemandem zurufe, der an der Gestalt des Balles interessiert ist. Wenn ich dies jemandem zurufe der kein Deutsch versteht und auch am Ball nicht interessiert ist, ist es nur ein Störsignal. Also wie wollen Sie Information definieren, wenn diese von der Situation abhängt ? Eine semantische Form allein ohne Sender und Empfänger enthält aber bestimmt keine Information.

    Auch was Kausalität ist, ist nicht bekannt, genauer: was einen Kausalzusammenhang begründet. Ich habe zwei breite Ordner mit Papers darüber in meinem Schrank. In einem davon heißt es: der Versuch einer Klärung des Kausalzusammenhangs gleicht einer homerischen Irrfahrt durch die Philosophie. So genau ist es ! Vor ein paar Jahren gab es eine Vortragsreihe in Hamburg an der philosophischen Fakultät über die Frage „Was ist Kausalität“ – da bin ich trotz Zeitnot immer hingereist und da kamen Professoren mit großem Renomee und redeten über ihre Erkenntnisse, die aber verschiedener nicht sein konnten. Wenn sie wissen wollen, was metaphysische Spekulation ist, dann lesen sie Abhandlungen zur Kausalität.

    Wenn Sie schreiben: „…Lewis’ Beschreibung unserer wirklichen Welt, basierend auf einem Verständnis von Kausalität als Ursache-Wirkungs-Beziehung, hat jedoch ein riesiges Loch – ihr fehlt eine große Menge an Information…“ dann kann man sagen: Lewis ist nur einer von vielen, das Beschreibungsloch ist überall, und die Quantenmechanik hat nur insofern damit zu tun, also auch dort Unbestimmtheiten eine Rolle spielen.

    Mit der derzeitigen Vorstellung von Kausalität als Ursache-Wirkungs-Beziehung kann man die Welt nicht vollständig beschreiben, da haben Sie Recht. Aber die Welt kann man ohnehin immer nur in ihren Aspekten beschreiben, nie vollständig.
    Wenn Sie sagen „ da die Beschreibung (des Gehirns)… seines Aufbaus und seiner Abläufe aus der derzeitigen Kausalitätsperspektive erfolgt, ist seine Beschreibung ebenfalls nicht vollständig und kann so nicht zutreffen“ – dann haben Sie auch Recht – aber aus einem Grund, den Sie bisher nicht genannt haben: das Gehirn ist ein System, das nicht reduzierbar ist – und zwar ganz genau wie Sie es sagen: es macht sich seine eigenen Regeln, und agiert dann nach diesen Regeln, die es ständig anpaßt. Wie beim Tango: der Mann führt die Frau wie er glaubt, daß die Frau denkt, wie er führt. Das machen aber wohl alle Zellverbunde – darüber gibt es übrigens Arbeiten, ich müßte nachsehen, ich hab dies jedenfalls schon in einem Vortrag mal glaubwürdig vorgetragen bekommen. Der Redner hat sich auch über mangelnde Anerkenntnis beschwert. Zellen im Verbund arbeiten danach nicht nach festen Regeln zusammen, sie arbeiten nach selbst geschaffenen Regeln für ihren Verbund. Aber wahrscheinlich kommt man ohne Reduktion auch hier nicht aus – ein Dilemma.

    Es macht durchaus Sinn, wenn Sie in die Physik zu gucken, welche Begriffe die hat und wie diese Regeln formalisiert. Aber die Physik ist eine schlampige Wissenschaft. Sie biegt sich ihre Theorien zurecht, sie hat keine Begriffe mit klarer Bedeutung. Das ist nicht negativ zu sehen, die Physik arbeitet nur auf diese Weise sehr pragmatisch und äußerst effektiv. Nehmen Sie die Thermodynamik: die ganze klassische Thermodynamik ist eine Gleichgewichtsthermodynamik. Da die Nicht-Gleichgewichts-Thermodynamik äußerst kompliziert ist, tut man so als wären alle beobachteten Prozesse immer im Gleichgewicht. Aber in der Welt ist eigentlich alles im Ungleichgewicht, nicht nur biologische Vorgänge, auch physikalische, alles auf unserer Erde ist es schon deshalb, weil sie ständig Energie erhält von der Sonne, und auch im kosmischen Maßstäben ist nichts im Gleichgewicht, ständig entstehen schwarze Löcher und andere Ungetüme und lösen sich wieder auf. Wir leben in einem Ungleichgewichtsuniversum und es ist eine offene Frage, warum das Universum, wenn es denn im Ungleichgewicht bei kleiner Entropie gestartet ist, nicht längst im Gleichgewichtszustand mit maximaler Entropie angekommen ist, wobei der Zustand des Universums selbst hinsichtlich seiner Bestimmungsgrößen auch noch viele offene Fragen aufwirft. Nichts von all dem interessiert in der Thermodynamik, da tut man so, als würden die Vorgänge immer hart am Gleichgewicht entlang laufen, so als sei das Ungleichgewicht in jedem Moment nur eine kleine Störung des Gleichgewichts, so kann man alle Bestimmungsgrößen für reversible Prozesse auch für Ungleichgewichtsprozesse anwenden. Die zugehörigen physikalischen Begriffe sind dann natürlich metaphysisch gesehen höchst fragwürdig in der Anwendung auf alles, aber der Physik verschafft dieser Pragmatismus die Macht und Fähigkeit der Vorhersage, und nur das zählt. Was schert es die Physik, ob Ihre Begriffe philosophische Klarheit haben. Entropie und Information lassen flexibel interpretieren und Unklarheiten lassen sich damit pragmatisch beiseite schaffen, ja sogar letzte Fragen nach Raum und Zeit kann man zur Not damit (versuchsweise einmal) beantworten.

    Das ist aus philosophischer Sicht natürlich nicht zu akzeptieren, aber der Erfolg gibt der Physik recht. Man kann und darf in den Naturwissenschaften nicht immer alles genau nehmen, dann läuft sie sich in Diskussionen tot, so wie die Philosophie. Aber dafür muß die Physik einen Preis zahlen, und der ist sehr teuer. Sie dürfen aber nicht glauben, die Physik hielte – nur weil sie nah am Geschehen ist – den Schlüssel der Naturerkenntnis in der Hand, und man könnte sich ihrer Ideen und Begriffe einfach mal bedienen. Das geht in die Hose. Aber wenn Sie einen Verweis auf Ihre Arbeit haben, schicken Sie den mal.

    Grüße Fossilium

    • @fossilium (Zitat): sie [die Physik] hat keine Begriffe mit klarer Bedeutung und (Zitat): Auch was Kausalität ist, ist nicht bekannt, genauer: was einen Kausalzusammenhang begründet.
      Meine Sicht: Begriffe in der Naturwissenschaft bekommen ihre Bedeutung durch Beziehungen in einem Begriffssystem ähnlich wie in der Mathematik, wo ein Axiom seine Bedeutung erst in einem Axiomensystem erhält. Auch die Philosophie sollte sich diesen Stil aneignen und nicht mehr versuchen Begriffe absolut zu definieren. Allgemeinen Begriffen wie “Kausalität” kann man in der Physik eine Bedeutung geben, indem man einen Bezug zu physikalischen Vorgängen und Begriffen herstellt. Mario Bunge definiert Ursache/Kausalität beispielsweise so: Der Begriff der Ursache enthält die ontologische Behauptung, dass ein Ereignis verursacht ist, wenn es durch ein anderes Ereignis auf gesetzmäßige Weise hervorgebracht wird. Nach Bunge ist in der Physik und der darauf aufbauenden materialistisch/physikalistischen Ontologie auch andere, nicht kausale Formen der Determination als nur die Kausalität. Die Gleichung E=mc² beispielsweise sagt nichts über Ereignisfolgen aus, sondern beschreibt nur eine Verknüpfung von Grössen. Ferner gibt es noch akausale Ereignisse wie den radioaktiven Zerfall.

  68. @ Trice

    Sehe ich etwas anders. Siehe das Beispiel Würfel und (Zitat v.o.)):

    Shannon verstand Entropie also als Maß für Information und verband so Thermodynamik mit Informationstheorie [3]

    Im Zweifel ist eine Regel Information.

  69. @fossilium;
    Endlich mal wieder ein vernünftiger Beitrag in diesem Blog, über den man plaudern oder diskutieren kann. Man braucht gedankliche Konzepte, um die Welt beschreiben und verstehen zu können, zur Bewältigung und Gestaltung des Lebens. Energie, Entropie, Information und Kausalität sind solch grundlegende Konzepte und Konstrukte des Bewusstseins und der Intelligenz. Auch scheinbar natürliche Eigenschaften wie Wärme gehören in diese Kategorie, weil es sie in der Natur nicht wirklich gibt.

    In der Physik oder Naturwissenschaft gibt es keine festen Grundlagen wie in der Mathematik mit klaren Definitionen und Axiomen. Die Beobachtung der Welt ist immer den Vermögen des Menschen und ist auch Irrtümern unterworfen. Auch wenn man millionen weiße Schwäne und nie einen schwarzen Schwan gesehen hat, gibt es keine Logik, die schwarze Schwäne verbieten würde. In der Praxis des Lebens und auch für die Wissenschaft kann man aber annehmen, dass die Wahrscheinlichkeit für schwarze Schwäne praktisch null und bedeutungslos ist.

    Je komplexer die Welt ist, desto vielfältiger sind die beobachtbaren Phänomene und desto vielfältiger sind die Möglichkeiten des Weltgeschehens, allen voran die Erscheinungen des Lebens. Deshalb ist der Reduktionismus der Physik unausweichlich, um die elementaren und universellen Strukturen und Vorgänge hinter den Phänomenen zu erkennen und zu verstehen. Selbstverständlich können Phänomene selber immer nur als Ganzes (holistisch) verstanden werden. Die kausalen Ursachen der Phänomene liegen immer schon in den elementaren Teilen verborgen, aber Wechselwirkungen, wie die Gravitation, gibt es eben immer nur zwischen den Teilen.

    Es war das Verdienst von Claude Shannon, die semiotische Information von der semantischen Information zu trennen und separat zu untersuchen. Die semiotische Information als Zeichen und Muster auf einem materiellen Substrat bzw. als Signal ist objektiv und ist unabhängig von den Eigenschaften von Sender und Empfänger. Sie bestimmt die allgemeinen Möglichkeiten der Darstellung, Speicherung und Übertragung von Information, insbesondere mit Technik, aber auch im Gehirn.

    Die Bedeutung von Informationen oder Nachrichten für die Empfänger oder für die Menschen, sowie ihre Interpretation und Nutzung, ist ein ganz anderes, im allgemeinen ein kultur-, human- oder geisteswissenschaftliches Thema. Man denke aktuell an die Nachrichten sexueller Belästigungen und an die Me-too-Bewegung.

    • @ Reutlinger
      Wie Sie so schön die bekannten Funktionszusammenhänge zwischen Grundbegriffen der Physik zu dem Emotionen und zur Ratio ziehen, Herr Päs auf Entropie und Information für dieEthik verweist, würde ich Entropie z.B. mit dem eher sozialwissenschaftlichen Term der Kooperation in Verbindung bringen. Wenn Entropie wie angesprochen so oder so Richtung Gleichgewicht geht, dann ist eben nicht mehr Konkurrenz ( und Verharren in Ängsten) angesagt, sondern eben Kooperation ( auch im wirtschaftswissenschaftlichen Sinne). Ich habe den Eindruck, wenn man eben nicht mehr Ihre beschriebenen Zusammenhänge beachtet, wird das Ich-Bewusstsein, das Ego zu sehr in den Vordergrund geschoben. Es bedarf ein mehr an Kooperation im Wir. Vielleicht ist Entropie auch so deutbar. Eben mehr Information über das bewusstein, was Natur und somit auch Gefühl eigentlich ist, nämlich auch Ratio. Und somit wird Distinktion relativ.

      • @Mussi: Tatsächlich ist Gleichgewicht ja in den Wirtschaftswissenschaften ein ganz zentraler Begriff, man denke an Nash-Gleichgewicht, Gleichgewicht von Angebot und Nachfrage bei Marshall und Walras etc… Allerdings habe ich den Eindruck dass dort tatsächlich die Wichtigkeit des Gleichgewichts eher zu stark betont wird, schließlich ist die Wirtschaft kein abgeschlossenes System sondern wird von außen durch Innovationen, Naturkatastrophen, politische Entscheidungen etc… beeinflusst. Und dass Gleichgewicht keinesfalls immer zu Kooperation oder der für alle Beteiligten günstigsten Konstellation führen muss zeigt eindrucksvoll das

        Gefangenendilemma
        .

  70. Die Ökonomen scheitern theoretisch genau an diesem Dilemma. Und müssen dann Wertungen vornehmen. Sie haben aber scheinbar noch nicht verstanden, das es eben, wie soviel im Leben, zwei Seiten der Medallie Leben gibt. Sie setzen urteilorientiert eben noch zu sehr auf Konkkurenz und Wettbewerb (eine Seite), anstatt die Verhaltensbiologie ernster zu nehmen und Kooperation ( zweite Seite) einzubeziehen. Sie haben dafür meines Wissens noch kein Theoriegebäude. Wichtigkeit ist eben eine Wertung und Wertung Bewusstsein und Bewusstsein scheint etwas mit Dualismus zu tun zuhaben.
    Wenn ich über ja/nein nachdenke, dann bleibe ich manchmla bei Elektriszismus oder Magnetismus hängen ( vieleicht auch zentral für ein Dilemma?). Da ist auch nicht wirklich was im Gleichgewicht, oder? Ich wünschte mir, Konkurrenz und Kooperation wären in etwa diesem Sinne “gleichberrechtigt”.

  71. Hallo Herr Holzherr,

    so einfach ist es leider nicht. Es gibt in der Welt nicht nur Ereignisse, sondern auch Tatsachen und Objekte und Felder und was sonst so alles. Das Gravitationsfeld kann Ursache und Wirkung gleichzeitig sein: es wirkt auf einen Gegenstand ein (Kraftwirkung), und gleichzeitig ist es die Ursache dafür, daß der Gegenstand fällt. Welches Ereignis welches gesetzmäßig hervorbringt, das kriegt man noch hin, aber Ursachen werden vor allem im Rechtswesen benötigt, da besonders, und das Ereignis, daß Sie pleite gegangen sind, weil Ihr Kunde die Rechnung nicht bezahlen kann, hat zwar eine klare Ursache, aber diese ist nicht gesetzmäßig. Sie kriegen die Ursache-Wirkung Beziehung metaphyisch nicht zu fassen. ich habe mal behauptet, die elementarste Kausalbeziehung würde dadurch begründet, daß ein Objekt auf ein anderes ein Dehimpülschen, ein Wirkungsquant, überträgt: das Quellobjekt hat eine Wirkung auf ein Zielobjekt – darunter geht nichts. Diese Übertragung begründe den elementarsten Kausalzusammenhang. Aber das hat zu Recht keinen interessiert, weil hier wieder mit unpräzisen physikalischen Begriffen operiert wird. Es geht auch nicht um die absolute Bedeutung eines Begriffs, sondern in der Philosophie gelten ganz andere Anforderungen an Präzision und Begründungen von Behauptungen als in der Physik. Metayphsisch z.B. ist der Begriff des Feldes oder Zustandes völlig unklar, in der Physik basiert die ganzen Quantentheorien auf diesem unpräzisen Begriff. Mit so vagen Geschichten über Entropie und Information als Treibstoff des Universums (auch noch des Universums !) als wissenschaftliche (und nicht-journalistische) Darstellung würden sie in der Philosphie schon wegen der diffusen Begriffe keinen vom Hocker reißen.

    Grüße Fossilium

    • @fossilium: Ich bleibe dabei: Es gibt keine sinnvolle Definition von Begriffen wie “Ursache”,”Kausalität” ohne Kontext und ohne Begriffssystem. Im Kontext Physik gehört Kausalität zum Überbereich Determination. Physikalische Gesetze in Form von Gleichungen determinieren etwas, aber meist ohne eine Kausalität anzugeben. Eine Kausalität liegt genau dann vor, wenn ein Ereignis ein weiteres auslöst.
      Im Kontext “Recht”/”Justiz” kann Kausalität wieder anders definiert werden.

  72. Nachtrag:
    Was Trice aber versucht ist, wenn ich sie richtig verstanden habe, Ursache und Wirkung nicht über einen Elementarakt zu verknüpfen, sondern holistisch, so daß Ursachen und Wirkungen das Ergebnis von Prozessen sind, die gem. Regeln ablaufen, die das System selbst erfindet. “Selbst Erfinden” heißt: die Teile des Systems kooperieren systematisch und die Ursache dafür liegt “in ihnen” selbst. Falls dazu keine Energie von außen kommen braucht, wäre das ein Vorgang der gegen den 2. Hauptsatz abläuft, und die Entropie senkt, aber wie schon gesagt, der nicht gegen die Naturgesetze verstößt. Aber natürlich kann die Kooperation auch von außen durch Änderungen in der Umgebung ablaufen, z.B. über einen Energieanstoß, und dann wäre nicht mal der 2. Hauptsatz verletzt. Falls Kooperation aber aus zufälligen Fluktuationen entsteht, hätten wir wieder den ersten Fall. Die Sache wird also durch die Physik nur begrifflich parametrisiert, aber nicht erklärt. Die Physik hilft der guten Trice nicht.
    Grüße
    Fossilium

    • Ob ihr die Physik nicht helfen kann, weiss ich nicht. Es hört sich etwas nach Kybernetik an, was sie vorhat. Aber was soll Kybernetik regeln? Wenn sie nicht naturwissenschaftlich denkt, dann wird es “Geist” sein. Dann würde sie doch noch zur Panpsychistin. Wenn sie naturwissenschaftlich denkt, dann kann eben eine Regel Information in der Kybernetik sein. Dann denkt sie darüber nach und fragt ja auch danach. Dann wird sie sich aber vermutlich von ihrem Streitobjekt verabschieden müssen: das sie bestreitet, dass das Gehirn Information verabeitet. Die Schnittmenge aus beidem ist vermutlich Bedeutung. Vieleicht kommt sie auch zu anderen Ergebnissen.

  73. Hallo Herr Reutlinger,

    die semiotische Information als Zeichen und Muster auf einem materiellen Substrat bzw. als Signal kann ja objektiv und unabhängig von den Eigenschaften von Sender und Empfänger vorhanden sein.

    Der Begriff Information (ohne das Wort “semiotisch”) hat aber ohne Sender und Empfänger keine sinnvolle Bedeutung – oder ?

    Grüße Fossilium

    • Sender und Empfänger sind selbstverständlich nur für die Übertragung von Information wesentlich, jedoch wäre Information ohne Übertragung ziemlich sinnlos. Der Sender ist für die Expression von Information in einen Kode zuständig. Der Kode besteht aus (semiotischen) Zeichen und aus Regeln für die Anordnung von Zeichen (Syntaktik) zu sinnvollen, d.h. Bedeutung tragenden Ausdrücken. Beim Empfänger kommt es zur Impression von Information, das ist die Entzifferung des Kodes und die Interpretation der Bedeutung, zur zweckmäßigen Reaktion, Anwendung oder Nutzung.

      Die Übertragung oder Kommunikation muss synchronisiert werden, damit sie erfolgreich sein kann. Dazu gibt es genau vier Möglichkeiten:

      1. eine halbsynchrone, vom Sender gesteuerte Übertragung, wie das Klingelzeichen beim Telefon.
      2. eine halbsynchrone, vom Empfänger gesteuerte Übertragung; das Prinzip der Abfrage.
      3. eine synchrone Übertragung, gesteuert z.B. von einer externen Uhr.
      4. eine asynchrone Übertragung, notwendig mit Puffer oder Mailbox.

      Die Natur folgt der vom Sender gesteuerten bzw. der asynchronen Übertragung, der Mensch dagegen der vom Empfänger gesteuerten Übertragung. Die Sonne sendet immer ihre Strahlen, egal ob ein Empfänger vorhanden ist oder nicht. Der Mensch sucht nach Informationen und muss die Quellen der Information zur Übertragung auffordern. Andere Bezeichnungen in der Kommunikationstechnik sind das Push- und Pullprinzip oder Interrupt und Polling.

  74. @TricE
    Bitte mal Genf und Psyche in Google eingeben. Da wird an einem mathematischen Model der Psyche gearbeitet. Vielleicht interessiert Sie das.
    Frage mich,wie sie da z.B. Geruch und Geschmack verarbeiten. Beides gelangt aus dem Elementarteilchenbereich ins Bewusstsein.

  75. @anton reutlinger

    Zitat: „Man kann durchaus eine Definition für Information angeben: eine Information ist eine binäre Relation aRb, also eine Relation R zwischen den Objekten a und b, z.B. “die Erde ist rund”…“

    Mir gefällt diese sehr kurze und treffende Definition. Sie dürfte vermutlich im Zusammenhang mit Information grundsätzlich immer zutreffen.

    Selbst ein Neuron wertet mindestens die Relation zwischen den Objekten a und b aus indem es triggert wenn ungefähr gleichzeitig Information abbildende Signale eintreffen.

    Allerdings nicht immer nur 2 Signale, es können auch wesentlich mehr sein.

    Ich habe es so wahrgenommen dass hauptsächlich (statistisch) gilt: „Ein Neuron triggert dann, wenn auf möglichst vielen Eingängen möglichst gleichzeitig ausreichend starke Impulse eintreffen.“
    Mich würde interessieren ob dies hinreichend belegt ist?

    Singer geht davon aus dass die Synchronität von Signalen maßgeblich für die Auswertung sein dürften, letztlich Grundlage des Denkprozesses sind.
    Die Synchronizität würde nach dem Konzept von Gatterschaltungen (AND, NOT – Funktion) das Warren McCulloch erstmals als Neurologe formuliert hat, im Neuron ausgewertet. Die Turing Berechenbarkeit trifft für diese Konzept von McCulloch zu.

    Ich glaube der Blogteilnehmer „Fegalo“ hat in einem Blog (Hope) auf die obige Definition hingewiesen, er fand sie aber nicht ausreichend und wollte eher eine verbale Definition.

    • Das Schema aRb als Definition lässt viel Freiraum für Objekte wie auch für Relationen. Die einfachste und häufigste Relation ist das Gleichheitszeichen oder das Verb “ist”. Man kann sich beliebig komplexe Objekte (z.B. Mengen) und Relationen vorstellen. Relationen können symmetrisch sein, wie das Gleichheitszeichen oder die Äquivalenz. Oder sie können antisymmetrisch sein wie die Vater-Sohn-Relation. Mit solchen logischen Regeln lassen sich ganze Expertensysteme aufbauen.

      Die wichtigste Funktion der Kybernetik ist der Vergleich, mit dem Filter als zugehöriges Instrument. Transmitter und Rezeptor im Nervensystem, genauso wie Enzym und Substrat in den Zellen, machen Vergleiche, die über die weiteren Prozesse im Organismus bestimmen. Hier ist die Brücke zwischen Biologie und Kybernetik. Darauf wiederum bauen die mentalen und psychischen Funktionen mit den subjektiven Phänomenen auf.

  76. @anton reutlinger

    “Fegalo” wollte unbedingt dass in der Definition ein “Datentransfer” zwischen Sender und Empfänger enthalten sein muss, sowie dass es unbedingt ein “Subjekt” in der Definition geben muss.

    “Fossilium” weiter oben dürfte es ähnlich sehen.

    Meiner Meinung nach kann man den Datentransfer getrennt sehen, obwohl auch in einem Computer die Informationen als Objekte häufig zwischen den Komponenten (z.B. Registern, Speichern) “verschoben” werden.

  77. @Reutlingen
    Brücke:Biologie-Kybernetik
    Ja,sie beschreiben plakativ,wie es geht,wie ws passiert.Aber nicht, was ‘es’ ist. Deswegen ist der weitere Hinweis von Herrn PS nicht unrelevant,das darüber nachgedacht wird,das Materie Information ist.

  78. @anton reutlinger

    Zitat: “Transmitter und Rezeptor im Nervensystem, genauso wie Enzym und Substrat in den Zellen, machen Vergleiche, die über die weiteren Prozesse im Organismus bestimmen. Hier ist die Brücke zwischen Biologie und Kybernetik. Darauf wiederum bauen die mentalen und psychischen Funktionen mit den subjektiven Phänomenen auf.”

    McCullochs These samt Turingbeweis baut grundsätzlich auf das Gatterkonzept auf und wäre der Beweis für eine “echte” Informationsverarbeitung im neuronalen System. McCulloch “musste” offensichtlich zur Kybernetik wechseln, weil er sich damals wegen seiner Thesen als Neurologe untragbar gemacht hat. Wie es möglicherweise auch Turing nicht gut bekommen ist, wenn man seine Biographie kennt. Allerdings dürfte alle Thesen heutzutage anerkannt werden.

    Bedeutet, die Prozess in der Zelle müssen nach außen wie ein Gatter wirken, es muss ein Ausgangssignal (Impuls) geliefert werden wenn möglichst viele Eingangsimpulse möglichst gleichzeitig eintreffen, also die formale UND Bedingung zumindest für kurze Zeit erfüllt ist. Dann verhält sich das System ähnlich wie früher, als mittels NAND Gattern alle Funktionen der Informationsverarbeitung realisiert werden konnten.

    Dass nicht alle Eingänge wie in der Technik “high” sein müssen, bedeutet nur dass es sich um eine Art von “qualifiziertes UND” handelt.
    Eigentlich ein UND wie es dem realen Verhalten neuronaler Systeme entspricht. Es müssen möglichst viele korrekt entstandene Cluster aktiv sein um möglichst eindeutige Ergebnisse zu erhalten.

    Die mentalen und psychischen Funktionen mit den subjektiven Phänomenen entstehen offensichtlich, wie weit eine mathematische Zuordnung aus den an bestimmten Stellen zu bestimmten Zeitpunkten auftretenden Signalen möglich und realistisch ist, ist eine andere Frage.
    Außerdem erhält man keine realen Gefühle, nur eine mathematische Abbildung.
    In einer “hybriden Maschine” könnte man ein reales (elektrisch – chemisches) Empfindungssystem in die Elektronik einbinden. Dann wäre das System real empfindungsfähig.

  79. Hallo Herr Reutlinger,

    … jedoch wäre Information ohne Übertragung ziemlich sinnlos.

    Das sehe ich auch so. Physikalische und informationstheoretische Begriffe stehen doch nicht einfach nur für sich da. Da kann ich mir beliebige Definitionen ausdenken, für die Entropie, für Information, für Kausalität, für Energie, usw. Die Begriffe stehen in einem Aussagekontext, Dort bekommen Sie ihre Bedeutung, und zwar besonders dann, wenn sie von verschiedenen Parteien verschieden verwendet werden.

    Was mit Entropie gemeint ist, erschließt sich erst, wenn ich die Statistik beschreibe, innnerhalb der ich diese Größe verwende. Und Information erhält eine Bedeutung, wenn ich die zugehörigen Nachrichtenkontext benenne. Wer behauptet, zwei Bits seien eine Information, unterstellt ihre Verwendung als Nachricht, sagt dies aber nicht.

    Wohin solche ungesgaten Voraussetzungen führen zeigt die Aussage:
    Information ist eine Zahl (von Bits), und Entropie ist eine Zahl (von Zuständen) und daher ist Entropie gleich Information. So ein Unsinn.

    Grüße Fossilium

  80. @Mussi, fossilium, Elektroniker und andere

    Zu den Möglichen Welten: Nach Esfeld* bedeutet der Begriff der möglichen Welten in der Philosophie “eine vollständige Art und Weise, wie die Dinge sein könnten; vollständig ist diese Art und Weise genau dann, wenn für jede Aussage festgelegt ist, ob sie in Bezug auf die betreffende Welt wahr oder falsch ist.” Lewis versuchte zu rpüfen, ob dies mit kontrafaktischen Aussagen möglich sei.

    Mir ginge es als ich dies erwähnte, um etwas anderes, was ich offenbar nicht deutlich machen konnte:
    Ich schrieb
    1. dass sich die Menschen in Bezug auf die Art der Informationsverarbeitung in zwei Gruppen unterteilen (wir nennen sie die prädikative und die funktionale), aber nicht im Verhältnis 1:1, sondern die überwiegende mehrheit der Menschen gehört zur prädikativen Gruppe;

    2. dass der Unterschied auf der menschlichen Informationsverarbeitung beruht, nicht auf Denkstilen, Strategien oder irgendwelchen Präferenzen;

    3. dass die menschliche Informationsverarbeitung geregelt abläuft, sie also einem Regelwerk unterliegt, das in zwei Varianten vorliegt: prädikativ vs. funktional; prädikativ meint, auf das Denken bezogen, ein zustandsorientiertes Denken in Prädikaten (Beziehungen) und Begriffen vs. einem prozessorientierten Denken in Funktionen und Wirkungsweisen;

    4. es sich bei diesem Regelwerk um Kausalität handelt. Versteht man unter Kausalität die Beziehung zwischen Ursache und Wirkung, entspricht dies der prädikativen Art, die Dinge in dieser Welt zu betrachten und zu erfassen, nicht der funktionalen – aber man hat sich auf diese Bezeichnung geeinigt;

    Ich gehöre zur funktionalen Gruppe und innerhalb dieser Gruppe zur kleinen Fraktion der “Störenfriede”, der man u.a. nachsagt, sich nicht an Regeln zu halten. Um sich an Regeln zu halten, muss man sie kennen.
    Ich glaube nicht, dass irgendjemand von Ihnen, der nicht zu dieser Minderheitsfraktion gehört sich vorstellen kann, wie orientierungslos man in einer Welt sein kann, in der die prädikative Mehrheit und ein großer Teil der Minderheit die Regeln für das Zusammenleben aufstellt, die man nicht erkennt, deshalb auch nicht versteht und an die man sich deshab auch nicht halten kann – die Welt erscheint absolut beliebig und willkürlich, Entropie pur, ;-).

    Mir ging es so in der Grundschule im Fach Mathematik – ich habe größtenteils geraten, was ich tun soll, aber nie wirklich ein Muster erkannt. Trotzdem habe ich es aufs Gymnasium geschafft, werde aber nie vergessen, wie ich in der fünften oder sechsten Klasse an die Tafel gerufen wurde, um zu erklären, wie ich in der Matheschulaufgabe zur Lösung einer Aufgabe gekommen sei. Ich nehme an, in der Schulaufgabe gab es bei den Aufgaben keine einzige, in der ich es nicht geschafft hätte, sämtliche Regeln zu brechen. bedauerlicherweise hatte ich es auch nicht geschafft, eigene aufzustellen, so dass ich an der Tafel auch nicht mehr wusste, was ich in der Schulaufgabe gemacht habe. Ich erinnere mich, dass meine Lehrerin fassungslos daneben stand und immer wieder sagte: “Aber Kind, das kannst du doch nicht machen!” Ich fand, ich konnte wunderbar und hätte ganz sicher auch noch diverse andere Möglichkeiten gefunden, die allesamt Müll ergeben hätten.

    @fossililum meinte, die Physik würde mir nicht helfen, :-). Ich schrieb schon, dass ich drei Jahre lang mit einer Physikerin an einem Modell der menschlichen Informationsverarbeitung auf der Basis der Kausalitätsvarianten gearbeitet habe, und wir damals darüber ‘gestritten’ haben, ob die Regeln, die ich postuliere, auch für den Bau neuronaler Schaltungen gebraucht würde. Sie meinte: nein. Doch sie lag falsch – man glaubt gar nicht, wieviele Müllschaltungen sich bauen ließen, die in dieser Welt alle nicht funktionierten, wenn es keine Regeln gäbe, und man beliebig, willkürlich drauflos bauen würde (einer meiner Söhne hat das in seiner Schule mal ausprobiert… die Elektro-Firma brauchte zwei Tage, um den Schaden zu beheben und es gab zwei Tage schulfrei).

    An anderer Stelle hier in scilogs wurde mir erklärt, dass die fundamentalen Eigenschaften der Bestandteile der Materie und die elementaren Kräfte ausreichten, um daraus ein Universum wie das unsere zu erschaffen. Ich bezweifle das. Wenn ich denke, was ich für einen Nonsens aus ein paar mathematischen Symbolen zusammenbasteln konnte, nur weil ich keine Regeln kannte, die mir sagten, wie ich vorgehen muss, dann kann ich mir vorstellen, was sich an Nonsens-Universen aus allen anfangs vorhandenen Materiebestandteilen hätten basteln lassen.

    @Mussi meinte, im Zweifel sei eine Regel doch Information, und so gesehen stimme ich zu: sie reduziert Willkür und Beliebigkeit. Was sie allerdings auch nur dann kann, wenn sie sich auf etwas bezieht.

    Zunächst hatte ich gemeint, die Regeln, auf die ich gestoßen bin, gelten nur zur Regelung der internen Prozesse im Gehirn. Erst als mir gesagt wurde, ich beschreibe kausale Zusammenhänge, obwohl Kausalität ein Beziehungsverhältnis sei, keine Regel,
    und Esfeld im genannten Artikel schreibt, die Debatte drehe sich um die Frage, ob Kausalität ein fundamentaler Zug unserer Welt sei und Lewis von einer Möglichen Welt sprach, in der es weder Ursachen noch Wirkungen gibt, denke ich, Kausalität ist mehr als nur ein Regelwerk fürs Gehirn.
    @Herr Päs hat in seinem Beitrag “Warum ist das Universum dreidimensional?” seine Theorie von einem kosmischen Kabelsalat in drei räumlichen Dimensionen vorgestellt und u.a. auch die Theorie von Brandenberger und Vafa erwähnt. Ich hatte damals auf die Theorie von Gonzales-Ayala u.a. verwiesen, die meinen, dass es nicht mehr als drei geben könne, weil sich das entstehende Universum zu sehr abgekühlt habe.

    Mein Vorschlag lautet, es sind drei, weil es ein Regelwerk gibt, dass für jede seiner Regeln drei Variablen zwingend vorschreibt. Und es schreibt zwingend die Zeit als deren Eigenschaft vor. Das schließt den kosmischen Kabelsalat nicht aus, im Gegenteil, 🙂

    *https://www.unil.ch/files/live/sites/philo/files/shared/DocsPerso/EsfeldMichael/2007/Kausalitaet-Bartels07.pdf

  81. @fossilium;
    Begriffe stehen nicht für sich allein, sondern entstammen unserer Beobachtung der Welt und unserer Erfahrung mit der Welt. Nun ist die Welt sehr komplex und kompliziert. Um über die Welt in endlicher Zeit reden zu können, braucht man Begriffe, die diese Komplexität als Bedeutung in sich tragen. Deshalb bedienen wir uns der Abstraktion, der Approximation und der Aggregation mit dem Effekt der Generalisierung. Die meisten Begriffe bezeichnen nicht ein individuelles Objekt oder einen individuellen Vorgang, sondern ganze Klassen oder Mengen. Damit verlieren die Begriffe aber ihre Prägnanz, denn man kann aus verschiedenen Perspektiven, mit subjektiven Interpretationen und mit persönlichen Absichten über die Welt reden. Die Begriffe werden damit zum Spielball. Das beste Beispiel dafür ist dieser Blog.

    Die Bedeutung von Information hängt eng damit zusammen, was sie an Neuem offenbart, d.h. welchen Nachrichtenwert sie hat. Dass wir vor allem an Neuigkeiten, an Sensationen und Spektakel interessiert sind, aus psychologischen und evolutionären Gründen, bedeutet wiederum, dass der semantische Informationsgehalt mit dem Neuigkeits- und dem Überraschungswert korreliert. Je unwahrscheinlicher ein Ereignis, desto höher ist der Informationsgehalt darüber. Wer hätte nicht gern Informationen über die richtigen Lottozahlen im voraus?

  82. @mussi

    …’Sie setzen urteilorientiert eben noch zu sehr auf Konkkurenz und Wettbewerb..’
    Gehen Sie einmal auf einen in viele Städten vorhandenen Wochenmarkt, und schauen Sie sich an, wie dieser funktioniert. Dann wird Ihnen klar, weshalb ‘Marktwirtschaft’ so einmalig erfolgreich ist, und Konkurrenz ein äusserst nützliches Verhalten darstellt. Es setzt die Kräfte ins Gleichgewicht, die Preisfindung hat mit Entropie zu tun…..

    • Bringen Sie das Gefangendilemma und die Allokationsfunktion inZusammenhang.Gehen Sie mal in ein Ehrenamt oder z.B. in einen Sportverein . Setzt auch Kräfte frei und hat was mit Entropie zu tun.

  83. @Mussi;
    Für die Kommunikationstechnik gibt es das 7-Schichtenmodell. Die Schichten bilden Abstraktionsebenen. Die unterste Schicht ist die materielle, elektrische Leitung. Nun genügt es aber nicht, einen Draht einerseits in den Mund und andererseits in das Ohr zu stecken. Es sind weitere Funktionen und Geräte notwendig. Deshalb liegen darüber weitere Schichten, die sich für ihre immer komplexeren Funktionen jeweils der unteren Schichten bedienen. Da ist die Transportschicht, die Sicherungsschicht, die Netzwerkschicht, die Prozessschicht und ganz oben die Anwendungsschicht, die letztlich für den Benutzer die Kommunikation abwickelt und eine Bedieneroberfläche anbietet.

    Nun kann man behaupten, dass das Gehirn genauso diese Schichten repräsentiert. Die unterste Schicht sind die Nervenfasern mit den physikalischen Signalen zwischen Sinnesnerven bzw. Motoneuronen und dem Gehirn sowie zwischen Nervenzellen im Gehirn selber. Die Nervenzellen sind stark vernetzt und vermascht, also mit Wirkungskreisen oder Rückkopplungen. Ganz oben sind die Gedanken, Gefühle und Empfindungen. Auf Grund der gigantischen Komplexität und der fehlenden oder lückenhaften Möglichkeiten, das lebende Gehirn zu beobachten und zu sezieren, fehlen für die oberen Schichten noch die Erkenntnisse über die einander verbindenden Brücken.

    Man weiß heute sehr genau, wie die Augen funktionieren, wie sie das Licht als Nervensignale in verschiedene Teile des Gehirns leiten. Man weiß aber nicht, wahrscheinlich wird man es nie wissen können, wie die Farben, Töne oder Gefühle (die sogenannten Qualia) zustande kommen. Das Licht draußen hat keine Farben, sondern nur Frequenzen oder Wellenlängen!

    • Was ihre Festlegung betrifft,was zu ergründen ist,sehe ich es wie Sie. Insgesamt hatte ich gehofft,das ein oder andere mehr zum Informationsbegriff zu erfahren.

  84. @Mussi;
    Im Gegensatz zur unbelebten Natur ist die ganze belebte Natur von Konkurrenz durchzogen: Konkurrenz um Lebensräume, um Nahrung oder Energie, um Sexualpartner, beim Menschen zusätzlich um Arbeits- und Bildungsplätze.

    Im Gegensatz zur unbelebten Natur ist die belebte Natur von Zwecken, Absichten und Zielen bestimmt. Nur so kann sich das Leben erhalten, andernfalls würde es der Entropie oder Dissipation zum Opfer fallen. Organismen müssen notwendig Nahrung oder Energie aufnehmen, um am Leben zu bleiben. Dazu müssen natürliche Anreize vorhanden sein. Letztlich hat auch das Leben insgesamt weder einen Zweck noch ein Ziel und wird irgendwann ausgelöscht.

    Selbstverständlich gibt es Arten, die nur durch Aufgabenteilung, Spezialisierung und Kooperation überleben können. Kooperation ist nie ein Selbstzweck und moralisch nicht höherwertiger als Konkurrenz, denn Konkurrenz hat in der Natur wichtige Funktionen. Gerade weil die Natur keine inhärenten Ziele hat, braucht sie die Konkurrenz zur Erhaltung des Lebens, angesichts der Widrigkeiten und Zufälligkeiten der Natur selber. Die Natur opfert auch ihre am höchsten entwickelten Geschöpfe. Nur die Vielzahl der konkurrierenden Spezies und varianten Individuen ist die Gewähr für das Überleben des Lebens.

    Das Problem für die Gesellschaft ist nicht die Konkurrenz an sich, sondern die Übertreibung und die Fixierung auf Konkurrenz. Es zeigt sich in der Sprache, indem ständig von “Kampf” gesprochen wird, sei es der sportliche Wettkampf, der ökonomische Existenzkampf oder der politische Wahlkampf.

    Was sich dramatisch geändert hat, das ist die umfassende Verfügbarkeit von Information, insbesondere in Form des Internet. Man kann heute Angebote von Produkten rund um die Welt vergleichen, ungeachtet der Kosten für die unterschiedlichen Anbieter oder der Produktionsbedingungen. Was schert uns die Umwelt in Afrika oder die Ausbeutung der Arbeiter in Asien?

    • “Man kann heute Angebote von Produkten rund um die Welt vergleichen, ungeachtet der Kosten für die unterschiedlichen Anbieter oder der Produktionsbedingungen. Was schert uns die Umwelt in Afrika oder die Ausbeutung der Arbeiter in Asien?”

      Dass die Produktion von Konsumgütern auf der Ausbeutung anderer beruht, diese Tatsache aber die Konsumenten wenig bis gar nicht stört, ist doch kein Phänomen erst unserer Zeit; hat es die Menschen des 17. oder 18. Jahrhunderts unangenehm tangiert, dass ihre Baumwollkleidung durch die Arbeit tausender Sklaven auf den amerikanischen Südstaatenplantagen ermöglicht wurde? Wohl kaum.

  85. Im Spiel des Lebens wird vieles wohl so sein.Mir ging es im Rahmen der Entropie um ein Gleichgewicht.Dazu benötigt man mindesten zwei ‘Mitspieler’. Mir scheinen Kooperation und Konkurrenz die Beiden zwei zu sein. Philosophisch vielleicht zwei Komplementäre. Wir neigten viel als Überlebenskampf oder Überlebensstrategie zu sehen. Es ist halt aus meiner Sicht eine Frage,der Gewichtung während des Lebens. Das Gefangenendilemma weist Kooperation als Lösungsmöglichkeiten aus. Es ist eine Frage der Transparenz. Deswegen Konkurrenz und Kooperation als sowohl als gegen-,aber auch Mitspieler. Ist wie positiv und negativ. Froher und freudiger scheint mir im Überleben aber die Kooperation.

  86. In dem gerade beschriebenen möglichen Zusammenhang ist die Frage,was Information physikalisch ist. Wenn ich die Definitionen und Eigenschaften von Wikipedia zu Information nehme,dann drängt sich auf,ob Information ein freies Gut wie Luft ist?Wie wird ein freies Gut zwischen Konkurrenz und Kooperation behandelt?Darüber gibt es Diskussionen zwischen open Access und Privatisierung von Erkenntnis und Wissen. Wir hier sind hoch kooperativ. Auch wenn das Medium im Markt agiert. Scheint eben Entropie zu sein.

  87. @Mussi;
    Gegen freiwillige Kooperation gibt es selbstverständlich keine Einwände, andererseits ist Kooperation kein Allheilmittel. Kooperation ist nicht möglich, wenn es um den Konsum oder Verbrauch von Gütern geht. Kooperation ist sinnvoll bei der Herstellung oder Beschaffung von Gütern. Konkurrenz und Kooperation sind nicht beliebig austauschbar.

    Würden Sie Nacktphotos von Ihnen als freies Gut bezeichnen? Auf jeden Fall stellen sie Informationen dar. Andererseits bewegen Sie sich in der Öffentlichkeit und der Anblick Ihrer Person als Information ist ein freies Gut wie die Luft!

    Es kommt eben immer auf den Einzelfall an. Debatten über abstrakte und allgemeine Begriffe bleiben selber abstrakt und ohne Aussagekraft. Erst der Bezug zu realen Situationen gibt ihnen eine sinnvolle Bedeutung. Besonders die politische wie auch die theologische Sprache ist voll von sinnleeren Worthülsen und Platitüden.

  88. Nachtrag;
    Der Markt oder die Börse sind Plätze, an denen zunächst Informationen gesammelt werden, sowohl seitens der Anbieter als auch der Nachfrager. Die Anbieter brauchen Informationen über die Konkurrenz, die Nachfrager wollen die vergleichsweise günstigsten Angebote aussuchen. Die Voraussetzung dafür ist die Transparenz der Preise sowie der Eigenschaften der Produkte. Selbstverständlich werden die Anbieter die besten Eigenschaften anpreisen und die ungünstigen Eigenschaften verschweigen oder verstecken. Trifft das nicht auf alle Lebensbereiche zu, in der einen oder andern Ausprägung, z.B. auf Bewerbungen (oder dem Kampf!) um einen Arbeitsplatz oder eine Wohnung?

  89. Ja,so läuft es. Meine Gedanken gehen eher in Richtung Urheberrechte und Patentierung. Sie wurden ja mal ein eingeführt als Schutzrechte. Ich habe die aktuelle Diskussion darum nicht genau verfolgt. Kann dazu also nicht mehr sagen. Hab es auch noch nicht zuende gedacht. Desweiteren basieren die Modelle der Ökonomen eben nicht auf diesen Aspekten,die sie beschreiben. Ist fraglich,ob man das auch benötigt. Die Frage der Allokation(Verteilung) ist aber hochaktuell und wird immer drängender(Demographie).

  90. Man kann noch ergänzen, dass für einen funktionierenden Markt ein gewisses Gleichgewicht zwischen Angebot und Nachfrage notwendig ist. Andernfalls kommt es zu exorbitanten Ausschlägen. Ein solches Gleichgewicht lässt sich aber nicht willkürlich herstellen, wenn es bspw. um Naturprodukte geht, die entweder durch Naturereignisse verknappt oder im Überfluss produziert werden. Unter bestimmten Umständen kann man Güter auch künstlich verknappen, oder Informationen bewusst streuen, um höhere Preise zu erzielen.

    Ökonomische Gleichgewichte können in verschiedener Weise gestört werden, so dass der Staat hier gegebenenfalls steuernd eingreifen muss, zum Beispiel zugunsten des Umweltschutzes oder anderer Schutzgüter. Besonders im globalen Handel gelten unterschiedliche Gesetze bezüglich Steuern, Abgaben und Produktions- oder Handelsbedingungen.

    Urheberrechte und Patente beziehen sich auf (neuartige) Ideen, nicht auf Informationen, falls Sie das meinen. Sicher sind Ideen immer auch Informationen, aber nicht umgekehrt.

  91. Wenn man Zufriedenheit des einzelnen Menschen als grundsätzliches Ziel/Bedürfnis und als Makrozustand definiert,dann dürfte alles was wir diskutieren zu den Mikrozuständen der Menschen führen(Pluralität). Die Grundlage für das freie Spiel freier Kräfte und zu Fragen der Regulierung und Deregulierung. Neue Sicht auf das Anthropozän…Man man man…was der Artikel für Kräfte freisetzt….:-

  92. Hallo Herr Reutlinger, Hallo Mussi,

    mit Begriffen wie Entropie und Information muß man aufpassen. Entropie wird gerne mit Naturgesetzlichem in einen Zusammenhang gebracht und Information mit irgendwas Ontologischem. Das liegt daran, und da hat Herr Päs ja auch beschrieben (sogar explizit, glaube ich), daß Entropie z.B. eine Größe ist, die auf alle Systeme, physikalische, chemische, biologische, soziale – eben auf alle Systeme in der Welt angewendet werden kann, auch wie die Information. So was Universelles ist eben sehr attraktiv, man kann damit alle möglichen metaphysischen Verbindungen knüpfen, oder damit herumspekulieren.

    In Wirklichkeit handelt es sich bei Entropie um eine statistische Größe. Die Entropie ist nämlich deshalb interessant, weil da es sich da um eine Zahl handelt (je nach Anwendung muß man sie noch mit der Bolzmann-Konstante multiplizieren), die bei der dynamischen Entwicklung eines sich selbst überlassenen Systems aus vielen Teilen erstens das Gesamtsystem charakterisiert (den Makrozustand, wie das Herr Päs nennt) und sie zweitens immer zunimmt, und damit sowas wie eine Zeitrichtung “auszeichnet”. Es gibt aber eigentlich gar keine sich selbst überlassenen Systeme (außer dem Universum selbst), das ist eine Idealisierung der Physiker. Und es lassen sich auch Systeme denken, in denen, auch wenn sie sich selbst überlassen sind, die Entropie von selbst abnimmt – z.B. durch Fluktuationen der Teilchenzahl in einem passend kleinen Gasvolumen. Die Entropie ist daher sehr schillernd, dennoch wird sie immer wieder zu metaphysischen Spekulationen mißbraucht, von der Systemtheorie und Informationstheorie vereinnahmt, umdefiniert, und dann als statistischer Parameter verwendet – was ja Sinn machen kann, aber ihre Eigenschaft und ihr Auftreten als sowas wie eine zeitrichtungsbestimmende Größe wird so total korrumpiert.

    Ich fürchte so was ähnliches passiert auch mit dem Begriff der Information. Information ist immer und überall, und daher verdächtig, irgendwas Besonderes zu sein. Fühlt man dem Begriff auf den Zahn, stellt man fest, überall gibt es besondere Definitionen. Der Shannonsche Informationsbegriff verträgt sich z.B. besonders gut mit den Regularitäten von Naturprozessen, er beschreibt das Maß der Einschränkung einer Reaktionsbeliebigkeit. Ein gewisser Bateson hat dagegen argumentiert, Information sei der Unterschied, der einen Unterschied produziert. Carl Friedrich von Weizäcker hat sogar die Informationseinheiten 0 und 1 (sog. Ur-Alternative) zur Grundlage einer Theorie of Everything gemacht, die er aber nicht zu Ende ausarbeiten konnte (es hat kein Physiker mitgemacht).

    Man muß sich hüten, die Begriffe Entropie und Information überzustrapazieren. Auf bestimmte Weise definiert, können sie die Beschreibung von Sachverhalten, insbesondere solcher, in der viele als gleichartig anzusehendeTeile eine Rolle spielen, sehr effektiv machen, aber eine Bedeutung für die Ontologie dieser Welt haben sie wohl nicht. Ich habe jedenfalls dazu noch keine überzeugende Argumentation vernommen. Insofern hat Herr Päs hier nur einen Versuchsballon gestartet. Der Treibstoff des Universums muß noch gefunden werden – am besten im Urknall suchen.

    Grüße
    Fossilium

    • @Fossilum
      Stehphen Hawking sagt, Information/Entropie verlässt das Schwarze Loch und den Ereignishorizont. Wenn dann jemand meint, die Information fliesse in seinen Körper, durchströmt seinen Arm und seine Hand bis in den Stift, es entsteht eine neue Bibel oder ein Koran oder ein komunistisches Mainfest oder was anderes ähnliches, dann unterstelle ich dem geneigten aufgeklärten Leser genügend Skeptizismus. Hin und wieder ist das nicht der Fall. Aber das ist Grenzfall, den Lars Jäger mit Glaube in Zusammenhang mit Information beschreibt. Heurekamomente soll es geben.

  93. Generell sollte man mit Begriffen sorgfältig umgehen, ganz besonders mit abstrakten Begriffen, die einen komplexen Sachverhalt repräsentieren, wie Information, Entropie oder Energie. Komplexe Sachverhalte lassen sich aus verschiedenen Perspektiven oder mit verschiedenen Motiven betrachten. Gerade deshalb werden diese Begriffe so verschieden interpretiert und oft auch missbräuchlich verwendet.

    Wie ich in einem früheren Beitrag zur Kommunikation schon geschrieben hatte, gibt es das 7-Schichtenmodell, das auch für die Information zutrifft. Die Information reicht vom physischen Substrat über semiotische Zeichen und Syntax bis zur subjektiven Bedeutung (Semantik) und persönlichen Nutzung (Pragmatik). Dazu kommen die Funktionen der Darstellung, Speicherung, Übertragung und logischen Verarbeitung von Information. Daher sind verschiedene Definitionen möglich, je nachdem welche der Schichten und Funktionen im Vordergrund steht.

    George Bateson hatte völlig recht: Information beruht auf Unterscheidung. Nur wo oder wenn Unterscheidungen gemacht werden können, entsteht Information als deren Konsequenz. Auch darüber kann man philosophisch nachdenken. Was wäre, wenn es keine Unterscheidungen gäbe, woher kommen die Unterscheidungen? Genau hier bei den Unterscheidungen kommt die Entropie ins Spiel.

  94. Heinrich Päs schreibt im Beitrag:

    »Leben hat niedrige Entropie, tot sein hohe (ganz einfach weil es viel weniger Möglichkeiten gibt, lebendig zu sein –…«

    .
    Das ist zweifellos richtig.

    Und dennoch ist aus Totem Lebendiges entstanden. Was war bei diesem Geschehen die treibende Kraft? Die Entropie mag sich bei der Entstehung lebender Systeme im Gesamtsystem Universum zwar erhöht haben, aber irgendwie widerstrebt es einem, dies als die tiefere Ursache, als „Treibstoff“ für die Entstehung von Leben zu betrachten.

  95. Das Leben braucht sowohl Ordnung als auch Unordnung. Nur aus der Unordnung kann neue Ordnung entstehen, nur so kann die Evolution wirken. Aus Ordnung kann nur noch Redundanz entstehen. Für das Leben ist Redundanz absolut notwendig und charakteristisch, denn auch darauf baut die Evolution auf. Darüber hinaus zerfällt Ordnung wieder in Unordnung. Das Leben ist ein beständiger Prozess der Schaffung und des Zerfalls von Ordnung.

    Die Entropie kann als Zustandsmerkmal eines Systems, aber auch als Scheinkraft der Physik aufgefasst werden, analog der Trägheitskraft. Ein System geht in einen Zustand höherer Entropie über, ohne dass eine physikalische Kraft notwendig ist. Reibung, Verschleiß und Oxidation führen zum Verlust der Form von Bauteilen eines technischen Systems. Insofern ist Entropie eine treibende Kraft.

  96. Humor und Ernst mögen entropisch sein. Ich klinke mich aus. Danke für die Anregungen, Diskussionen und auch für das plaudern!

  97. @Anton Reutlinger
    “Selbstverständlich gibt es Arten, die nur durch Aufgabenteilung, Spezialisierung und Kooperation überleben können. Kooperation ist nie ein Selbstzweck und moralisch nicht höherwertiger als Konkurrenz, denn Konkurrenz hat in der Natur wichtige Funktionen.”

    – Zustimmung.

    “. Gerade weil die Natur keine inhärenten Ziele hat, braucht sie die Konkurrenz zur Erhaltung des Lebens, angesichts der Widrigkeiten und Zufälligkeiten der Natur selber.”

    Diese Aussage erscheint mir etwas redundant.
    Wenn die Natur keine inhärenten Ziele hat – dann braucht sie: gar nichts; weder Konkurrenz noch Kooperation.
    Wenn spätestens nach 6 Milliarden Jahren alle Meere verdampft sind – dann ist die Natur auf dem Planeten Erde nur noch ein steriler Wüsten-Ort, auf dem Leben nicht mehr existiert.

    Mehr Sinn würde Ihre Aussage ergeben, wenn Sie statt Natur den Begriff der Evolution verwendet hätten; die Evolution der Pflanzen, Tiere, Bakterien, Pilze vollzieht sich u.a. durch Konkurrenz und Kooperation. Aber der Begriff “Natur” umfasst eben nicht nur die Organismen, also alles Lebendige, sondern auch die anorganische Welt.

  98. Informationsübertragung mit doppelter Lichtgeschwindigkeit – Zweiwegkommunikation:
    Der Trick: ein Informationskanal mit einem Photon, jeder Teilnehmer bekommt ein halbes
    zum Schreiben oder Lesen – jede Hälfte ist mit c unterwegs und c+c=2c.
    Das komplette Photon ist klassisch über die Superpostion an LG=c “angebunden”.
    https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.120.060503
    … We show that communication bounded to the exchange of a single quantum particle (in superposition of different spatial locations) can result in “two-way signaling,” which is impossible in classical physics. We quantify the discrepancy between classical and quantum scenarios by the probability of winning a game played by distant players. We generalize our result to an arbitrary number of parties and we show that the probability of success is asymptotically decreasing to zero as the number of parties grows, for all classical strategies. In contrast, quantum strategy allows players to win the game with certainty.

  99. Für eine weitergehende Auseinandersetzung mit dem mehr als fesselnden Thema kann ich das Lehrbuch “Information ist Energie” von Lienhard Pagel nur ausdrücklich empfehlen [1].

    Pagel geht darin sowohl auf Shannons Interpretation des Informationsbegriffs und Entropie ein als auch Interpretationen im Bereich der Philosophie. Den Schwerpunkt bildet jedoch die physikalische und thermodynamische Betrachtung.

    Im Folgenden zwei Zitate aus dem Buch

    “Auffallend ist der unterschiedliche Umgang mit der Entropie in der Informationstechnik und in der Thermodynamik. In der Informationstechnik werden Sender und Empfänger benötigt. Die Beseitigung von Ungewissheit beim Empfänger wird diskutiert. Im logischen Gebäude der Thermodynamik tauchen diese Begriffe nicht auf. Dort ist die Entropie eine fundamentale physikalische Größe.”

    […]

    “Um das Verhältnis zwischen Energie und Information genauer aufzuklären, soll die grundlegende Frage beantwortet werden, wie viel Energie notwendig ist, um eine bestimmte Informationsmenge zu übertragen. Die elementare Informationseinheit ist eine Ja/Nein-Entscheidung, also ein Bit.”

    […]

    In der Behandlung dieser Fragen wird der Leser den zentralen physikalischen Phänomenen wie der Quantenfluktuation und Fundamentalkonstanten wie z.B. des Planck’schen Wirkungsquantums begegnen anhand derer der Autor anschaulich die physikalische Definition des Quantenbits herleitet als das mit der minimalst möglichen Energie übertragene Bit.

    Leider ist mir keine Rezension oder Bewertung von Pagels Buch von wissenschaftlicher Seite bekannt und wie andere Forscher den im Buch – physikalisch begründet – eingeführten “dynamischen Informationsbegriff” bewerten.

    Die wohl interessanteste Fragestellung zum Thema in der Kosmologie, die leider im Artikel etwas ausgespart bleibt, findet im Buch ebenfalls Erwähung, bleibt freilich aber ungelöst, weil das als Informationsparadoxon Schwarzer Löcher bekannte Problem generell ungelöst ist. Zu jenem Paradox gelangt man z.B. über Einsteins allgemeine Relativitätstheorie, einem physikalischen Informationsbegriff und Max Plancks Quantentheorie. Ungelöst ist die Frage was mit jener (physik.) Information passiert, die sozusagen dem Zustand der von Schwarzen Löchern verschluckten Massen beschreibt. Sie kann laut Einsteins allgemeiner Relativitätstheorie nicht verschwinden. Doch unklar ist ob und wenn ja wie sie einem Schwarzen Loch entkommen könnte (vgl. [2]). Viele Versuche wurden unternommen das Paradoxon aufzulösen – Stephen Hawking selbst aber auch andere Wissenschaftler haben in der Vergangenheit mehrere Hypothesen postuliert die eine Lösung aufzeigen sollten (vgl. [3], [4]). Doch nach aktueller Forschung scheint es letztlich noch immer ungelöst (vgl. [3]).

    [1] Lienhard Pagel, 2013, “Information ist Energie”. Springer-Vieweg, Wiesbaden 2013. ISBN 978-3-8348-2611-4.
    [2] https://www.huffingtonpost.com/2014/03/14/black-hole-information-paradox_n_4963507.html
    [3] https://www.forbes.com/sites/startswithabang/2018/03/29/the-black-hole-information-paradox-stephen-hawkings-greatest-puzzle-is-still-unsolved/#1bb860d81c66
    [4] https://en.wikipedia.org/wiki/Black_hole_information_paradox

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +