Die Theorie fürs “Erfinden” von Information

Manchmal ist es ganz einfach, den Ansatz für eine neue wissenschaftliche Fragenstellung zu finden: Man muss nur zuhören – und Schlüsse daraus ziehen! Bei Torsten Enßlin war das so: Er stellte fest, dass sich in der Signalverarbeitung über Jahrzehnte unterschiedliche, durchaus erfolgreiche Methoden für die Bildverbesserung entwickelt haben. Der theoretische Systematiker sagte sich – und vor kurzem – mir in diesem Interview: „Ich habe gesehen, dass es viele Algorithmen gibt, die das gleiche Problem lösen – und die Verfechter der einzelnen Theorien haben alle gesagt, dass ihr Algorithmus der Beste sein muss. Da denkt man, es muss doch einen besten Algorithmus geben, wenn man berücksichtigt, was man mit am besten meint – und dabei genau spezifiziert, welche Informationen man hat. Dann sollte das doch ein wohldefiniertes Problem sein, das man mathematisch klar lösen können müsste.“ Das genau war die Grundlage für die Informationsfeldtheorie Enßlinscher Prägung, ein übergreifendes Modell für die Signalverarbeitung in der Datenoptimierung.

Torsten Enßlin gelingt dabei eine Theorie, die – so sagt er das schön anschaulich selbst – nichts weniger erlaubt als die „Erfindung von Information“. Das alles hat natürlich nichts mit Mystik zu tun, sondern steht auf dem Boden exakter Naturwissenschaft, verankert im Wissen unseres physikalischen Verständnisses über die Welt. Deshalb kann Enßlin zwar Information theoretisch beliebig erfinden, aber eben nur “erkauft” mit einem Verlust an Eindeutigkeit von “wahr” oder “falsch”. Wir sind also im Lager der Unschärfe, da, wo Aussagen mehr oder weniger wahrscheinlich sind, da, wo die absolute Logik von Aristoteles auf das Wahrscheinlichkeitstheorem von Bayes trifft. Was genau das eigentlich ist, mag dem Nicht-Mathematiker dauerhaft verschlossen bleiben, aber worum es Enßlin grundsätzlich geht, wird in der Sendung oben dennoch nachvollziehbar. Das jedenfalls hoffe ich sehr. Den Sprechertext zur Sendung gibt’s bei mir in HYPERRAUM.TV.

Um die Informationsfeldtheorie allerdings in der Wissenschaft nutzen zu können, muss sie mit geeigneten, für den jeweiligen Anwendungsfall benötigten Fakten der physikalischen Welt gefüttert werden: das breite Aufgabenfeld der Entwicklung von Algorithmen für die Datenauswertung. Das Thema Anwendung steht nach einer kurzen Einleitung über die grundsätzliche Theorie im Zentrum meines hier folgenden, ergänzenden Talks mit Enßlin. Wer also etwas mehr “Fleisch” sucht, der wird hier fündig!

Erwähnt sei an dieser Stelle: Im Zusammenhang mit der Bildauswertung in der Astrophysik sind wir in unserem Gespräch auch auf das Thema Radiointerferometrie gestoßen, bei dem es besonders kompliziert ist, die faktisch gemessene Datenlage mittels Auswertungsverfahren zu optimieren. Ein weites Feld für Enßlins Aktivitäten. Die spezifische Problematik liegt hier darin, dass räumlich voneinander entfernte Teleskope Daten liefern, die überhaupt erst mit Hilfe komplexer Berechnungen zur Deckung gebracht werden müssen, ehe daraus ein „Bild“ entsteht, wie Enßlin in unserem Gespräch etwas genauer erläutert. Das Thema hat mich spontan stark interessiert, und so habe ich mir im Gespräch einen etwas längeren Side Step gegönnt: Für mich poppte dabei nämlich die Frage auf, warum eigentlich gerade Radiowellen interferometrisch gemessen werden und wie das mit anderen Spektralbereichen ist. Darüber hatte ich mir bisher noch wenig Gedanken gemacht.

Also: Die Informationsfeldtheorie bietet die Grundlage für unterschiedliche Anwendungen von Wahrscheinlichkeitsaussagen bei Datenauswertungen. Das können Bilder aus dem Weltraum sein, wo verrauschte elektromagnetische Strahlung aus längst vergangenen Zeiten kurz nach dem Urknall aufgepeppt werden kann, aber eben nicht nur das, sondern ebenso Bilder aus Kernspintomographen, die mit geringerer Dosis für den Patienten gleichen diagnostischen Gehalt erbringen – ja, selbst der Blick in die Zukunft kann damit geschärft werden. Denn die Informationsfeldtheorie ist auch für Wahrscheinlichkeitsabschätzungen in der Finanzwelt oder des Wettergeschehens grundsätzlich anwendbar, auch wenn dafür heute noch geeignete Algorithmen gänzlich fehlen. So nimmt es nicht Wunder, dass sich Enßlin selbst zuerst einmal als Kosmologen bezeichnet, denn hieraus entsprang das theoretische Gebäude. Erstaunlicher ist es, dass er sich auf seiner Webseite am Max-Planck-Institut für Physik dann auch noch als „Wissenschaftler“ bezeichnet, was aber nur auf den ersten Blick sonderbar anmutet. Denn der Wahrscheinlichkeitstheoretiker ist zwar in der Kosmologie zuhause, hier werden Algorithmen, die seiner Informationsfeldtheorie folgen, schon für die „Erfindung von Information“ eingesetzt und haben ihren praktischen Mehrwert im Praxistest bereits bestätigt: beispielsweise bei der Bildauswertung des universalen Gammastrahlen-Himmelsatlas, der Staubverteilung in der Milchstraße oder der Analyse magnetischer Felder im Kosmos, also der Polarisation des Lichts. Doch das ist für Enßlin eben erst der Anfang. Der generalistisch denkende Wissenschaftler in ihm ist davon überzeugt, dass die Informationsfeldtheorie viel weiter vordringen kann und die Grundlage für optimierte Datenauswertungen auch in ganz anderen Disziplinen schaffen wird!

Veröffentlicht von

Ich habe viele Jahre journalistisch im Bereich Wissenschaft und Technologie gearbeitet, später dann mit meiner kleinen Beratungsfirma als Medienexpertin. 2010 erfüllte ich mir meinen großen Traum und gründete den Spartensender HYPERRAUM.TV, für den ich eine medienrechtliche Rundfunklizenz erteilt bekam. Seither mache ich als One-Woman-Show mit meinem „alternativen TV-Sender“ gewollt nicht massentaugliches Fernseh-Programm. Als gelernte Wissenschaftshistorikern habe ich mich gänzlich der Zukunft verschrieben: Denn die Vergangenheit können wir nur erkennen, die Zukunft aber ist für uns gestaltbar. Wir sollten versuchen, nicht blind in sie hinein zu stolpern!

Kommentare Schreibe einen Kommentar

  1. Die Informationsfeldtheorie gewinnt die maximal mögliche Information aus Abbildungen von physikalischen Felder. Verallgemeinert nutzt die Informationstheorie Wissen über das abgebildete Objekt um aus Abbildungen des Objekts möglichst viel Information zu gewinnen. Das kennen wir als Menschen, die Wissen oder die Erraten was sie sehen, alle sehr gut. In einem Bild sehr schlechter Qualität beispielsweise meinen wir ein Gesicht zu erkennen und sagen, dann, das da müssen die Augen, das dort der Mund sein und scheinbar hat der Abgebildete eine Glatze. Doch nicht immer stimmen diese Aussagen, sie stimmen nur, wenn die Pixel über die wir reden überhaupt ein Gesicht abbilden. In der Astronomie aber wissen wir sehr genau was wir abbilden und dementsprechend ist etwa die Annahme bei ein paar Pixeln in unmittelbarer Nachbarschaft eines Sterns handle es sich um einen Exoplaneten oft sehr naheliegend, vor allem wenn wir mehrere Bilder und weitere Informationsquellen besitzen. Tatsächlich ist Sehen immer mit Interpretieren verbunden. Und Interpretieren bedeutet immer die Zuordnung einer Wahrscheinlichkeit zu einer Annahme. Sehen wir beispielsweise 20 Bildpunkte, die sich so bewegen wie eine Person, der ihren Hund spazieren führt, dann glauben wir etwas zu sehen obwohl wir nur sehr wenig Information zur Verfügung haben. Doch letzlich kommen wir um Interpretation nicht herum und Interpretation bedeutet immer die bestmögliche Zuordnung von Bild zu Objekt.
    Die Informationsfeldtheorie als Wissenschaft nutzt bei der Interpretation anders als wir Menschen nicht die Erfahrung, sondern das physikalische Wissen um zur besten Interpretation zu kommen.

  2. Gerade hab ich mir mal das Paper zu NIFTy https://arxiv.org/abs/1301.4499 angeschaut, einem Python Framework zu Informationsfeldtheorie. Warum nur werde ich den Eindruck nicht los, dass der Autor mit Jeremy Stribling (Autor von Scigen) bekannt ist? Womöglich hat es etwas damit zu tun, dass die Software verspricht, Daten rekonstruieren zu können wo keine da sind. Auf Seite 8 des Papers ist auch noch das bekannte Mondgesicht abgebildet, was die Software in Gesteinsformationen erkannt hat, womit eindeutig bewiesen wäre, dass die Invasion durch Außerirdische unmittelbar bevorsteht … Aber mal Spaß beiseite, Fakt ist jedenfalls dass gerade in der Wissenschaft Wahrheit und Unsinn häufig dicht beeinander liegen.

  3. Erfinden von Informationen könnte man auch als Phantasie bezeichnen.
    Phantasie zeichnet große Geister aus. Das ist etwas Positives.
    Jeder hat das schon mal erlebt. In einem Stimmengewirr die Stimme einer bestimmten Person herauszuhören.
    Oder am Strand im Sand einen Ohrring zu finden. Das geht nur mit Vorstellungsvermögen.
    Eine Theorie darüber zu entwickeln, das wird spannend.

  4. Es gibt einen englischsprachigen Wikipedia-Eintrag Information Field Theory aber keinen deutschssprachigen. Und das allerbeste: Der englischsprachige Eintrag referenziert ausschliesslich Torsten Enßlin und die Max-Planck-Gesellschaft. Mit anderen Worten: Ein Wissenschaftsgebiet, das seinen Ursprung in Deutschland hat kommt nicht in die deutsche Wikipedia, sondern in die englischsprachige Wikipedia. Hier die google-Translate Übersetzung (mit 2 Korrekturen von mir) dazu:
    Informationsfeldtheorie (IFT) ist eine Bayes’sche statistische Feldtheorie, die sich auf Signalrekonstruktion, Kosmographie und andere verwandte Bereiche bezieht. [1] IFT fassen die Informationen auf einem physischen Feld mit Bayes’schen Wahrscheinlichkeiten zusammen. Es verwendet Berechnungsmethoden, die für die Quantenfeldtheorie und die statistische Feldtheorie entwickelt wurden, um die unendliche Anzahl von Freiheitsgraden eines Feldes zu behandeln und Algorithmen für die Berechnung der Felderwartungswerte abzuleiten. Beispielsweise wird der Posterior Erwartungswert eines Feldes, das durch einen bekannten Gaußschen Prozess erzeugt und durch ein lineares Gerät mit bekannter Gaußscher Rauschstatistik gemessen wird, durch ein verallgemeinertes Wiener-Filter, das auf die gemessenen Daten angewendet wird, gegeben. IFT erweitert diese bekannte Filterformel auf Situationen mit nichtlinearen Geräten, nicht-Gaußschen Feld- oder Rauschstatistiken, Abhängigkeit von den Rauschstatistiken auf die Feldwerte und teilweise unbekannten Messparametern. Dazu verwendet man Feynman-Diagramme, Renormalisierungsströmungsgleichungen und andere Methoden aus der mathematischen Physik.

    Meine Bemerkung dazu: Noch ein, zwei Iterationen/Verbesserungen in google-translate, dann braucht niemand mehr die deutschsprachige Wikipedia (ausser vielleicht für Einträge über in Deutschland liegende Dörfer)

  5. Herr Holzherr, danke für Ihren Beitrag. Ja, das ist in der Wissenschaft halt so: Englisch dominiert die Welt, natürlich auch die deutsche Forschung. Und richtig, Torsten Enßlin ist der “Schöpfer” der Theorie.

  6. Torsten Enßlin unterhält auch das Bayes Forum, welches mit den Bayeschen Herangehensweise Probleme der Wahrscheinlichkeit(sverteilung) löst. Wer mit sich entwickelnden Daten und einem wachsenden Datenberg zu tun hat und aus ihnen Schlüsse ziehen will, kommt um die Bayessche Methode nicht herum. Beim Bayes’schen Schlussfolgern kann man von einer initialen Wahrscheinlichkeit(sverteilung) für ein Ereignis und neu dazugekommenen Daten mithilfe einer Plausibilitätsfunktion eine neue bessere, also zuverlässigere und klarer eingeschränkte Wahrscheinlichkeit(sverteilung) berechnen.
    Beispiel 1) Um die Güte einer konkreten Münze für den fairen Münzwurf (Kopf und Zahl zeigen sich gleich häufig) zu beurteilen nimmt man initial etwa an, die Wahrscheinlichkeit Kopf zu werfen sei 0.5 (50%). Nach N Würfen können wir mit Bayesschen Schliessen eine neue Wahrscheinlichkeit berechnen, indem wir die initiale Wahrscheinlichkeit (0.5) mit den Ergebnissen der Wurfsversuchsreihe und einer Plausibiltitäsfunktion verrechnen. Wir erhalten nun eine bessere Wahrscheinlichkeit. Besser in dem Sinn, dass die neue Wahrscheinlichkeit besser zum tatsächlichen Wurfverhalten des Würfels passt. Die so erhaltene neue Wahrscheinlichkeit könten wird dann als initialen Wert (sogenannten Prior) für die Verarbeitung einer neuen Versuchsreihe verwenden. Mit dieser Methode erhalten wir immer bessere Werte für die Wahrscheinlichkeit, dass mit dem gegebenen Würfel Kopf oben liegt.
    Beispiel 2) Eine Kaufhauskette, die Kundendaten über das Einkaufsverhalten aufzeichnet hat die Hypothese entwickelt, dass eine Kundin, die plötzlich bestimmte Produkte einkauft, schwanger ist (was sie für personalisierte Werbung ausnutzen will). Mit den gegebenen Daten in der Filiale A kommt sie zur Wahrscheinlichkeit p, dass Schwangerschaft bei Einkaufen von Produkten aus einer bestimmten Produktgruppe vorliegt. Sie kann nun die Wahrscheinlichkeit p “verbessern”, also zuverlässiger machen, indem sie auch Verkaufsdaten aus allen ihren anderen Filialen heranzieht. Dabei kann sie inkrementell vorgehen und mit jedem Datenpaket einer zusätzlichen Filiale die Aussagekraft verbessern (man sieht schon: Big Data macht aus Zufall und Raten relative Sicherheit bis hin zum Wissen)
    3) Die aufgezeichneten Daten für die atmosphärische CO2-Konzentration und die globale Oberflächentemperatur zeigen uns einen Zusammenhang zwischen CO2-Konzentration und Temperaturanstieg. Mit den bereits historisch aufgezeichnenten Daten erhalten wir eine Ahnung um wieviel die Temperatur bei Verdoppelung der CO2-Konzentration ansteigt und für den Anstieg nehmen wir zudem eine gewisse Wahrscheinlichkeitsverteilung an. Je mehr Daten nun über die weiteren Jahre dazukommen, desto bessere Aussagen könne wird über die Wahrscheinlichkeit(sverteilung) des zu erwartenden Temperaturanstiegs machen. Diese besseren Aussagen erhalten wir wiederum mit der Bayesschen Schlussfolgerung mit Verwendung eines initialen Werts (Prior), den neu hinzugekommenen Daten und einer Plausbilitätsfunktion.

    Man sieht also, wer mit sich entwickelnden Daten zu tun hat und Hypothesen zum Zusammenhang dieser Daten testen will, der kommt um die Bayessche Methode, um das Bayessche Schlussfolgern nicht herum.

  7. Übrigens ist Enßlin auch Leiter des deutschen Beitrags an der Planck Mission – das war ja mein eigentlicher “Aufhänger” für die Kontaktaufnahme mit ihm. Es ging also um die Hintergrundstrahlung, den Urknall und die Inflationstheorie, das Thema der aktuellen Titelgeschichte von Spektrum, für die ich nach einem Gesprächspartner gesucht habe. Die Story wird hier bei mir im Blog spätestens morgen in Wort und Bild veröffentlicht.

Schreibe einen Kommentar


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +