ALMAs Submillimetergalaxien: Ein Fall von “gewusst wie”
BLOG: RELATIV EINFACH
Bei den Gesprächen mit den beteiligten Wissenschaftlern, die ich geführt habe, um die letzte Pressemitteilung des Max-Planck-Instituts für Astronomie schreiben zu können, Genaue Ortsbestimmung für die produktivsten Galaxien im Universum, fiel mir auf, dass die Geschichte dahinter ein schönes Beispiel dafür ist, wie Astronomie ganz praktisch funktioniert – wie ein Wissenschaftler oder eine Wissenschaftlerin zu einem bestimmten Thema kommen, was für Fähigkeiten man als Astronom(in) mitbringen sollte und wie das ganze damit zusammenhängt, dass die Gerätschaften, die Astronomen benutzen, doch von beachtlicher Komplexität sind. Diese Einzelheiten passten natürlich nicht in den Pressemitteilungstext. Aber unter anderem dafür gibt es ja Blogs.
Hier also die Hintergründe der ALMA-Submillimetergalaxien-Meldung. Fangen wir am Anfang an, nämlich mit den Protagonisten der Geschichte, die auf dem folgenden Bild zu sehen sind (Bild: J. Hodge):
Im Vordergrund: Jacqueline Hodge, Astronomin am Max-Planck-Institut für Astronomie. Im Hintergrund einige der 12-Meter-Antennenschüsseln des Teleskopverbunds ALMA, des Atacama Large Millimeter/Submillimeter Array. Der Grund dafür, dass Jackie so warm angezogen ist, liegt darin, dass wir uns auf der Chajnantor-Hochebene in Chile befinden, rund 5000 Meter über dem Meeresspiegel. Dass Jackie auf der Aufnahme lächelt, dürfte nicht zuletzt daran liegen, was für eine spannende Aufgabe sie zum Fotozeitpunkt, im Frühjahr 2011 zu bewältigen hatte. Und das wiederum geht darauf zurück, dass Jackies derzeitiger Chef, Fabian Walter, Gruppenleiter am Max-Planck-Institut für Astronomie, sich vor einigen Jahren Gedanken zu machen begann, wie er seine Forschergruppe am besten positionieren könnte wo doch, das war damals bereits klar, in einigen Jahren der neue Teleskopverbund ALMA in Betrieb gehen würde.
ALMA als Teleskopverbund
Bei ALMA werden in der letzten Ausbaustufe (die noch nicht ganz erreicht ist) 66 12-Meter-Antennen so zusammengeschaltet, dass sie in punkto erreichbarer Detailschärfe wie ein einziges Riesenteleskop agieren. Bei Teleskopen hängt die erreichbare Detailschärfe – das “Auflösungsvermögen” – nämlich von der Größe ab. Das Zusammenschalten zu einem sogenannten Interferometer lässt den Teleskopverbund so detailscharf abbilden, als hätte man es mit einer Riesenschüssel zu tun, deren Durchmesser dem größten Abstand der zusammengeschalteten Teleskope entspricht. Bei ALMA sind das je nach Konfiguration – die Antennen können verschoben werden – zwischen 150 Metern und 14 Kilometern. Der folgende Film gibt einen Eindruck von der Anlage:
Die Details, die ALMA in seiner Endversion abbilden können wird, sind noch einige Male schärfer als bei den größten Teleskopen, die derzeit im Bereich des sichtbaren Lichts operieren. Das ist noch etwas beeindruckender, als es sich anhört, denn jene Teleskope haben den unfairen Vorteil, dass sie mit sichtbarem Licht operieren. Um die gleiche Detailschärfe hinzubekommen, muss ein Submillimeter-Teleskop rund tausend Mal größer sein als sein Gegenstück bei sichtbarem Licht. Das hängt mit den unterschiedlichen Wellenlängen zusammen – je größer die Wellenlänge, desto schwieriger sind detailscharfe Abbildungen.
Dass der Standort von ALMA so hoch gelegen ist, und dass es sich außerdem um eine der trockensten Gegenden der Welt handelt, liegt daran, dass die Astronomen mit ALMA Millimeter- und Submillimeterstrahlung beobachten, also Strahlung im Grenzgebiet zwischen dem Infraroten und dem Radiobereich. Diese Strahlung wird von Wasserdampf weitgehend absorbiert. Wer solche Strahlung aus dem Weltraum empfangen will, sollte tunlichst minimieren, was da an wasserdampfhaltiger Atmosphäre über ihm ist und sich, bingo, einen hochgelegenen und trockenen Standort suchen.
Datenreduktion
Ein Schritt, der in Pressemitteilungen eigentlich so gut wie immer unter den Tisch fällt, aber ohne den in der Astronomie nichts funktioniert, ist die sogenannte Datenreduktion. Wenn wir ein astronomisches Bild sehen, denken wir automatisch so etwas wie “Oh, eine Galaxie”, “Oh, ein Sternentstehungsgebiet” (oder vielleicht ja auch “Oh, ein merkwürdiges buntes Etwas, das offenbar irgendetwas mit Astronomie zu tun hat”). Aber was bei einem astronomischen Instrument hinten ‘raus kommt, hängt nicht nur von dem beobachteten Objekt ab, sondern auch davon, wie und mit welchem Instrument man gemessen hat. Datenreduktion ist die Sammelbezeichnung für all diejenigen Schritte, die auf die Daten angewandt werden, um möglichst genau diejenigen Teilinformationen herauszudestillieren, die das beobachtete Objekt betreffen. Danach kann die eigentliche astronomische Auswertung beginnen.
Typische Datenreduktions-Arbeiten sind z.B. Bildverarbeitungsschritte bei Aufnahmen, bei denen man berücksichtigst, dass der Sensor selbst dann etwas Signal liefert, wenn gar kein Licht darauf fällt (“dark frame”), und dass der Sensor evt. nicht ganz gleichmäßig ausgeleuchtet wird und seinerseits möglicherweise an einigen Stellen empfindlicher ist als an anderen (“flatfielding”). Will man Helligkeiten von Objekten oder Objektregionen messen kommt noch ein entsprechendes Kalibrationsverfahren hinzu.
Für interferometrische Aufnahmen ist die Angelegenheit noch einmal um einiges komplizierter. Schließlich müssen hier Daten der vielen Einzelteleskope geeignet miteinander verkoppelt werden, ehe überhaupt ein Bild entsteht. Wenn man’s mal von der anderen Seite sieht: Das Ergebnis ist ein Bild, wie es sich ergeben würde, hätte ein großer Teleskopspiegel eine ziemliche Anzahl unregelmäßiger Löcher. Das führt im Bild zu gehörigen Artefakten. Diese weitgehend loszuwerden und zu reduzieren, um aus den Daten das bestmögliche Bild herauszubekommen, erfordert gehöriges Know-How und, wenn das Ergebnis gut werden soll, beträchtliche Erfahrung.
Vorbereitung auf ALMA
Vor rund drei Jahren überlegte Fabian Walter, wie er eine freigewordene Postdoc-Stelle in seiner Gruppe neu besetzen sollte. Postdocs sind, die meisten Leser werden das wissen, eher junge, aber promovierte Wissenschaftler, deren Stellen auf zumeist zwei bis drei Jahre befristet sind. Fabian wusste zu diesem Zeitpunkt natürlich, dass die Inbetriebnahme von ALMA bevorstand, ebenso wie die ersten Antragsphasen, in denen sich Astronomen um wissenschaftliche Beobachtungszeit würden bewerben können.
Also machte er sich auf die Suche nach einem Astronomen oder einer Astronomin, die für Forschung mit ALMA besonders geeignet wäre. Er wurde recht rasch fündig: da gab es nämlich Jackie Hodge, die gerade ihre Doktorarbeit an der University of California at Davis abgeschlossen hatte. Jackie hatte für ihre Promotion unter anderem mit dem Very Large Array (VLA) gearbeitet, einem Teleskopverbund von Radioantennen in Neu-Mexiko. Einer größeren Allgemeinheit ist das VLA durch den Film Contact (1997) mit Jodie Foster, nach einem Buch von Carl Sagan, bekannt geworden. Hier sind ein paar seiner Antennen zu sehen (Bild: NRAO/AUI):
In Contact benutzen die Wissenschaftler das VLA, um eine Nachricht von Außerirdischen zu empfangen. Jackie führte damit, weniger filmreif aber wissenschaftlich durchaus solide, eine tiefe Durchmusterung durch, bei der sie insbesondere aktive Galaxienkerne erfasste, die Radiostrahlung aussenden. Und im Gegensatz zu anderen Astronomen, die das VLA benutzen und sich für die Datenreduktion weitgehend auf vorhandene Softwareroutinen verlassen, stieg Jackie an dieser Stelle deutlich tiefer ein. Sie schrieb sogar selbst Auswertungsmodule, insbesondere eines, das verschiedene interferometrische Aufnahmen kombiniert (“stacking”), um ein besseres Bild zu erhalten.
Mit Jackies Erfahrungen und Qualifikationen war für Fabian Walter klar, dass sie genau die richtige Person für seine Postdoc-Stelle war. Mit jemandem wie Jackie im Team war Fabians Gruppe gut auf ALMA vorbereitet. Insbesondere, wenn es gelingen sollte – wie Fabian Jackie bei den Vorbesprechungen in Aussicht gestellt hatte -, Jackie beim “Commissioning” von ALMA mit einzubinden.
Commissioning und Science Verification von ALMA
Das Commissioning ist die Inbetriebnahme, während derer aus einer Ansammlung von Komponenten und Geräten eine funktionierende wissenschaftliche Anlage wird. Bei einer solch komplexen Anlage wie ALMA geht das Schritt für Schritt vor sich, mit immer mehr Systemen, die einbezogen werden, und einer Vielzahl von Tests, die sicherstellen sollen, dass alles tatsächlich so funktioniert, wie es soll. Sind die Komponenten richtig aufeinander eingespielt, wird noch das “Science Verification”-Programm durchgezogen: wissenschaftliche Testbeobachtungen bereits bekannter Objekte, mit denen das Teleskop dann als Gesamtsystem getestet wird.
In solchen Testphasen sind zum einen die am Aufbau des Teleskops beteiligten Wissenschaftler gefordert; es gibt aber je nach Projekt auch die Möglichkeit, dass geeignete Wissenschaftler anderer Institute an dieser Phase teilnehmen. Das ist natürlich eine einmalige Gelegenheit, Erfahrungen mit einem neuen Spitzenteleskop zu sammeln, und entsprechend groß ist der Andrang; andererseits wollen die Betreiber natürlich, dass nur solche Wissenschaftler am Commissioning teilnehmen, die tatsächlich etwas beizutragen hanen. Aber das war bei Jackie ja dank ihrer Erfahrung mit dem VLA und ihren gründlichen Kenntnissen in Sachen interferometrischer Datenreduktion unzweifelhaft der Fall.
Im Oktober 2010 hatte Jackie als Postdoc am Max-Planck-Institut für Heidelberg begonnen – und im April 2011 ging es dann auch schon nach Chile, wo sie am Commissioning und der Science Verification teilnahm. Ihre Erfahrung mit der VLA-Auswertung kam dabei sowohl ihr wie auch den anderen beteiligten Wissenschaftlern zupass. Das ging soweit, dass Jackie für das Wissenschaftlerteam, das das Commissioning durchführte, wöchentliche Kurse in der Auswertungssoftware CASA (“Common Astronomy Software Applications”) gab, die das Kalibrieren und Reduzieren von Interferometerdaten sowie deren Umsetzung in Bilder leistet. Hier ist Jackie im ALMA-Kontrollraum in der Operations Support Facility, der ALMA-Basisstation auf nur 2900 Metern Höhe – aufgenommen in der Woche, während derer sie die Leitung des Commissioning and Science Verification Team innehatte (Bild: J. Hodge):
Als Jackie im Juni 2011 wieder nach Heidelberg zurückkam, dürfte sie von allen Astronomen weltweit mit am besten dafür qualifiziert gewesen sein, ALMA-Daten auszuwerten.
Auf der Spur der Submillimetergalaxien
Die offizielle Eröffnung von ALMA war erst vor einem Monat, nämlich am 13. März 2013. Sie war so gelegt worden, dass zu diesem Zeitpunkt alle ALMA-Antennen auf dem Hochplateau angekommen (wenn auch noch nicht komplett in Betrieb genommen) waren. Aber ALMA ist über gut zwei Jahre hinweg aufgebaut worden, und bereits im September 2011 konnten, damals allerdings noch mit nur 16 Antennen, erste wissenschaftliche Beobachtungen vorgenommen werden. Das war der “Early Science Cycle 0”, für den Astronomen bis zum Juni 2011 Anträge einreichen konnten.
Fabian Walter hatte für Cycle 0 zusammen mit seinem Kollegen Ian Smail von der nordenglischen Universität Durham einen erfolgreichen Antrag gestellt, in dem sie mit ALMA eine Reihe von Submillimetergalaxien näher anschauen wollten. Submillimetergalaxien haben zwei hervorstechende Eigenschaften: Sie produzieren enorm viele Sterne, und sie sind extrem staubig und deswegen mit sichtbarem Licht nicht gut zu beobachten. Etwas genauer: Solche Galaxien, typischerweise weit entfernt von uns, produzieren pro Jahr im Extremfall an die tausend Mal soviel Sterne wie unsere Heimatgalaxie, die Milchstraße (bis zu 1000 Sonnenmassen an neuen Sternen im Vergleich mit rund einer Sonnenmasse). Und sie sind so staubig (was durchaus eine Folge der hohen Sternproduktionsrate sein kann), dass man Submillimeterbeobachtungen braucht, um alle Exemplare zu erfassen und die Sternentstehungsraten zu messen. Sichtbares Licht kommt durch solche Staubmengen schlicht nicht durch. Mit Infrarot- und Radiobeobachtungen kann man zusätzliche Informationen über diese Galaxien gewinnen; allerdings muss man dazu recht genau wissen, wo die Submillimetergalaxie ist – und daran haperte es bei bisherigen Durchmusterungen.
Bis dahin krankten diejenigen Durchmusterungen, die Kataloge von Submillimetergalaxien erstellt hatten – eine notwendige Voraussetzung für statistische Auswertungen – nämlich daran, dass sie nicht sehr detailscharf waren. Das wiederum lag in der Natur der Sache, denn diese Durchmusterungen waren nicht mit Teleskopverbünden erstellt, sondern mit einzelnen Schüsseln. Die Durchmusterung beispielsweise, die Walter und Smail ihrem Antrag zugrundegelegt hatten und deren Quellen sie mit ALMA näher untersuchen wollten, war mit APEX vorgenommen worden. APEX sieht aus wie eine einzelne ALMA-Schüssel, befindet sich am gleichen Standort wie ALMA, war aber schon deutlich früher da – das Teleskop diente als eine Art Pfadfinder für die späteren Arbeiten an ALMA.
Warum man nicht schon vorher Teleskopverbünde eingesetzt hatte, um größere Detailschärfe zu bekommen? Das war schlicht eine Frage der Zeit. Die existierenden Anlagen waren bei weitem nicht so empfindlich wie ALMA. Für jede Submillimetergalaxie war daher beträchliche Beobachtungszeit nötig. Und die gab es schlichtweg nicht – die Beobachtungszeit an solchen Teleskopen ist heiß umkämpft, und die beantragte Beobachtungszeit der interessierten Astronomen übersteigt die verfügbare Beobachtungszeit bei weitem. In solch einer Situation genügend Zeit für eine Durchmusterung mit über hundert Quellen zu bekommen, war schlicht unmöglich.
Insofern war das Projekt von Ian Smail und Fabian Walter wie geschaffen für ALMA: Mit seiner großen Empfindlichkeit – selbst mit nur 16, bzw. in der Praxis dann bis zu 15 Antennen – war die Anlage in der Lage, die Durchmusterung schnell durchzuführen. Und durch die große Detailschärfe wäre ein deutlicher Erkenntnisfortschritt garantiert. Die ESO-Pressemitteilung, die schließlich aus dieser Forschung geworden ist, hat denn auch die Überschrift: ALMA lokalisiert frühe Galaxien in Rekordgeschwindigkeit!
Weil die APEX-Durchmusterung mit dem Akronym LESS bezeichnet worden war (“LABOCA ECDFS Submillimeter Survey”) nannten Smail, Walter und Kollegen ihr Proposal mit der Nummer 2011.0.00294.S folgerichtig “More than LESS”.
Rettet die Submillimeter-Daten!
Im Oktober/November 2011 wurde die Beobachtungsreihe “More than LESS” dann von ALMA tatsächlich abgearbeitet. Kurz darauf erhielten die Forscher die dabei gewonnenen Daten. Die waren allerdings in keinem besonders guten Zustand. Die anhand automatischer Algorithmen (“Daten-Pipeline”) reduzierten Daten waren für eine astronomische Auswertung weitgehend ungeeignet; viele Artefakte blieben nach, und offenbar war die Reduktion auch nicht ganz konsistent durchgeführt worden. Das war ungünstig, aber in so einer frühen Phase des Betriebs eines komplexen Interferometers nicht allzu überraschend. Bei einer großen Teleskopanlage wie dem VLT, die jahrelang in Betrieb ist, mag man erwarten können, dass die automatisch vorbearbeiteten Daten von so guter Qualität sind, dass die Antragsteller sich fast gleich auf die wissenschaftliche Auswertung stürzen können. Bei einer neuen Anlage wie ALMA, und dann noch bei einem Interferometer, war das in der allerersten frühen Beobachtungsphase dann doch zuviel verlangt.
Es war also klar, dass die Wissenschaftler die ALMA-Daten noch einmal selbst würden reduzieren müssen. Ebenso klar war, dass dies jemand tun musste, der die nötige Erfahrung mitbrachte, um die Datenreduktion gut und zügig durchzuführen. Zügig, weil schon die nächsten Abgabefristen für Beobachtungsanträge anstanden – und um die Anträge, die sie planten, gut begründen zu können, brauchten die Forscher nun einmal die Ergebnisse dieser Durchmusterung!
In Durham war Alexander Karim aus der Gruppe von Ian Smail am Zug, der sich die Daten zur Auswertung vorgenommen hatte. Alex kenne ich noch aus der Zeit, als er Doktorand am Max-Planck-Institut für Astronomie war. Und er hat eine Ader für wissenschaftliche Öffentlichkeitsarbeit – vor allem war er vor seiner Promotion, während seiner Zeit in Bonn, bei der dortigen Physikshow aktiv. Aus dieser Zeit kannte Alex umgekehrt auch noch Jackie. Und als sich dann herausstellte, dass das Durchmusterungs-Teammitglied mit der größten ALMA-Datenreduktionserfahrung, Andy Biggs von der ESO nämlich, nicht die nötige Zeit haben würde, sich der Daten anzunehmen, lag es nahe, Jackie mit ins Boot zu holen. Die war bis zu diesem Zeitpunkt noch kein Mitglied dieses Durchmusterungsteams gewesen, machte sich jetzt aber rasch unverzichtbar.
Jackie kostete es einige Wochen intensiver Arbeit, die Daten zu reduzieren. Dazu muss man in diesem Falle eine ganze Reihe von Referenzmessungen auswerten. Beispielsweise werden die Antennen zwischen je zwei Messungen auf ein Referenzobjekt gerichtet, einen im Submillimeterbereich recht hellen Quasar, um die genauen Beziehungen zwischen den Messungen der einzelnen Antennen zu ermitteln (“Phasenkalibration”). Einmal pro Beobachtungsphase wird außerdem ein Objekt mit bekannter und konstanter Submillimeter-Helligkeit angepeilt, typischerweise ein Planet oder ein Mond (“Strahlungsflusskalibration”). Erschwerend kam hinzu, dass diese letzte Art von Kalibrationsbeobachtung bei einigen der Beobachtungsblöcke nicht geklappt hatte.
Jackie und Alex arbeiteten dabei recht eng zu sammen – wie Alex sagt, “ohne die oft typischen Sticheleien und falschen Prioritäten”; Hinweis darauf, dass bei wissenschaftlicher Teamarbeit eben nicht immer alles glattgeht. Alex entwickelte spezielle Software zur automatischen Identifizierung und Lokalisierung der Quellen auf den ALMA-Bildern, und die Auswertung ging Hand in Hand: Alex’ Software erzeugte aus den von Jackie reduzierten Bildern einen Quellkatalog, den dann wiederum Jackie zur Verfeinerung ihrer Reduktion nutzte, und mit den verfeinerten Bildern lieferte dann wieder Alex’ Programm bessere Ergebnisse. Als Ergebnis der wissenschaftlichen Auswertung, die natürlich in Absprache mit und unter Beteiligung der anderen Teammitglieder stattfand, entstanden zwei Fachartikel, in denen die Ergebnisse der Durchmusterung veröffentlicht werden sollten.
Fertig und veröffentlicht
In der Astronomie ist es wie in anderen Wissenschaften: Artikel in (begutachteten) Fachzeitschriften sind nicht nur die Art und Weise, wie man den Kollegen seine Ergebnisse mitteilt, sondern auch die Bausteine für astronomische Karrieren. Die Leistung eines Astronomen wird weitgehend anhand der Veröffentlichungen beurteilt. Besonders wichtig sind dabei Artikel, bei denen der betreffende Wissenschaftler der Erstautor ist, sprich: sein Name in der (oft gar nicht so kurzen) Liste der beteiligten Wissenschaftler an erster Stelle steht.
Gerade in der beobachtenden Astronomie sind Fachartikel in der Regel kooperative Arbeiten: einige der genannten Wissenschaftler haben vielleicht nur Teile der Beobachtungen durchgeführt, andere in bestimmter Weise zur Auswertung beigetragen, und so weiter. An erster Stelle steht aber typischerweise der Wissenschaftler, der die entscheidenden Beiträge geliefert hat – etwa, weil er das Beobachtungsprogramm geplant und koordiniert, den Großteil der Auswertung übernommen oder/und die Teilergebnisse zusammengeführt hat.
Fabian Walter und Ian Smail hatten von vornherein vorgehabt, die Arbeit so zwischen ihren beiden Gruppen aufzuteilen, dass es jeweils aus Heidelberg und aus Durham ein Gruppenmitglied geben würde, das aufgrund seiner Beiträge als Erstautor infrage köme. Dementsprechend würde die Durchmusterung in zwei Artikeln veröffentlicht, indem dann diese beiden Wissenschaftler je einmal als Erstautor stünden.
Nachdem Jackie nicht nur die Datenreduktion übernommen, sondern auch für die Heidelberger Seite der wissenschaftlichen Auswertung die Führung übernommen hatte, hatte man sich schnell darauf geeinigt, dass sie die Erstautorin des einen der Artikel werden würde. Von der anderen Seite aus war ebenso eindeutig, dass Alex Karim die wichtigste Arbeit beigetragen hatte und damit Erstautor des anderen Artikels werden müsste.
Und das ist die Geschichte hinter der letzten MPIA-Pressemitteilung – welche große Rolle das “gewußt wie” bei der Auswertung dieser speziellen ALMA-Daten gespielt hat, und wie Jackie Hodge überhaupt erst durch ihr Spezialwissen zu dieser speziellen Durchmusterung gestoßen ist.
Leider wird das wohl die letzte Pressemitteilung sein, die ich mit Jackie mache. Denn die hat für ihre nächste Postdoc-Stelle eine der die ziemlich prestigeträchtigen Jansky-Fellowship des National Radio Astronomy Observatory gewonnen (zwei Stellen auf 150 Bewerbungen; unter Radioastronomen das Analogon zu den Hubble-Fellowships für Astronomen, die mit sichtbarem Licht beobachten). Mit diesem Stipendium wird sie im Herbst zum North American ALMA Science Center gehen.
An mindestens einem Projekt wird sie aber noch mit Fabian Walter und seiner Gruppe zusammenarbeiten: Jackie hat für die nächste Beobachtungsphase von ALMA (“ALMA Early Science Cycle 1”) ein Projekt bewilligt bekommen, einige der betreffenden Submillimetergalaxien noch genauer zu untersuchen. Und das bei starker Konkurrenz, denn, wie die ALMA-Betreiber stolz anmerken: der Andrang war bei dieser Bewilligungsphase stärker als beim Weltraumteleskop Hubble, und nur jeder zehnte Antrag konnte bewilligt werden. Aber Knowhow zahlt sich eben aus.
(Bild: J. Hodge)
Ist das Datenreduktion?
Nach der Definition
“Datenreduktion ist die Sammelbezeichnung für all diejenigen Schritte, die auf die Daten angewandt werden, um möglichst genau diejenigen Teilinformationen herauszudestillieren, die das beobachtete Objekt betreffen.”
ist nicht ohne weiters klar, warum irgendeine Umrechnung wie hier
“Typische Datenreduktions-Arbeiten sind z.B. Bildverarbeitungsschritte bei Aufnahmen, bei denen man berücksichtigst, dass der Sensor selbst dann etwas Signal liefert, wenn gar kein Licht darauf fällt (“dark frame”), und dass der Sensor evt. nicht ganz gleichmäßig ausgeleuchtet wird und seinerseits möglicherweise an einigen Stellen empfindlicher ist als an anderen (“flatfielding”).”
Datenreduktion sein soll. Wenn der Sensor an einigen Stellen doppelt so empfindlich ist (also 2 statt 1 als Meßwert liefert) und man daher die 2 durch 2 teilt und 1 erhält, inwiefern wurde dann da etwas “herauszudestilliert”?
@Thorsten
Wenn beim Bildpunkt A nur deswegen doppelt soviel Helligkeit angezeigt wird als beim Bildpunkt B, weil der Sensor dort doppelt so empfindlich ist, während das beobachtete Himmelsobjekt (z.B.) an beiden Stellen gleich hell ist, dann ist “im Rohbild doppelt soviel Helligkeit bei A als bei B” eine Information über den Sensor, nicht über das beobachtete Himmelsobjekt.
Durch das Flatfielden (“alle Helligkeitswerte beim Bildpunkt A durch 2 teilen, bei B durch 1 teilen”) die ungleichmäßige Sensoreigenschaft herausgerechnet. Was übrig bleibt (“herausdestilliert”) ist eine Teilinformation über das Himmelsobjekt (“an beiden Bildpunkten A und B gleich hell”).
Danke für die Erklärung
Ich glaube, ich war durch “was bei einem astronomischen Instrument hinten ‘raus kommt” irritiert. Ich dachte dabei an das (wie auch immer verfälschte) Bild, das wie bei einer alten Polaroid-Sofortbild rauskommt. Heute vielleicht nicht mehr als Papier, sondern als Bits oder wie auch immer. Der Physiker versteht darunter anscheinend die gesamte Information über das Experiment, also jedes Details des Versuchsaufbaus. Dann ist das “flatfielden” Datenreduktion. Agreed.