Das beste Spektrum gibt es nicht
BLOG: Promotion mit Interferenzen
Auf dem Weg zum Profi-Astronomen

Beim Beobachten mit modernen Teleskopen fallen heutzutage große Mengen so genannter Rohdaten an. Das sind meistens Bilder, die mit einem CCD-Chip aufgenommen worden sind, die man weiter bearbeiten muss, um zu einem wissenschaftlich verwertbaren Bild oder Spektrum zu kommen. Diese Weiterbearbeitung nennt man Datenreduktion und sie beschäftigt einen meist wesentlich länger als das eigentliche Aufnehmen der Daten. Klar, es gibt so genannten Datenreduktionspipelines, in die man idealerweise die Rohdaten reinsteckt und die fertigen, wissenschaftlich verwertbaren Daten, herausholt. Diese Pipelines sind aber in vielen Fällen nicht gut genug, um aus einer Beobachtung alles rauszuholen was in den Daten steckt.
Wie kann ich den Daten "ansehen", falls jemand einen Gegenstand in dem VLTI-Tunnel vergessen hat? Im Allgemeinen Fall: Gar nicht!
Doch was steckt alles in den Daten? Um das herauszufinden könnte man denken, es gäbe nur einen richtigen Weg:
- Man überlegt sich, welche Parameter man beim Reduzieren der Daten alles verändern kann. Da gibt es etwa
- eine Maske, deren Breite man verändern kann (in der Software) oder
- deren Position man verschieben kann;
- es kann aber auch verschiedene Möglichkeiten geben, ungewünschte Störungen zu entfernen oder
- mehrere Bilder miteinander zu kombinieren.
- Man reduziert die Daten mit einem möglichst passenden Satz an Parametern
- Man optimiert die Parameter so, dass das beste Spektrum herauskommt…
Aber halt! Woher weiß ich denn, dass das Spektrum, das ich erhalte das beste ist, das in den Daten drinsteckt?
Als ich am Anfang meiner Doktorarbeit, vor mittlerweile mehr als zwei Jahren, mit dem Reduzieren von Daten anfing, war ich der festen Überzeugung, dass man dieses beste Spektrum doch finden können müsse, habe aber bald festgestellt, dass verschiedene Kollegen ganz unterschiedliche Ansätze haben, die Daten zu reduzieren und es keineswegs einen goldenen Weg gibt, der allen Situationen gerecht wird.
Statistische Fehler kann man zwar beseitigen, indem man die Messung oft genug wiederholt; manche systematischen Fehler kann man durch geeignete Messungen ebenfalls eliminieren. Aber man kann sich nie sicher sein, dass nicht doch noch irgendetwas völlig unverhersagbares passiert ist. Ein Kollege zitiert zum Beispiel immer den Fall eines Stuhles, den angeblich einmal VLTI-Techniker im VLTI-Tunnel vergessen haben und der dann in der folgenden Beobachtung für Kopfzerbrechen sorgte… Man muss daher mit einem vorläufig besten Spektrum zufrieden sein und nach weiteren Fehlerquellen suchen, wenn man merkt, dass die Daten zu merkwürdigen wissenschaftlichen Ergebnissen führen.
So unbefriedigend es auch sein mag, man kann sich nie sicher sein, dass man wirklich alles aus den Daten herausgeholt hat, was drinsteckt: Das beste Spektrum gibt es nicht.
Vergiss mir nicht das Rauschen
Servus Leo,
Deinem Beitrag stimme ich voll und ganz zu, es gibt nicht den goldenen Weg sondern viele Wege fuehren nach Rom. Ein wichtiges Mass jedoch bei der Beurteilung der Datenreduktion bzw. verschiedener Methoden ist das Rauschen. Diese sollte dann auch mit dem fuer die durchgefuehrte Beobachtung vorhergesagten Wert verglichen werden.