Säulen der Schöpfung: Von den Daten zum Bild

BLOG: RELATIV EINFACH

… aber nicht einfacher
RELATIV EINFACH

Astronomische Bilder sind oft von beeindruckender Schönheit – und die Säulen der Schöpfung, eines der berühmtesten Bilder des Weltraumteleskops Hubble, ist ein Paradebeispiel. Vor zwei Wochen habe ich als Teil meiner Vorlesung Methoden der Astronomie für Nichtphysiker am Beispiel der Säulen der Schöpfung vorgeführt, wie man bei solchen Bildern von den Rohdaten zum Bild kommt und was dabei alles eine Rolle spielt.

Hubbles Säulen der Schöpfung

Da sind sie, die klassischen Säulen der Schöpfung, in der Originalversion vom 1. April 1995:

Säulen der Schöpfung: das "Original"
Bild: NASA, ESA, STScI, J. Hester and P. Scowen (Arizona State University)

Man muss zugeben: Atemberaubende Details in den Gas- und Staubwolken, die da in den Weltraum ragen. Und eigentlich schon auf dem Rückzug sind, denn das helle Licht der umgebenden jungen Sterne – einer davon ist in modischem Magenta mittig links sichtbar – zerstreut immer weitere Teile der Dunkelwolken.

hubble_4x61
Bild: NASA

Es hat eben doch Vorteile, mit einem Weltraumteleskop zu arbeiten, sprich: die Störungen zu umgehen, die das Licht in der Erdatmosphäre erfährt, bis es zu irdischen Teleskopen gelangt ist.

Wie kam dieses Bild zustande?

Eine Kamera mit großem Bildfeld

Aufgenommen wurde das Bild, wie gesagt, am 1.4.1995, mit der “Wide Field and Planetary Camera 2” des Weltraumteleskops. Die sieht schematisch so aus:

wpfc2
Bild: WPC2 Cycle 17 Instrument Handbook

Die Rundung links oben ist die Außenhaut des hinteren Hubble-Moduls. Das Licht fällt von rechts unten, über den kleinen Ablenkspiegel in die Kamera. Dort trifft es auf einen pyramidenförmigen Spiegel (“Fixed Pyramid Mirror”), der das Bild auf vier einzelne CCD-Kameras verteilt; die “Miniteleskope” im mittleren Teil des Instruments sind dazu da, das Licht zu den CCD-Chips zu bringen.

abdeckung-wpc2
Bild: WPC2 Cycle 17 Instrument Handbook

Die vier Teilbilder werden nicht gleich behandelt – von einem davon wird nur rund ein Viertel genutzt, dafür aber auf eine genau so große Kamera gelenkt wie bei den anderen drei Teilbildern. Das Ergebnis ist die Bildform, die auf dem Säulen der Schöpfung-Bild gut zu sehen ist; rechts ist sie noch einmal schematisch dargestellt.

“PC” ist die Planetary Camera, die besonders viele Details zeigt, nämlich ein kleineres Bildfeld mit derselben Auflösung wie bei jedem der größeren drei Bildfelder. “WF” sind die drei Widefield Cameras, also Kameras mit größerem Bildfeld. Die eine Bogenminute, “1 arcminute”, unten zum Vergleich entspricht rund einem Dreißigstel des scheinbaren Durchmessers des Vollmonds am Himmel.

Daten aus dem Archiv

Was das archivieren wissenschaftlicher Daten angeht, steht die Astronomie recht gut da. Für die Beobachtungen der NASA-Weltraumteleskope und der Teleskope der Europäischen Südsternwarte (ESO) gilt in der Regel: Ein Jahr nach der eigentlichen Beobachtung sind die Originaldaten für alle öffentlich online zugänglich. Dass Astronomen in einem Fachartikel nicht nur eigene Beobachtungen auswerten, sondern zum Vergleich Archivdaten etwa des Hubble-Teleskops heranziehen, ist längst Usus.

Für die Säulen der Schöpfung gehen wir ins “Barbara A. Mikulski Archive for Space Telescopes” – benannt nach der US-Senatorin Barbara Mikulski, die sich sehr für den Bau des Weltraumteleskops Hubble eingesetzt hat. Mikulski vertritt den Staat Maryland, wo sich in Baltimore das Space Telescope Science Institute befindet, das für den Betrieb des Hubble verantwortlich ist.

So sieht der Eingang zum Archiv aus – aber das kann auch jeder selbst sehen und ausprobieren:

mikulski-archive
Bild: http://archive.stsci.edu/

Mit einer einfachen Suche in den HST-Daten nach M16, dem Adlernebel, sowie Beschränkungen auf das Instrument WFPC2 und den 1. April 1995, sind die Rohdaten schnell gefunden:

retrievalIn der Spalte, die im Bild ganz rechts steht, kann man bereits sehen, dass die Aufnahmen durch verschiedene Filter gemacht wurden. Astronomische Kameras sind typischerweise Schwarz-Weiß-Kameras, vor die jeweils ein passendes Filter gesetzt wird. In der vierten Spalte von rechts sieht man die Belichtungszeit: Beachtliche 18 Minuten und 20 Sekunden hat das Hubble-Teleskop in jedem der engeren Filter belichtet, und das je zwei Mal pro Filter.

(Herkömmliche Digitalkameras haben ein Rot-Grün-Blau-Filtergitter direkt vor dem Kamerachip fest eingebaut. Deren Motive verändern sich aber auch zu schnell, als dass man mit Einzelaufnahmen, eine nach der anderen, ein Farbbild gewinnen könnte. Astronomische Objekte sind geduldiger.)

Die Durchlasskurven der vier Filter, die bei den Aufnahmen zum Einsatz kamen, sind hier zu sehen:

Filter-Durchlasskurven
Bild: WPC Filters Part Specification, 17. März 1989

Man muss allerdings genau auf die x-Achsen-Skala schauen, um zu sehen, dass das ein etwas breiterer und drei schmale Filter sind. Aus den Aufnahmen der schmalbandigen Filter (zweifach ionisierter Sauerstoff [OIII] bei 500.7 nm, die berühmte rote Hα-Linie des Wasserstoffs bei 656.28 nm und einfach ionisierter Schwefel [SII] bei 672 nm) erstellen wir unser Bild.

Rohdaten

Da liegen sie nun auf der eigenen Festplatte, die Dateien, immerhin 104 Stück. Für unsere Rekonstruktion benötigen wir nur einige wenige davon. Orientierung gibt diese Seite, auf der die Konventionen für die Namensgebung von Hubble-Dateien erklärt wird. Das Format der Daten ist jeweils das Standard-Bildformat FITS der Profiastronomen. FITS steht für das “Flexible Image Transport System”, wurde Anfang der 1990er Jahre eingeführt, und kann astronomische Bilddaten, Spektren, viele Metadaten und einiges mehr verlustfrei kodieren.

Öffne ich die Rohdaten in linearer Darstellung vom dunkelsten bis zum hellsten möglichen Wert in einem geeigneten Programm (ich benutze hier zunächst DS9), dann sehe ich zunächst einmal herzlich wenig:

linear-minmax
Bild: NASA / ESA / STScI / M. Pössel

(Und ja, weil ich derjenige bin, der aus den Daten ein eigentliches Bild erstellt hat, habe ich mich im folgenden jeweils mit in den Bildnachweis geschrieben.) Nur ein paar weiße Punkte sind zu sehen, und selbst das dürften keine astronomischen Signale sein.

Sobald ich Maximum und Minimum so wähle, dass berücksichtigt wird, welche Helligkeitswerte in dem Bild am meisten vorkommen, sieht die Angelegenheit schon ganz anders aus:

Bild: NASA / ESA / STScI / M. Pössel
Bild: NASA / ESA / STScI / M. Pössel

(Das macht für mich der “zscale”-Algorithmus, der sich am Median des Bildes orientiert.) Das ist immerhin ein Teilausschnitt des Bildes in einigem Detail, und auch wenn das Bild noch etwas unregelmäßig ist und so aussieht, als hätte da jemand ein zerkratztes und staubiges Dia gescannt: einiges von der Detailfülle sieht man selbst auf diesem Bild.

cosmic-detailZweierlei Störungen fallen ins Auge. Zum einen sind da längere oder kürzere helle Spuren wie in dem Ausschnitt rechts zu sehen. Das sind die Auswirkungen kosmischer Teilchen, die direkt auf den betreffenden Detektor fallen und dort ihre Energie deponieren. Der Detektor kann das nicht von Lichteinfall unterscheiden, und im Bild entstehen helle Spuren. Das ist ein Nachteil von Weltraumteleskopen: Wir auf der Erde werden durch Erdatmosphäre und Erdmagnetfeld einigermaßen vor solchen kosmischen Teilchen geschützt. Die Weltraumteleskope nicht.

margin-detailAußerdem erkennbar ist eine Abdunkelung einiger der Ränder, rechts wieder im Detail dargestellt. Um das zu verstehen lohnt es, sich oben noch einmal die Aufteilung des Bildes in die vier Kamerafelder anzusehen. In Wirklichkeit überlappen diese Felder ein bisschen, und das heißt natürlich: In den Randbereichen kommt bei jeder der dort überlappenden Kameras nur ein Teil des Lichts an; entsprechend sieht das Bild dort dunkler aus.

Kalibrierte Daten

Dass einige Bildteile aufgrund des Strahlengangs des Teleskops oder von Empfindlichkeits-Variationen des Detektors weniger Licht abbekommen als andere, ist in der Astronomie eher die Regel als die Ausnahme. Zum Ausgleich fertigt man eine Aufnahme einer komplett homogen beleuchteten Fläche an. An solch einer Aufnahme, “Flatfield” (kurz “Flat”) genannt, kann man ablesen, an welchem Ort eines Bildes weniger Licht ankommt und wo mehr. Entsprechend lassen sich die Aufnahmen echter astronomischer Objekte dann korrigieren.

Mit bodengebundenen Teleskopen fertigt man Flats an, indem man das Teleskop z.B. auf ein homogen ausgeleuchtetes Tuch richtet, oder aber während der Dämmerung in den Himmel. Bei Weltraumteleskopen ist beides nicht möglich. Die WPC2-Kamera verwendet im Labor vor dem Start aufgenommenen Flatfield-Daten, korrigiert mithilfe von Aufnahmen der (rasch im Blickfeld vorbeistreichenden) Nachtseite der Erde. Verglichen werden solche Flats außerdem mit Aufnahmen einer kleinen, beleuchteten diffusen Scheibe, die in den Strahlengang eingebracht werden kann, und einem System, das den Verschluss der Kamera von innen beleuchten kann (siehe diese Beschreibung).

Diese und einige weitere Korrekturen wurden angebracht, um die kalibrierten Wissenschafts-Aufnahmen zu erhalten. Auf denen sieht unser Bildausschnitt nun folgendermaßen aus:

linear-calibrated-scale99
Bild: NASA / ESA / STScI / M. Pössel

Die abgedunkelten Ränder sind weitgehend verschwunden. Allerdings ist dort das Rauschen sehr viel deutlicher. Das sollte uns nicht überraschen: Je geringer die Photonenzahl, umso mehr fällt das Rauschen ins Gewicht (siehe Was Astronomie mit Münzwürfen zu tun hat). Und an diesen Rändern war die Photonenzahl eben geringer als in den anderen Bildteilen. (Deswegen waren sie schließlich vor der Kalibration dunkel.)

Das Mosaik zusammensetzen

Bislang hatte ich die verschiedenen Versionen am Beispiel des Bildes der Planetary Camera demonstriert. Es gibt unter den Dateien aber auch ein Komposit-Bild, das alle vier Teilbilder vereint:

eagleb1
Bild: NASA / ESA / STScI / M. Pössel

Allerdings sind da noch die hässlichen Spuren der kosmischen Teilchen. Glücklicherweise gibt es aber, wie erwähnt, für jede der Aufnahmetypen zwei solcher Mosaikaufnahmen. Ich habe für jeden Pixel in diesen beiden Aufnahmen den Minimumwert gewählt. (Geholfen hat mir dabei das frei zugängliche Programm Fitswork.) Kosmische Teilchenspuren sollten dadurch weitgehend herausfallen, denn die machen den betreffenden Pixel schließlich auf einer der beiden Aufnahmen deutlich heller. (Hätte man noch mehr als zwei Aufnahmen zur Verfügung, könnte man noch etwas anders vorgehen und eine Art Mehrheitswert oder Median wählen.) Damit lassen sich die Teilchenspuren in der Tat schon beachtlich reduzieren:

eagleb
Bild: NASA / ESA / STScI / M. Pössel

Das sieht schon deutlich besser aus.

Farbbilder

Dieselbe Prozedur habe ich für alle Bilder durchgeführt, die durch die drei engbandigen Filter aufgenommen wurden. Ordnet man den drei resultierenden Bildern die drei Farbkanäle rot, grün und blau zu (RGB), dann hat man bereits die Bausteine eines Farbbilds. Hier sind die drei einfarbigen Teilbilder zu sehen:

kanaele-rgbKombiniert man die drei zu einem RGB-Farbbild, sieht das Ergebnis der berühmten Aufnahme der Säulen der Schöpfung schon einigermaßen ähnlich:

eaglergb1
Bild: NASA / ESA / STScI / M. Pössel

Astronomische Kosmetik

Bei Bildern, die für Pressemitteilungen oder anderweitig für die allgemeine Öffentlichkeit gedacht sind, wird an dieser Stelle typischerweise noch kosmetisch nachgebessert. Die sichtbaren Nähte, die kleinen bunten Pixel als Reste der Spuren kosmischer Strahlung, und nicht zuletzt die hellen Sterne mit schwarzem Zentrum, wo das Licht zuviel für den Detektor war: all das lässt sich per Hand ausbessern. Nicht, weil es der Wissenschaft dienen würde, sondern um ein schöneres Bild zu erhalten.

Hier sind ein paar Beispiele für solche Ausbesserungen:

ausbessern
Bild: NASA / ESA / STScI / M. Pössel

Ich hatte das für die Vorlesung eigentlich nur an einem kleinen Teil des Bildes durchführen wollen, aber dann packt einen ja doch der Ehrgeiz. Einige hundert Ausbesserungen später sahen meine Säulen der Schöpfung dann so aus:

eaglergb-final
Bild: NASA / ESA / STScI / M. Pössel

Hier zum Vergleich noch einmal das Original aus der ursprünglichen Pressemitteilung:

eagle_nebula_pillars-small
Bild: NASA, ESA, STScI, J. Hester and P. Scowen (Arizona State University)

Gar nicht so unähnlich. Aber die Profi-Bildbearbeiter des Space Telescope Science Institute haben es dann doch zugegebenermaßen noch besser verstanden, die Kontraste gerade in den hellsten Bildpartien herauszuarbeiten.

Wie echt sind die Farben?

Ich habe für mein Bild die drei Einzelbilder, die das Hubble-Teleskop durch die erwähnten drei engen Filter aufgenommen hat, den Farbkanälen rot, grün und blau zugeordnet. Die STcI-Grafiker haben es offenbar ähnlich gemacht. Aber die betreffenden Filter entsprechen nun einmal nicht dem Rot-, Grün- oder Blauanteil. Im Gegenteil: H-alpha, hier der Grundfarbe grün zugeordnet, ist in Wirklichkeit ein wunderschönes rot! Die Rekonstruktion des Farbbildes führt zu einem Falschfarbenbild.

Einen Eindruck davon zu gewinnen, wie eine farbtreuere Version der Säulen der Schöpfung aussehen könnte, war nicht so einfach. Hubble lieferte eben nur diese drei Filterbilder (plus ein etwas breitbandigeres Bild).

Ich habe stattdessen einen Trick angewandt. Das Los Cumbres Global Observatory Telescope Network (LCOGT) besteht hauptsächlich aus 1-Meter-Teleskopen, plus einigen 40-cm-Teleskopen und zwei 2-Meter-Teleskopen (die auch wir am Haus der Astronomie für Aktivitäten mit Schülern nutzen). Im LCOGT-Archiv habe ich ein Bild des Adlernebels gefunden, aufgenommen mit einem der 40-cm-Teleskope, mit rund einer Minute Belichtungszeit.

eagle-colorpattern
Bild aufgenommen mit 40 cm-Teleskop am Haleakala Observatory, betrieben vom Las Cumbres Observatory

40 cm statt 2,5 Meter, eine statt 18 Minuten, bodengebundenes gegen Weltraumteleskop – das ist natürlich ein Unterschied wie Tag und Nacht. Natürlich geht es auch vom Boden aus deutlich besser, aber für meine Zwecke reichte das Bild aus. Ich habe nämlich als nächstes die Farbinformationen aus diesem Bild mit den Helligkeitsinformationen des Hubble-Bildes kombiniert.

Hier das Ergebnis: eine farblich etwas realistischere Version der Säulen der Schöpfung:

eagle-colored
Bild: NASA / ESA / STScI / Farben: LCOGT / Aufarbeitung: M. Pössel

Ganz kommen die Farben natürlich nicht hin – so ist das Sternscheibchen des hellsten Sternes im 40-cm-Bild sehr groß, und färbt im Hubble-Bild eine größere Region gelb, die eigentlich rötlich sein müsste. Aber deutlich realistischerer als die Farbgebung des Falschfarbenbilds ist diese Version auf alle Fälle.

Fazit

Im Zeitalter der Online-Datenarchive ist es einfacher denn je, an astronomische Daten heranzukommen. Aus den Rohdaten einigermaßen schöne Bilder herzustellen ist nicht besonders schwer – der letzte Schliff, außerordentlich gute Kontraste und ähnliche Feinheiten erfordern da schon mehr an Erfahrung und Können.

Die Bilder, die man dann beispielsweise in Zeitungen und Medienportalen sieht, sind allerdings in der Regel kosmetisch bearbeitet – das ist einerseits gut, da kleinere Bildstörungen nun einmal vom (durchaus wissenschaftlichen) Inhalt ablenken. Andererseits beinhaltet solche kosmetische Bearbeitung nun aber viele kleine, willkürliche Eingriffe in das Bild. Zum Schluss: Vorsicht vor den Farben! Auch astronomische Aufnahmen im sichtbaren Licht sind oft Falschfarbenaufnahmen.

Avatar-Foto

Markus Pössel hatte bereits während des Physikstudiums an der Universität Hamburg gemerkt: Die Herausforderung, physikalische Themen so aufzuarbeiten und darzustellen, dass sie auch für Nichtphysiker verständlich werden, war für ihn mindestens ebenso interessant wie die eigentliche Forschungsarbeit. Nach seiner Promotion am Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) in Potsdam blieb er dem Institut als "Outreach scientist" erhalten, war während des Einsteinjahres 2005 an verschiedenen Ausstellungsprojekten beteiligt und schuf das Webportal Einstein Online. Ende 2007 wechselte er für ein Jahr zum World Science Festival in New York. Seit Anfang 2009 ist er wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Astronomie in Heidelberg, wo er das Haus der Astronomie leitet, ein Zentrum für astronomische Öffentlichkeits- und Bildungsarbeit, seit 2010 zudem Leiter der Öffentlichkeitsarbeit am Max-Planck-Institut für Astronomie und seit 2019 Direktor des am Haus der Astronomie ansässigen Office of Astronomy for Education der Internationalen Astronomischen Union. Jenseits seines "Day jobs" ist Pössel als Wissenschaftsautor sowie wissenschaftsjournalistisch unterwegs: hier auf den SciLogs, als Autor/Koautor mehrerer Bücher und vereinzelter Zeitungsartikel (zuletzt FAZ, Tagesspiegel) sowie mit Beiträgen für die Zeitschrift Sterne und Weltraum.

7 Kommentare

  1. Mit 18 Minuten Belichtungszeit erhält man also die oben dargestellten Bilder. Mit noch längere Belichtungszeit würden sich auch Sterne und Details zeigen, die man auf diesen Bildern nicht sieht, weil sie zuwenig hell sind. Dies führt zur Frage, ob man aus einem lichtschwächeren (kleineren) Teleskop ein (virtuell) lichtstärkeres machen kann, einfach indem man die Belichtungszeit erhöht. Wahrscheinlich kann man das nicht oder nur begrenzt und ich nehme an, darum nicht, weil die Verlängerung der Belichtungszeit irgendwann dazu führt, dass das Rauschen dominiert.
    Trotzdem scheinen aber extreme Langzeitbelichtungen sehr viel Details sichtbar machen zu können. Wenn ich mich recht erinnere, sind die Bilder vom Hubble Deep Field das Ergebnis sehr langer Belichtungen.

  2. Jetzt, wo man weiß, wie das “Foto” zusammengestückelt ist, erkennt man auch Unterschiede im publizierten Bild. Ein Quadrat um der mittleren Turmspitze zeigt ein deutlich gröberes “Korn” als in den Nachbarfeldern. In Ihren Schwarzweiß-Bildern ist der Effekt noch deutlicher zu sehen.

  3. Dieser Artikel zeigt gut, dass Bilder, die man der Öffentlichkeit präsentiert, aber letztlich überhaupt alle astronomischen Bilder, errechnet sind und dass diese Errechnung des endgültigen Bildes mehrere Schritte umfasst . Das ist neuerdings auch zunehmend bei der digitalen Photographie von der Profikamera bis zur Handykamera der Fall (z.B. mit der Unterstützung für HDR-Bilder), aber in der Astronomie gilt das wohl schon viel länger. Im Prinzip ist jedes, selbst das analoge Bild, das Resultat eines nicht idealen, als Algorithmus interpretierbaren Abbildungsprozesses, doch wenn die Daten digital vorliegen, sind erstmals mehrstufige Verarbeitungsprozesse möglich, die erst noch auf eine bestimmte Zielsetzungen hin optimiert sind. Mit den gleichen Rohdaten können unterschiedliche Bilder erzeugt werden oder aber die Rohdaten können direkt von einem astronomischen Analyseprogramm verwendet werden.

    Interessant an den obigen Bildern finde ich auch, dass die drei Säulen des Adlernebels einen plastischen Eindruck hinterlassen. Man ist versucht eine 3-dimensionale Struktur dahinter zu sehen. Doch 3-D-Information gibt es in einem solchen Bild nicht und das Bild ist insoweit nicht mit beispielsweise einer Landschaftsfotographie vergleichbar, denn das astronomische Bild enthält nur wenig Hinweise auf die echte 3D-Struktur. Ganz anders als bei der Fotographie eines Baumes, wo ein Beobachter aus dem 2D-Bild zuverlässige Schlüsse auf wichtige 3D-Merkmale des Baumes machen kann.

  4. @mh: mit Rauschen hat das nichts zu tun. Die Belichtungszeit ist durch die Ladungskapazität der Pixel beschränkt (Stichwort full well capacity). Man will maximal so lange belichten, dass die hellsten Strukturen den Detektor noch nicht sättigen. Will man den Dynamikumfang weiter erhöhen, geht das dann nur durch summieren von Einzelaufnahmen.

    • Danke für die Erklärung. Das Problem der full well capacity erklärt wohl auch, warum beim “Hubble Deep Field” und “Hubble Ultra Deep Field” Himmelsregionen ohne helle Sterne ausgewählt wurden, denn je heller die Sterne unso kürzer die maximale Bekichtungszeit pro Einzelbilb.

    • Die Aussage, dass man “aus einem lichtschwächeren (kleineren) Teleskop ein (virtuell) lichtstärkeres machen kann, einfach indem man die Belichtungszeit erhöht” ist demnach nicht völlig falsch. Mie einem grösseren Telekop kann man in kürzerer Zeit Objekte einer bestimmten Helligkeitsklasse abbilden und hat zusätzlich eine bessere Auflösung. 1000 5-Meter-Teleskope sind einem einzigen Telekop welches die gleiche Spiegelfläche hat wie die 1000 Teleskope zwar nicht ebenbürtig, aber fast ebenbürtig, wenn man die Absicht hat den gesamten Himmel abzudecken. Dss Grossteleskop hat dagegen einen Vorteil, wenn man einen bestimmten Point of interest untersuchen will, erstens weil man in kürzerer Zeit eine bestimmte Menge Licht einsammeln kann und zweitens, weil man eine grössere Auflösung erreicht.

      • Die Grundlagen, warum man viele Photonen fangen möchste und dass das sowohl durch große Fläche als auch lange Belichtung gelingt, stehen in einem früheren Beitrag: Astronomische Beobachtungen – wie funktionieren die eigentlich? Da wird auch darauf hingewiesen, dass Größe den zusätzlichen Vorteil der Auflösung hat.

        Ob viele kleine Teleskope bei einer Durchmusterung (“den ganzen Himmel abdecken”, oder zumindest einen großen Teil) besser sind als ein großes hängt auch davon ab, wie groß die jeweiligen Blickfelder sind. Diejenigen Großteleskope, mit denen man ganz bestimmte Objekte im Detail untersuchen möchte, haben meist ein sehr kleines Blickfeld und sind daher für großflächige Durchmusterungen wenig geeignet. Maßgeschneiderte Durchmusterungsteleskope konstruiert man von vornherein mit großem Blickfeld.

Schreibe einen Kommentar