Astronomie und Statistik (und Smarties) – Videos bei #FasziAstroOnline

BLOG: RELATIV EINFACH

… aber nicht einfacher
RELATIV EINFACH

Natürlich deckt die Online-Vortragsreihe “Faszination Astronomie Online”, die meine Kollegin Carolin Liefke und ich organisieren, auch die beliebten Standard-Themen allgemeinverständlicher Astronomie-Vorträge ab: Schwarze Löcher beispielsweise, Sterne und Galaxien, unser Sonnensystem oder den Urknall. Mindestens ebenso spannend finde ich allerdings die Vorträge, die einen Blick darauf werfen, was Astronomie zur Wissenschaft macht. Dazu gehören der systematische Umgang mit Daten und die dafür nötigen Methoden, sprich: astronomische Statistik.

Vor ein paar Tagen hat uns Daniela Huppenkothen vom SRON Netherlands Institute for Space Research zu den Grundlagen der astronomischen Statistik mitgenommen, inklusive einer extra für den Vortrag durchgeführten Untersuchung an Smarties. Auch wenn mindestens eine der Thesen von Huppenkothen nicht wissenschaftlich entscheidbar ist (blaue Smarties seien die besten), konnte sie uns auf dieser Grundlage zeigen, wie auch Astronomie von der statistischen Auswertung von Daten abhängt – und erst auf diese Weise zu bestimmten belastbaren Aussagen kommt, etwa was die Lichtkurven des Kepler-Weltraumteleskops angeht und ganz allgemein Forschung in einem Universum, das man nicht so einfach mal nach seinen Betriebsgeheimnissen fragen kann:

Statistik ist in der Astronomie nicht nur beim Auswerten von Messreihen wie den Kepler-Messkurven wichtig, sondern eine Besonderheit der Astronomie im Zeitalter großer systematischer Durchmusterungen. Ein wichtiger Teil der Astronomie beschäftigt sich eben nicht mehr mit der genauen Untersuchung einzelner, spannender Beobachtungsobjekte (auch wenn es jene Art von Forschung auf alle Fälle noch gibt). Stattdessen geht es um die Systematik: Wieviele Objekte mit welchen Eigenschaften gibt es? Was gibt es für Zusammenhänge zwischen verschiedenen Eigenschaften, um ein Beispiel zu nennen: zwischen der Masse des zentralen Schwarzen Lochs einer Galaxie und der Masse der Sterne jener Galaxie? Und wie haben sich bestimmte Eigenschaften wie Sternentstehungsraten über die vergangenen Milliarden Jahre im Laufe der kosmischen Geschichte verändert?

Wie diese Art von Astronomie mit großen Teleskope und noch größeren Katalogen funktioniert, und was das zum Beispiel mit Statistik und Astroinformatik zu tun hat, hat uns im Januar Nina Hernitschek von der Vanderbilt University erzählt:

Speziell am Beispiel des derzeit größten im Bau befindlichen Durchmusterungsteleskops hat Siegfried Eggl vom Rubin Observatory das Thema dann Anfang Mai noch vertieft. Das Vera Rubin Observatory, bis Anfang 2020 vor allem als Large Synoptic Survey Telescope (LSST) bekannt, wird mit einem 8,4-Meter-Hauptspiegel und beachtlichen 3,5 Grad Bilddurchmesser (7 Mal die Vollmondgröße!) so tiefe und so häufig wiederholte Beobachtungen der von seinem Standort aus gut sichtbaren Himmelsregionen machen, dass sich auch zeitlich veränderliche Erscheingungen verfolgen lassen – eine Art riesiger Himmels-Film:

Bei weiterem Interesse: Schaut gerne bei unseren Vorträgen vorbei! Sie sind alle unter https://www.youtube.com/HausDerAstronomie zugänglich, und jeweils dienstags und donnerstags um 19 Uhr kommt live ein neuer Vortrag hinzu.

Markus Pössel hatte bereits während des Physikstudiums an der Universität Hamburg gemerkt: Die Herausforderung, physikalische Themen so aufzuarbeiten und darzustellen, dass sie auch für Nichtphysiker verständlich werden, war für ihn mindestens ebenso interessant wie die eigentliche Forschungsarbeit. Nach seiner Promotion am Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) in Potsdam blieb er dem Institut als "Outreach scientist" erhalten, war während des Einsteinjahres 2005 an verschiedenen Ausstellungsprojekten beteiligt und schuf das Webportal Einstein Online. Ende 2007 wechselte er für ein Jahr zum World Science Festival in New York. Seit Anfang 2009 ist er wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Astronomie in Heidelberg, wo er das Haus der Astronomie leitet, ein Zentrum für astronomische Öffentlichkeits- und Bildungsarbeit. Pössel bloggt, ist Autor/Koautor mehrerer Bücher, und schreibt regelmäßig für die Zeitschrift Sterne und Weltraum.

3 Kommentare

  1. Nina Hernitschek‘s Big Data Vortrag zeigt wohin die Reise in der Durchmusterung des Sternenhimmels geht: hin zu immer mehr Daten, die anschliessend mit ganz unterschiedlichen Fragestellungen von Machine Learning Programmen untersucht werden. Der gleiche Stern kann dann beispielsweise als Teil des Sagittarius Sternstroms identifiziert werden oder auch als Vertreter einer Klasse von Sternen mit einem bisher nicht bekannten Muster von Helligkeitsschwankungen. Mit jedem Astronomie-Projekt entstehen wieder neue Fragestellungen und damit neue Läufe über die bereits erfassten Sterndaten. Die benötigte Rechenleistung – und nicht nur die Datenmenge – nimmt also ständig zu.

    Doch mit den Daten lässt sich noch viel mehr anstellen: verschiedene astronomische Datensammlungen können zu virtuellen Observatorien zusammengefasst werden, was dann einheitliche Benutzerschnittstellen und einheitliche Zugriffe auf die astronomischen Daten aus verschiedenen Quellen erzwingt. Daten können auch mit Simulationen beispielsweise der Galaxienentwicklung oder mit Simulationen von Verschmelzungen schwarzer Löcher abgeglichen oder wie im Falle von Gravitationswellen überhaupt erst richtig interpretiert werden.

    Es entsteht also ein ganzes Ökosystem von ineinandergreifenden astronomischen und informatischen Subdisziplinen und es ergeben sich neue Sachzwänge, wenn man die Entwicklung weiter vorantreiben möchte. Die riesigen anfallenden Datenmengen in einem Observatorium etwa können immer weniger in Echtzeit global kommuniziert und verteilt werden, was dann zusammen mit dem Wunsch bei speziellen astronomischen Ereignissen wie Supranovausbrüchen Alerts abzusetzen, dazu führt, dass man einen lokalen Hochleistungsrechner benötigt.

    Irgendwann werden dann die wirklich grossen Observatorien alle weltraumbasiert sein, denn schon die nächste Generation von Radio- und optischen Teleskopen stösst auf der Erde an Grenzen. Wie wir aber gesehen haben, müssten diese neuen riesigen Weltraumteleskope dann neben Laserkommunikationsanlagen zur Übermittlung der riesigen Datenvolumen auch über ihre eigenen Hochleistungsrechner verfügen, strahlengehärteten Hochleistungsrechner mit eigenen Energieanlagen für ihren eminenten Leistungsbedarf.

    Das wird nur möglich über eine neue Generation von wiederverwendbaren Raketen, die wöchentlich viele Tonnen von Material und Geräten in den Orbit und darüber hinaus transportieren können. SpaceX, Blue Origin und Relativity Space könnten die Vorläufer dieser neuen Raketentechnolgie sein, die dann – unter anderem – das ultimative Zeitalter für die Astronomie einläuten werden.

    • Hm. Das scheint mir in einiger Hinsicht an der Wirklichkeit vorbeizugehen. Was haben Supernova-Alerts beispielsweise mit lokalen Hochleistungsrechnern zu tun? Auch dafür, dass die nächsten Generationen von Radio- und optischen Teleskopen bereits an ihre Grenzen stoßen würden, sehe ich nicht. Das dürfte noch einige Generationen weitergehen wie derzeit auch, mit komplementären Stärken und Schwächen von bodengebundenen und Weltraumteleskopen.

      • Die Detektion von Ereignissen, die Alerts auslösen, gehört zur Datenvorverarbeitung, die gemäss Nina Hernitschek inzwischen der Flaschenhals bei der Durchmusterung ist (siehe dazu das Video ab 9:41).

        „nicht das Tekeskop [ist die Herausforderung], sondern Daten auslesen, Daten speichern, Daten verarbeiten, Daten zur Verfügung stellen. Wir müssen automatisch entscheiden können, welche Daten überhaupt verwertbar sind und gespeichert werden können und ein Grossteil der Vorverarbeitung auch auf weiteren Leveln muss automatisch erfolgen. Zum Beispiel das Erstellen von astronomischen Katalogen.
        Erst anschliessend an diese sehr rechenzeitaufwendige Vorverarbeitung können wir uns der eigentlichen Wissenschaft widmen“

        Aus diesen Äusserungen habe ich geschlossen, dass ein Observatorium lokal einen Hochleistungsrechner benötigt. Nun, das ist vielleicht eine Überinterpretation und nicht alle diese Vorverarbeitungsschritte müssen lokal erfolgen. Je weniger Daten man aber in Echtzeit übermitteln kann umso mehr muss die Vorverarbeitung lokal sein.

Schreibe einen Kommentar