MCO: Missionsverlust durch falsche Einheiten?

Falsche Einheiten, in diesem Fall Pounds of force statt Newton, führen dazu, dass eine Mars-Mission verloren geht. Kann das wirklich sein? Klar kann das sein, aber ganz so simpel, wie es sich manche vorstellen, war dieser Fall nicht gelagert. Auch die Beteiligten waren nicht gar so blöd, wie man es anhand mancher Behauptungen durch Außenstehende annehmen könnte.

 Das Ende des Mars Climate Orbiter

Am 23. September 1999 erreicht die kleine NASA-Marssonde “Mars Climate Orbiter” (MCO) den roten Planeten. Ein 16 Minuten langes Bremsmanöver (MOI=Mars Orbit Insertion) soll das Raumfahrzeug in eine elliptische Bahn um Mars einschießen. Eigentlich kein besonders kritisches Manöver, wenn alles gut läuft.

Während des Manövers wird der Orbiter von der Erde aus gesehen hinter dem Mars verschwinden. Diese Okkultation ist unausweichlich und in den Operationen berücksichtigt. Sie unterbricht die Kommunikation mit der Erde während einer kritischen Missionsphase, was aber in der Praxis nicht viel ausmacht. Sollte etwas schief sehen, dann würde man das aufgrund der Lichtlaufzeit im Kontrollzentrum ohnehin erst mitkriegen, wenn schon alles zu spät ist. Ein Eingreifen ist unmöglich.

Beim MCO läuft aber nicht alles gut. Es läuft sogar sehr schlecht. Zum vorausberechneten Zeitpunkt, an dem der MCO wieder mit der Erde Kontakt aufnehmen sollte, kommt kein Signal. Auch alle weiteren Kontaktversuche bleiben erfolglos.

Der MCO ist verunglückt.

Problem: Vorausberechnung der Bahn

Während des gesamten Transfers vom Mars zur Erde wird die Bahn einer Raumsonde bestimmt. Es ist aber grundsätzlich nicht möglich, eine Bahn mal eben so zu vermessen wie ein Gartengrundstück und damit in sehr kurzer Zeit genau zu ermitteln, wo die Sonde gerade ist (=den Positionsvektor), und in kaum weniger kurzer Zeit noch zu berechnen, wo sie hinfliegt (=den Geschwindigkeitsvektor).

Könnte man durch einige wenige Messung sowohl aktuelle Position wie auch aktuelle Geschwindigkeit bestimmen, hätte man den kompletten Zustandsvektor. Dieser kann mittels numerischer Integration mit hoher Genauigkeit über die Zeit propagiert werden. Die Propagation ist allerdings das geringste Problem. Man muss dazu nur die Störungen der Bahn modellieren können. Die wichtigsten Störungen werden durch die Schwerkraft der Planeten verursacht. Da man Massen und Bahnen genau kennt, ist die Berechnung dieser Störkräfte einfach.

Schon etwas schwieriger ist die Einbeziehung der nichtgravitationellen Störungen. Der Solardruck kann zwar bei einfachen geometrischen Formen mit genau bekanntem Reflexionsverhalten exakt bestimmt werden. Hier aber hat man einen komplexen Satellitenkorpus, mit Abschattungen, unterschiedlichen Oberflächenmaterialien, Re-Reflexion. Hinzu kommt, besonders in den ersten Wochen der Mission, das Ausgasen flüchtiger Bestandteile der oberflächennahen Komponenten. Dieser Effekt kann eigentlich gar nicht exakt vorhergesagt werden.

Vor allem wegen der unbekannten, kleinen, aber über längere Zeiträume hinweg spürbaren Störbeschleunigungen kann für den Zustandsvektor zu jedem Zeitpunkt immer nur ein Fehlerellipsoid bestimmt werden, innerhalb dessen sich der Zustand mit einer gegeben Wahrscheinlichkeit (üblicherweise drei Standardabweichungen) befindet. Dieser Ellipsoid wird immer größer, je länger die letzte Bahnbestimmung zurück liegt. Deswegen sind häufige Updates der Bahnbestimmung erforderlich.

Der kritische Punkt: Störbeschleunigungen durch die Lageregelung

Die wahrscheinlich wesentliche Komponente der nicht-gravitationellen Bahnstörungen hat mit der Lageregelung zu tun. Während des Transfers muss die Sonde so ausgerichtet sein, dass die Solargeneratoren Richtung Sonne und die Hauptantenne Richtung Erde orientiert ist. Dazu kann man entweder kleine Steuertriebwerke verwenden, oder aber Drallräder. Letztere müssen abgebremst werden, wenn sie ihrer Maximaldrehzahl zu nahe kommen. Das Abbremsen würde die Raumsonde in Drehung versetzen, also hält man mit den kleinen Steuertriebwerken dagegen. Man spricht auf Techlisch von “Wheel Offloading”, “Momentum dumping” oder “Angular Momentum Desaturation”, gemeint ist immer dasselbe.

Diese Steuertriebwerke erzeugen aber nicht nur ein Drehmoment, sondern auch eine Beschleunigung, die Bahn der Sonde stört. Zwischen dem “Wheel offloading” und den Störbeschleunigungen besteht ein fester Zusammenhang. Wenn die Triebwerke so eingebaut sind, dass der Hebelarm ihres Schubvektors kurz ist, werden die erforderlichen Manöver zum “Entladen” der Drallräder länger. Der Zusammenhang muss dem Betreiber der Raumsonde vom Hersteller mitgeteilt werden.

Genau dieser Zusammenhang wurde falsch angegeben, und zwar als numerischer Zahlenwert mit der Einheit “pounds of force * Sekunde” [lbfs], wobei ein Zahlenwert mit der metrischen Einheit “Newton * Sekunde” [Ns] erwartet wurde. Das bedeutet, dass der Zahlenwert selbst um den Faktor 4.45 zu klein war. So einen Fehler sieht man nicht gleich beim Drüberschauen, aber er macht sich im Betrieb unweigerlich bemerkbar.

Bei konsequenter und durchgängiger Verwendung metrischer Einheiten wäre dieses Problem gar nicht erst aufgetreten. Ich muss dazu sagen, dass ich die Verwendung der Einheit “pound” für die Masse, aber auch für die Kraft ohnehin krank finde. “pounds of force”, was ist das denn für ein Quatsch?

Bahnbestimmung und Residuen

Zurück zur Bahnbestimmung. Die Vorausberechnung der Bahn ist ein wichtiger Teil dieses Prozesses, aber nicht der einzige. Bahnbestimmung ist ein iterativer Vorgang. Man hat eine Anfangsschätzung des Zustandsvektors und der anderen zu bestimmenden Größen zu einem Referenzzeitpunkt.

Man kann aber die Bahn nicht direkt vermessen. Man hat nur eine Folge radiometrischer Messwerte. Zu bestimmten Zeiten wird beispielsweise der Abstand zwischen Bodenstation und Raumsonde aus der Lichtlaufzeit und die Dopplerverschiebung des auf der Erde ankommenden Signals gemessen. Wenn man die Sendefrequenz genau kennt, ist die Dopplerverschiebung mit Abstand die wichtigste Messgröße.

Aus einer Kette gemessener Dopplerverschiebungen kann man aber noch keine Bahn berechnen. Das ist komplizierter. Aus der Anfangsschätzung folgen, wenn man die Bahn propagiert, berechnete Messdaten. Man kann also ausrechnen, welche Abstände und welche Dopplerverschiebungen man zu einer Folge von Messzeiten hätte messen müssen, wenn diese Anfangsschätzung tatsächlich den Zustand der Raumsonde repräsentiert hätte. Die “ausgerechneten Messwerte” und die “gemessenen Messwerte” werden sich aber unterscheiden.

Diese Anfangsschätzung wird iterativ, also in einer Kette aufeinanderfolgender Schleifen, verbessert. Ich gehe jetzt nicht im Detail darauf ein, wie das geht. Wir machen hier heute keine Vorlesung in numerischer Mathematik. Nur so viel: Die “Residuen”, also der Fehler zwischen ausgerechneten und gemessenen Messwerten, haben ihren Ursprung zum Teil im Fehler der Anfangsschätzung, zum Teil in Messungenauigkeiten und zum Teil in Fehlern im mathematischen Modell, das die Bahn der Sonde und die Erstellung der Messdaten beschreibt.

Die Tatsache, dass eine wichtige Störgröße im Modell um einen Faktor 4.45 zu klein eingegeben worden war, ist ein solcher Fehler im mathematischen Modell. Die Folge war, dass während des gesamten Transfers die Residuen, also der Restfehler zwischen ausgerechneten und gemessenen Messwerten, beträchtlich blieb. Größer als erwartet, aber nicht so groß, dass die Ursache einfach zu finden wäre.

… und dann kam auch noch Pech dazu

Die Folge des Modellierungsfehlers war, kurz gesagt, dass der iterative Prozess der Bahnbestimmung auf einen falschen Zustandsvektor hin konvergierte. Gleichzeitig blieben die Residuen zu groß.

Was die Bedienungsmannschaft nicht wusste: Die Bahn- und Lagegeometrie war dergestalt, dass der Fehler in der Position und Geschwindigkeit zum Referenz-Zeitpunkt sich genau in die Richtung auswirkte, die mit Doppler- und Ranging nicht zu beobachten ist. Sowohl Doppler- als auch Entfernungsmessungen “sehen” ja nur die Komponente in Sichtrichtung, also entang der Verbindungslinie zwischen Erde und Raumsonde. Alles, was sich senkrecht zu dieser Richtung abspielt, kann man den Messdaten erst einmal nicht entnehmen.

Die Bahn einer Raumsonde könnte also senkrecht zur Beobachtungsrichtung einen Fehler von vielen Kilometern aufbauen, man würde es nicht sofort bemerken. Irgendwann natürlich schon, wenn der beobachtete Bahnbogen nur lang genug ist.

Hier lag aber der Hase im Pfeffer. Die berechnete Bahn wies gegenüber der tatsächlichen einen Fehler vorwiegend in jener Komponente auf, die mit den zur Verfügung stehenden Messdaten Ranging und Doppler schwer zu beobachten war. Dieser Fehler, wenn man die Bahn zum Mars weiter voraus berechnete, wirkte sich so aus, dass der marsnächste Punkt nicht wie geplant 224 km über der Marsoberfläche lag, sondern viel tiefer. Im Nachhinein wurde festgestellt, dass die Sonde wahrscheinlich bis auf weniger als 75 km hinunter ging, wobei die atmosphärischen Kräfte sie auseinander rissen und der Reibungswärme ihre Tanks überhitzte und ihr so den Rest gab.

Etwas mehr als 150 km Fehler über eine Flugstrecke von etwa 500 Millionen klingt auf Anhieb vielleicht nicht dramatisch, aber es ist eine gewaltige Abweichung. Üblicherweise ist bei der Marsankunft mit einem Positionsfehler von maximal einigen Kilometern zu rechnen.

Warum haben die das nicht gemerkt?

Es war bekannt, das etwas nicht stimmte, aber aufgrund der unzureichenden Messdaten ließ sich die Fehlerursache nicht einkreisen. MCO war eine “faster-cheaper-better”-Mission mit einem Budget von 125 M$. Das erlegt den verfügbaren Ressourcen enge Grenzen auf. Auch Personal oder ausgiebige Messkampagnen sind eine solche Ressource. Es musste aber auch beim Training und bei Verifikationstests gepart werden, wie der Bericht der Untersuchungskommission festgestellt hat. Billig und gut sind nun einmal zwei Begriffe, die einander weitgehend ausschließen.

Als Konsequenz aus dem Debakel wurde beschlossen, zukünftig immer auch Messungen vom Typ “Delta-DOR” (=Delta Differential One Way Ranging) einzusetzen. Dazu benutzt man zwei Bodenstationen und ein interferometrisches Verfahren, mit dem auch Positionskomponenten in einer Richtung senkrecht zur Beobachtungslinie gemessen werden können. Aufwand und Kosten von Delta-DOR sind jedoch erheblich, nicht nur wegen der Tatsache, dass zwei Bodenstationen verwendet und durch Ausrichtung auf einen Quasar kalibriert werden müssen, sondern auch wegen der Komplexität der interferometrischen Messungen.

Also eine Abkehr vom ganz billigen Weg.

Führten falsche Einheiten wirklich zum Verlust des MCO?

Formal erscheint es so, dass die Fehlerursache auf falsche Einheiten zurück zu führen ist. Das greift aber zu kurz. Der falsche Wert im Modell der Bahnstörungen hätte auch aufgrund eines Rechenfehlers oder einer falschen Annahme auftreten können und hätte sich auch dann vielleicht ähnlich ausgewirkt.

Das Kontrollteam hatte ja durchaus gemerkt, dass etwas faul war, aber zur genauen Eingrenzung der Fehlerursache fehlten ihnen die Erfahrung und vor allem die Daten. Das war der Kern des Problems. Die Entscheidung zur Einbeziehung eines von Ranging und Doppler unabhängigen Messdatentyps ist daher richtig, ebenso, im weiteren Kontext, die Abkehr vom Low-Cost-Ansatz.

Weitere Information

Mars Climate Orbiter Mishap Investigation Board Phase 1 Report, NASA, 10. November 1999

Ich bin Luft- und Raumfahrtingenieur und arbeite bei einer Raumfahrtagentur als Missionsanalytiker. Alle in meinen Artikeln geäußerten sind aber meine eigenen und geben nicht notwendigerweise die Sichtweise meines Arbeitgebers wieder.

11 Kommentare Schreibe einen Kommentar

  1. Sehr gute Übersicht über die heiklen Punkte der Bahnkontrolle einer Marsrakete, die sich knapp vor dem Mars befindet, aber von der dutzende von Millionen Kilometer entfernten Erde aus kontrolliert wird. Scheinbar hängt vieles vom Abgleich eines mathematischen Modells der Bahn mit den aktuell gemessenen Daten ab und diese Daten sind im wesentlichen Radiosignale, die von der Sonde zurück zur Erde geschickt werden. Das mathematische Modell wiederum enthält Parameter, die von der aktuellen Auslegung des Raumfahrzeugs abhängen und jeder Fehler darin führt zu falschen Berechnungen und damit zu Fehlern in der Vorausberechnung der weiteren Bahn. Diese Parameter, welche das dynamische Verhalten der Sonde bestimmen, dürfen also nicht mit falschen Werten versorgt werden. Aber genau dies geschah im Falle des Mars climate orbiters bezüglich dem Reaktionsrad/Steuerdüsen-Subsystem, weil die Umrechnung in das metrische System fehlte.
    Wie könnte man einen solchen Fehler von Anfang an vermeiden? Mir scheint, dieser Fehler hängt letztlich damit zusammen, dass die Marssonde aus Komponenten unterschiedlicher Herkunft besteht und es eine unsichtbare Kluft zwischen der Sicht des Missionsteams und den Sichten der unterschiedlichen Hersteller der Komponenten gibt. Eine Lösung die mit heutigen informatischen Mitteln arbeitet könnte darin bestehen, dass alle Hersteller von Komponenten ihre Komponenten in einer Softwaresimulation des Raumfahrzeugs testen – virtuell einfach. Eine Komponente wird dann virtuell in das simulierte Raumfahrzeug eingesetzt und Testläufe, die bereits jeder Komponentenhersteller durchführen kann, helfen dann, Problemstellen aufzufinden. Damit würden das Einheitenproblem aber auch viele weitere Probleme entdeckt.
    Im übrigen verwundert es einen europäischen Leser wohl, dass in Wissenschaft und Technik noch irgendjemand in anderen als metrischen Einheiten (SI-Einheiten) rechnet.

  2. Naturwissenschaften und Technik haben längst auf das SI-System umgestellt (Aus Kostengründen hat man auf die Umstellung im Alltag verzichtet).

    Software hat allerdings ein langes Leben. So kommt es, dass die Umstellung sehr zäh und langsam verlief. Ein Klassiker, der sich Jahrzehnte lang hielt war die Umrechnung Grad Fahrenheit in Kelvin. Meist erfolgte sie richtig. Ausnahmen bestätigten die Regel. Bei der Berechnung von Temperaturdifferenzen wurden schon immer wieder gerne einmal 32 Grad abgezogen.

    Wer den Artikel mit Vergnügen gelesen hat findet hier umfangreiches Material:

    https://descanso.jpl.nasa.gov/

  3. Marssonden wären mit den heutigen Sensoren und Kamerasystemen tendenziell in der Lage, Position und Geschwindigkeit (ihre Vektoren) selbst zu bestimmen. Doch ihre strahlengehärteten On-Board-CPUs haben nur eine minimale Rechenleistung und stammen oft noch aus den 1980er Jahren. Auch deshalb übernehmen Computer auf der Erde kompliziertere Berechnungen. Das gilt sogar für die ISS wie man in SpaceX, NASA, and HP Are Sending a Supercomputer to the ISS liest: Die aktuellen Rechner auf der ISS – die, die die Station betreiben – laufen auf einem Mikroprozessor, der erstmals 1985 eingeführt wurde. Das klingt vielleicht nach nicht genug, um die fast fünf Meilen lange Station zu versorgen. Diese Computer werden jedoch durch eine 24/7-Überwachung vom Boden aus unterstützt – von wesentlich leistungsstärkeren Computern.
    Jetzt hat die NASA einen HP-Supercomputer an Bord der ISS gehievt, einen Standard-, nicht gehärteten Supercomputer, der Fehler über die eingebaute Software korrigiert und nun über ein Jahr zeigen soll, ob er den Bedingungen dort widersteht. Der Artikel erwähnt auch explizit, dass das Bedürfnis nach mehr Rechenleistung gerade bei Missionen zum Mars und noch weiter hinaus besteht, weil bei diesen Distanzen die Hin-und-Her-Kommunikation bis zu einer Stunde betragen kann – eine Verzögerung, die etwa bei bemannten Missionen zu lange sein kann, um auf Unvorhergesehenes schnell reagieren zu können.

    • Die eigenständige Bestimmung der Lage einer Raumsonde mittels Kamerasystem angeschlossenem Rechner ist seit vielen Jahren Stand der Technik. Genau das machen “Star Tracker” (Sternsensoren) wie die von jenaoptronik.

      Die Lage ist allerdings von der Bahn entkoppelt, das eine kann leicht bestimmt werden (idealerweise auf Basis einer einzigen Messung), das andere nicht.

      Optische Navigation zur Unterstützung des Bahnbestimmungsprozesses ist keine Neuigkeit, sondern wird schon seit Jahrzehnten eingesetzt, vor allem bei Missionen zu Planeten mit vielen Monden wie Jupiter und Saturn, wobei Bilddateien, in denen Monde vor dem identifizierbaren Sternenhintergrund abgebildet sind, als komplementäre Datentypen zu den radiometrischen Messungen fungieren. Keinesfalls darf aber der Zentralplanet mit im Bild sein, sonst wird alles überstrahlt und das Bild ist unbrauchbar. Selbst wenn er sich zwar außerhalb des Blickfelds befindet, aber nicht mit genügendem Winkelabstand, wird es immer noch zu viel Streulicht geben.

      Es gibt durchaus auch Ansätze für autonome, optische Navigation für Asteroidenmissionen. Aber da hat man zwei gewichtige Vorteile: a.) ist die Annäherungsgeschwindigkeit klein und b.) ist der betrachtete Asteroid aus einiger Entfernung nicht heller als die Hintergrundsterne, sodass der Prozess mit nicht viel mehr Aufwand als der bei der Lagebestimmung per “Star Tracker” implementiert werden kann.

      Aber beim Mars ist der Fall schon etwas anders gelagert, da ist die Annäherungsgeschwindigkeit hoch (jetzt bitte nicht wieder die Geschichte vom “ballistic capture”) und die Beobachtung eines nahe gelegenen Planeten oder gar seiner Monde vor dem Sternenhintergrund schwieriger. Die Mission MRO hat allerdings demonstriert, dass die Beobachtung der Mars-Monde aus dem Anflug heraus (zwischen 30-2 Tagen vor Ankunft) möglich ist, auch wenn dies dort nicht gebraucht wurde. Diese Bilddaten können in den Bahnbestimmungsprozess auf der Erde eingespeist werden.

  4. Ja, eine autonome Positionsbestimmung in Marsnähe würde entweder die Identifikation von Marsgeländepunkten oder Marsmondgeländepunkten benötigen. Noch schwieriger wäre die autonome Positionsbestimmung eines Marsrückkehrers. Eventuell könnte die Beobachtung künstliche Erdsatelliten hier helfen. Dies nach The DPS (Deep-space Positioning System) Concept
    :

    • Ergänzung: Ein XNAV-Pulsarsignaldetektionssystem (Empfang von Röntgenstrahlen-Bursts von Pulsaren) könnte im Falle einer Marsmission die Position auf bis zu 30 km genau bestimmen. Die Wissenschaftler stellten fest, dass im Falle einer bemannten Mission zum Mars, wo ein XNAV-System wertvolle Redundanz liefern könnte, die Beobachtungen von drei Pulsaren, einschließlich PSR B1937 + 21, eine 3-D-Positionierungsunsicherheit von etwa 18,6 Meilen (30 Kilometer) ermöglichen würden. Dies würde eine totale Beobachtungszeit von zehn Stunden erfordern, wenn ein Instrument mit mehreren Teleskopen verwendet wird (2 Tage mit nur einem Teleskop).

  5. Idee für ein billiges Navigationssystem für unser Solarsystem: 2 bis 3 geostationäre Satelliten könnten in regelmässigen Zeitabständen Lasersignale ausschicken und zwar genau in die Richtungen, in denen Missionen unterwegs sind. Jeder dieser Laser-Leuchttürme hätte eine Liste von Wertpaaren Zielrichtung /Laseraktivierungszeitpunkt an Bord. Er müsste in der Lage sein, sich relativ genau auf einen bestimmten Punkt am Himmel auszurichten. Vorteile:
    – Der Satellit, der dieses Navigationssystem benutzt, müsste nur über eine kleine Photozelle als Empfangseinheit verfügen, denn der von GEO ausgesendete Laserstrahl leuchtet in einem sehr schmalen Lichtkonus hauptsächlich auf das Ziel.
    – Ein paar Watt Sendeleistung der Leuchtturmsatelliten würden genügen
    – Der empfangende Satellit könnte die Positionen oder gar die Bahnen der geostationären Leuchtturmsatelliten von Erdstationen zugesendet erhalten, was kein Problem wäre, denn eine Radioverbindung zur Erde muss sowieso existieren.
    – Der Satellit könnte allein aufgrund des Zeitpunkts in dem er die Lichtpulse der 2 bis 3 geostationären Satelliten erhält, seine Position sehr genau bestimmen.
    – Die geostationären Lichtturmsatelliten könnten gleichzeitig dutzende von Missionen “betreuen”.

    Nachteile:
    – Empfangspausen durch Okkultationen

    Dieses System entspräche von der Idee her dem irdischen GPS, nur dass die Satelliten des Solarnavigationssystems nicht in alle Richtungen Signale abgeben würden, sondern nur in “angemeldete” Richtungen.

    • Martin Holzherr schrieb (17. August 2017 @ 10:00):
      > Idee für ein billiges Navigationssystem für unser Solarsystem: 2 bis 3 geostationäre Satelliten [… sowie ein “Missions“-] Satellit, der dieses Navigationssystem benutzt

      Billig mag das wohl sein.
      Durch Inbetrachtziehen weiterer Satelliten (insgesamt mindestens fünf, entsprechend Synges Idee des “Five-Point Curvature Detector”s) ließe sich allerdings zumindest ansatzweise ermitteln, ob und wie die Region, die diese Beteiligten enthielt (“unser Solarsystem“) von Fall zu Fall gekrümmt gewesen wäre.

      > könnten in regelmässigen Zeitabständen Lasersignale ausschicken

      Messungen, ob die Dauer eines bestimmten Beteiligten von einer bestimmten seiner Anzeigen bis zu einer bestimmten nachfolgenden jeweils gleich geblieben wäre, oder in wie fern nicht,
      hängen natürlich eng mit Bestimmungen von Krümmung (und deren eventueller Änderung) zusammen.

      Um sich dabei nicht auf ganz billige Modell-Annahmen einlassen zu müssen, kann ja der “Missions-Satellit” selbst Signalanzeigen darstellen, und die Phasendifferenzen der entsprechend Ping-Echos von den mindestens vier anderen feststellen.
      (Und was der eine (der “Missions-Satellit”) kann, dürften wohl alle anderen im Prinzip auch.)

      Und schon gelangen wir zur Idee, unterscheiden zu können, ob Laserquellen, Spiegel, Photozellen usw. sich (sanft) in einer Gravitationswellen wiegten, oder stattdessen unsanft gerüttelt wurden. …

    • Ergänzung zu Solarsystem-GPS mit Laserpulsen aus geostationären Satelliten
      1) Missionssatelliten, die das oben beschrieben Solarsystem-GPS nutzen wollen, sollten eine On-Board-Atomuhr besitzen, zum Beispiel die nur ein paar Zentimeter grosse CSAC SA.45s , welche eine Genauigkeit von einer Millionstel Sekunde hat (Lichtdistanzen könnten damit auf 1 Kilometer genau gemessen werden).
      2) die GPS-Satelliten, welche Laserpulse aussenden, sollten mit dem Laserimpuls auch eine Identifikation mitschicken oder aber leicht unterschiedliche Lichtfrequenzen benutzen, so dass die Photodioden auf den Empfangssatelliten wüssten von welchem GPS-Satellit der Lichtpuls kommt.

      Der Empfangssatellit kann dann aus dem zeitlichen Versatz der Signale von 2 oder mehr geostationären GPS-Lasersignalen, aus dem Wissen zu welchem Zeitpunkt die Signale ausgesendet wurden und aus der Kenntnis der GPS-Satellitenpositionen im Moment des Sendens, seine eigene Position innerhalb des Sonnensystems sehr genau bestimmen.

      • Martin Holzherr schrieb (18. August 2017 @ 10:47):
        > Missionssatelliten, […] sollten eine On-Board-Atomuhr besitzen, zum Beispiel die nur ein paar Zentimeter grosse CSAC SA.45s , welche eine Genauigkeit von einer Millionstel Sekunde hat

        Erstaunlich, dass eventuellen Atomuhren, die ein Satellit mit sich führen mag, eine bestimmte endliche “Genauigkeit” zuerkannt würde.
        Denn das setzt ja hinreichend richtige/wahre (Mess-)Werte der Verhältnisse der Dauern des betreffenden Satelliten zwischen bestimmten Anzeigenpaaren voraus;
        also die entsprechende (hinreichend richtige/wahre) Charakterisierung der jeweiligen Bahnabschnitte des betreffenden Satelliten.

        > Lichtdistanzen könnten damit auf 1 Kilometer genau gemessen werden

        Wohlgemerkt: könnten.
        Nämlich nur unter der Voraussetzung, dass die beiden betreffenden Enden, deren geometrische Beziehung untereinander durch einen einvernehmlichen, eigentlichen Distanzwert zu charakterisieren wäre, dabei tatsächlich gegenüber einander ruhten.

        (Falls sich die betreffenden Enden lediglich als gegenüber einander starr erwiesen, wie z.B. etwa Erde und Mond gegenüber einander, dann wären sie stattdessen durch ein Wertepaar von jeweils konstanten aber nicht unbedingt gleichen Quasi-Distanzen zu charakterisieren;
        oder ansonsten gar nur durch Versuch zu Versuch variable Entfernungs-Werte, die jeweils das eine beteiligte Ende gegenüber dem anderen als (Lichtsignal-)Ping-Dauer ermitteln würde.)

Schreibe einen Kommentar




Bitte ausrechnen und die Zahl (Ziffern) eingeben