Zeitreise mit William Kahan

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

Über Merkwürdigkeiten bei der Berechnung von Fließkommazahlen hatte ich ja bereits hier geschrieben. Darauf gekommen war ich wegen der Artikel von William Kahan, selbst so etwas wie der Vater der Fließkommarechnung, von dem auch die Beispiele für das sonderbare Verhalten von Excel-Tabellen stammen, die ich in meinem Blogbeitrag aufgegriffen hatte. Ein weiterer Blogbeitrag, in dem es um die potenzielle Gefährlichkeit solchen und ähnlichen Verhaltens geht, folgt später noch. Mein Gespräch mit Kahan am vergangenen Dienstag ging nämlich erst einmal in eine ganz andere Richtung.

© Klaus Tschira Stiftung / Peter Badge

Konkret hat mir das Gespräch vor Augen geführt, in welchen besonderen Zeiten wir bezüglich der Computertechnik leben. Wir ähneln denjenigen Autofahrern, die sich noch mit Benz oder Otto unterhalten konnten. Einige der Pioniere der Computertechnik, die, wenn schon nicht ganz, so doch fast von Anfang an dabei waren, sind noch unter uns. Und von denen wiederum sind einige hier beim HLF.

Als Kahan seinen Schulabschluss machte, konnte man noch nicht Informatik studieren. Kahan studierte Mathematik – gerade weil es nicht einfach war. Und, das sollte sich dann noch als nützlich erweisen: er war Hobby-Elektroniker.

In seinem dritten Studienjahr, 1953, hörte Kahan das erste Mal von Computern. Genauer: von einem ganz bestimmten Computer, den es jetzt am Fachbereich Physik seiner Universität gebe. Die meisten von uns wären, Interesse vorausgesetzt, wohl einfach hingegangen, um sich das anzusehen. Kahan ging die Sache anders an. Er überlegte, wie er selbst solch eine programmierbare Rechenmaschine bauen würde – aus (ziemlich vielen) Telefon-Relais. (Später hat er dann noch ausgerechnet, dass es der Gesamtleistung der Niagara-Fälle bedurft hätte, um die von ihm erdachte Maschine zum Laufen zu bringen.)

Mit seinem Entwurf im Kopf ging er dann zu dem Professor, der bei den Physikern für den Computer verantwortlich war: “Zeigst du mir deins, dann zeig ich dir meins!”

Wenn Sie sich einmal wieder über die Tempoeinbußen ärgern, die ihnen die mickrigen 2 Gigabyte Hauptspeicher Ihres Rechner aufzwingen, oder über Platzprobleme Ihrer 500 GB-Festplatte: Kahans Erfahrungen reichen zurück in eine Zeit, in der die Programmbefehle auf Papierstreifen gespeichert waren, in einem Alphabet mit vier Zeichen, jedes davon als Lochkombination 32 Buchstaben, jeder davon mit bis zu 5 Löchern in den Streifen gestanzt.

Die Rechenzeit eines Programms optimieren? Das konnte auf Maßnahmen hinauslaufen wie jene, die Rechenoperation “teile A durch B” das Einlesen von ganzen Zahlen so geschickt zu programmieren, dass der Computer die Kommandos hinreichend schnell ausführen konnte, dass er den Lauf des Papierstreifens zwischendurch nicht unterbrechen musste. Allerdings musste man sich dann Vorsehen, dass niemand einem solchen durchrauschenden Papierstreifen im Wege stand – das hätte zu Verletzungen führen können.

Sicher, auf einer Magnettrommel hatte man dann die Möglichkeit, 100.000 40-Bit-Worte zu speichern (in der Summe also beeindruckende 500 Kilobyte). Allerdings würden davon an jedem gegebenen Tag nur etwa 30.000 auch funktionieren. Wenn Kahan morgens ins Institut kam, dann händigte ihm der zuständige Ingenieur erst einmal das Verzeichnis der funktionierenden Speicherelemente aus. Wer ein Programm laufen lassen wollte, musste darauf achten, nur die intakten Bereiche des Speichers zu benutzen.

Es fällt schwer, angesichts dessen, was heutige Computer leisten, nicht erleichtert in sich hinein zu lächeln. Aber für Überheblichkeit besteht natürlich nicht der geringste Anlass. Wir wissen zwar nicht im Einzelnen warum, aber wir können sicher sein, dass es den Menschen in zwanzig oder dreißig oder noch mehr Jahren mit unserer heutigen Technologie ähnlich gehen wird. Aber jetzt muss ich aufhören; mein Hirnimplantat erinnert mich gerade daran, dass mein Flugauto im Parkverbot steht.

[Danke an William Kahan für die zwei nachträglichen Korrekturen!]

Markus Pössel

Markus Pössel hatte bereits während des Physikstudiums an der Universität Hamburg gemerkt: Die Herausforderung, physikalische Themen so aufzuarbeiten und darzustellen, dass sie auch für Nichtphysiker verständlich werden, war für ihn mindestens ebenso interessant wie die eigentliche Forschungsarbeit. Nach seiner Promotion am Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) in Potsdam blieb er dem Institut als "Outreach scientist" erhalten, war während des Einsteinjahres 2005 an verschiedenen Ausstellungsprojekten beteiligt und schuf das Webportal Einstein Online. Ende 2007 wechselte er für ein Jahr zum World Science Festival in New York. Seit Anfang 2009 ist er wissenschaftlicher Mitarbeiter am Max-Planck-Institut für Astronomie in Heidelberg, wo er das Haus der Astronomie leitet, ein Zentrum für astronomische Öffentlichkeits- und Bildungsarbeit. Pössel bloggt, ist Autor/Koautor mehrerer Bücher, und schreibt regelmäßig für die Zeitschrift Sterne und Weltraum.

2 comments

  1. Eine Zeitreise machen wir mit William Kahn nur dann, wenn wir in die Zeit zurückgehen bevor es Computer gab. Vom Funktionsprinzip her und selbst von der Art der Programmierung dieser Maschinen hat sich seit ihrer Erfindung wenig geändert. Selbst Ada Lovelace’s Algorithmus für die Berechnung der Bernoulli-Zahlen mit der Analytical Engine, noch für einen fiktiven Computer geschrieben, unterscheiden sich vom Wesen her nicht von den Programmen, die wir heute für Computer schreiben.

    Was ist inzwischen an Grundsätzlichem hinzugekommen?
    Die Entdeckung der DNA und des zu ihrer Ablesung und Transkription in Proteine nötigen molekularen Apparats hat der Computermetapher eine ganz neue Bedeutung gegeben. Alle Lebewesen führen in dieser Sicht jederzeit auf zellulärer Ebene Algorithmen aus, die letztlich in der DNA festgehalten sind. Damit wird der Computer als Algorithmen abarbeitende Maschine zu etwas ganz Grundlegendem, zur Metapher des Lebens schlechthin und der Tod kann in dieser Sicht als Zustand beschrieben werden, in dem keine Algorithmen mehr ausgeführt werden.

    Ein ganz wesentlicher Teil jeder Digitalisierung, also der Übersetzung eines Sachverhalts oder einer Information in eine Form, die die weitere Verarbeitung mit einem Computer ermöglicht, ist die Abstraktion, die nicht selten auch mit einem Informationsverlust einhergeht. Die Gleitkommazahlen sind ein ganz frühes Beispiel für ein bereits auf Maschinenebene auftauchendes Abstraktions- und Codierungsproblem, denn die für die Naturwissenschaft und die Ingenieurwissenschaften so wichtigen reellen Zahlen können nicht auf elementare Art und Weise digitalisiert werden. Es braucht vielmehr einen digitalen Ersatz für die reellen Zahlen, eben die in einem Computer für ein bestimmtes Format und eine bestimmte damit verbunden Genauigkeit zu wählenden Gleitkommazahlen. Mit diesem Problem schlug sich schon Konrad Zuse herum und sein Format für die Darstellung von Gleitkommazahlen hatte bereits die Unterteilung in Mantisse, Exponent und Vorzeichenbits vorgenommen, die auch heute noch verwendet wird.

    Konrad Zuse erkannte übrigens bereits 1951, dass der Computer als algorithmische Maschine eine der mächtigsten Metaphern oder gar ein Modell ist für alles Prozesshafte. Zitat Wikipedia:
    “Während seines Aufenthalts 1945/46 in Hinterstein war Zuse zum ersten Mal der Gedanke gekommen, dass der Kosmos selbst als gigantische Rechenmaschine aufgefasst werden könnte.[26] Er baute ihn zur Idee des „Rechnenden Raums“ aus. 1969 schrieb Zuse unter diesem Titel ein Buch, in dem er eine Theorie der zellulären Automaten entwickelte und sie, ähnlich wie später Stephen Wolfram, auch auf die Kosmologie anwendet”

  2. Markus Pössel schrieb (30 September 2013):
    > Allerdings musste man sich dann Vorsehen, dass […]

    Offenbar wurde dieser Text in der Epoche (bzw. mit deren bescheidenen Mitteln) erstellt, als Textelemente noch nicht selbstverständlich/automatisch ver-(wiki-)linkt wurden, um die Konsistenz zwischen (orthografischer) Form und (inhaltlicher) Funktion zu optimieren.

    (D.h., als man sich noch vorsehen bzw. selbst überprüfen musste, dass sich ein Text so liest/parst, wie er gemeint ist; was unassistierten Autoren nicht immer zuverlässig gelang.)