Die schlaflosen Nächte des Vinton Gray Cerf

BLOG: Heidelberg Laureate Forum

Laureates of mathematics and computer science meet the next generation
Heidelberg Laureate Forum

Eine der persönlichsten Fragen, mit welchen sich Vinton Gray Cerf (Turing-Preisträger des Jahres 2004) im Rahmen einer Pressekonferenz beim diesjährigen Heidelberg Laureate Forum auseinandersetzen musste, bezog sich auf die Qualität seines nächtlichen Schlafes. Oder genauer: Welche (technologischen) Ängste ihn, der unter anderem als Chief Internet Evangelist bei Google tätig ist, denn nachts wachhalten würden? War die Frage noch augenzwinkernd vorgetragen worden, so nahm Cerf sie doch zum Anlass, zwei für ihn sehr ernste Themen anzusprechen: Ein drohendes dunkles Zeitalter der digitalen Welt, und die Abhängigkeit von spezifischer Software, um digitale Inhalte auch langfristig abrufen zu können.

Vint Cerf während seines Vortrags beim #HLF15  ©HLFF//C.Flemming
Vint Cerf beim #HLF15 ©HLFF//C.Flemming

Cerf hatte offenbar kurz vor der Pressekonferenz im neuesten Buch eines Kollegen gelesen, und dabei einmal mehr eine für ihn bedrohliche Entdeckung gemacht: Der Autor hatte an verschiedenen Stellen URLs von Webseiten mit weiteren Informationen zum jeweiligen Thema abgedruckt. Das Problem hierbei ist jedoch, dass Webadressen nicht zwingend über längere Zeit stabil sind oder bleiben. Webseiten werden offline genommen, Domänennamen werden weiterverkauft, Inhalte ändern sich—wer hat noch nicht die Erfahrung gemacht, dass bei Eingabe einer lange vertrauten URL in die Adresszeile des Browsers plötzlich und unvermittelt eine ganz und gar unbekannte Seite geladen wird? In Cerfs Augen könnte dies auf längere Sicht in einen Zustand ähnlich den historisch nahezu undokumentierten und daher unerschließbaren dunklen Jahrhunderten des frühen Mittelalters münden. Vitale Informationen für das Verständnis einer Theorie oder eines Gedankengangs könnten für immer verloren gehen, weil die in der Niederschrift verwendeten Internetadressen ins Leere laufen. Behält man nun noch die Wichtigkeit im Hinterkopf, welche Informationsaustausch und zeit- und ortsunabhängiger Zugang zu Wissen inzwischen für uns einnehmen, wird ziemlich schnell plausibel, wieso Cerf (der als einer der Architekten des Internets unter anderem mit für die Struktur des Domänennamensystems verantwortlich war) dies als einen Albtraum empfinden mag.

Noch schwerwiegender scheint für ihn jedoch ein anderer Nachtmahr zu sein: Die bedingungslose Abhängigkeit von spezifischer Software für den Zugang zu digital gespeicherten Inhalten. Was Cerf damit meint ist, dass jede digitale Datei gewisse Programme benötigt, um für einen menschlichen Nutzer les- und verstehbar angezeigt zu werden. Software interpretiert die Bits und Bytes für uns und konvertiert sie in eine uns zugängliche Darstellungsform. Allerdings kommen hierbei oft proprietäre Formate und Programme zum Einsatz, da unterschiedliche Firmen versuchen, Nutzer an ihr jeweiliges Format (und natürlich das zugehörige Programmpaket) zu binden.

Was aber, wenn das zu diesem oder jenem Archiv gehörige Programm nicht mehr lauffähig ist, weil es vom dann aktuellen Betriebssystem nicht mehr unterstützt wird? Was, wenn zwar das Betriebssystem noch auf einem Speichermedium vorhanden ist, aber aufgrund des technischen Fortschritts keine dafür benötigte (da veraltete) Hardware mehr verfügbar ist? Was beim ersten Lesen vielleicht nach einem etwas künstlichen Szenario klingen mag, ist teilweise bereits heute Realität. Viele moderne Laptops haben standardmäßig keine optischen Laufwerke mehr—alles, was auf CD oder DVD gespeichert ist, ist somit zunächst einmal nicht mehr zugänglich. Und Hand auf’s Herz, wer hat nicht irgendwann schon einmal die eine oder andere Diskette in einer verstaubten Schublade gefunden und sich gewundert, was wohl darauf gespeichert ist? Die Frage musste aller Wahrscheinlichkeit nach unbeantwortet bleiben, sind doch Diskettenlaufwerke inzwischen ähnlich selten wie Walkmans und Musikkassetten.

Zumindest bezüglich seines zweiten Schreckensszenarios hatte Cerf jedoch Hoffnung. Da seine Befürchtungen wohl nicht nur von ihm geteilt werden, gibt es inzwischen mehrere Initiativen, die sich des Problems der nicht mehr zugänglichen Inhalte mittels verschiedener Ansätze annehmen wollen. Eine davon ist das Olive Executable Archive. Dabei handelt es sich um ein von der Carnegie Mellon University ausgehende Projekt, in welchem versucht wird, alte Hardware auf neuen Maschinen zu emulieren—quasi das genaue Verhalten (einschließlich von Fehlern und anderen Besonderheiten) eines älteren Systems auf jeweils aktuellen Computern zu simulieren, und auf dieser Grundlage dann auch die jeweilige alte Software wieder lauffähig zu machen. Virtuelle Unsterblichkeit für Computerarchitekturen, sozusagen. Und eventuell mehr durchschlafene Nächte für Vinton Gray Cerf.

Tarek R. Besold

arbeitet als PostDoc zu verschiedenen Themen aus dem Dunstkreis "Künstliche Intelligenz und Künstliche Kreativität" am Institut für Kognitionswissenschaft der Universität Osnabrück. Vor seiner Promotion in Kognitionswissenschaft hatte er Mathematik mit Nebenfach Informatik studiert, und ein einjähriges Intermezzo als "Logic Year"-Gaststudent an der Universität Amsterdam verbracht. Neben seiner eigentlichen Forschungsarbeit engagiert er sich als Wissenschaftskommunikator (zweiter Gewinner des 2013er Falling Walls Lab "Young Innovator of the Year"-Preises), Mitveranstalter von Wissenschaftsevents und gelegentlicher Autor des Analogia-SciLogs-Blog tätig.

5 comments

  1. Zitat:

    Und eventuell mehr durchschlafene Nächte für Vinton Gray Cerf.

    -> Ach was, die vorher von Sorge ausgelösten schlaflosen Nächte werden dann dazu genutzt, diese so wieder zugänglich gemachte Vergangenheit noch mal zu erleben. Schlaflos bleibt dann schlaflos. Nur der Stress ist ein anderer (dis-/eu-stress).

    Das andere Problem mit den toten Links ist bisher eher eine Frage in Richtung “Lexikon” gewesen. Die Digitaltechnik und die breite Zugänglichkeit (und folgender dinamischen Entwicklung) aber nun das Bedürfnis erzeugnen könnten, auch das zu konservieren. Über einen “Deadlink-algorythmus” und paralleler Speicherung der ehemaligen Inhalte wäre das theoretisch lösbar. Aber wie gigantisch diese Konservierung sein wird, kann man nur erahnen. Und richtig spannend wird es im Detail, wenn man wie bei Wikipedia etwa auch Versionsherarchien speichern wollte (also Änderungen am Original – Evolution der Versionen speichern).
    Das frühere Lexikon im Regal war vielleicht hilfreich, aber nur die letzte Version der Information zu haben, verhindert die Erkenntnis über Entstehungsprozesse. Bildung wird so zur Wissensspeicherung ohne Argumentation über den Erkenntnisweg. Mit der Digitaltechnik war diese Sterilität eigentdlich überwunden gedacht.

  2. Ein dunkles Jahrhundert ist mindestens von der technischen Seite her nicht nötig, denn immer mehr Daten können auf immer weniger Raum gespeichert werden. DNA oder Siliconnitrid/Wolframlegierungen können Daten zudem Millionen, wenn nicht Milliarden Jahre archivieren. Auch Webarchive gibt es bereits, wenn auch nicht wirklich vollständige. Wikipedia und seine Versionsgeschichte ist ebenfalls vorhanden, womit Wikipedia also bei Bedarf für jeden Zeitpunkt seit ihrer Entstehung rekonstruiert werden könnte.
    Es gibt aber ein Problem und dieses Problem liegt im organisatorischen Bereich: Wer speichert welche Daten mit welchem Auftrag und mit welcher Absicht. Es bräuchte so etwas wie die Long Now Foundation (The Long Now Foundation was established in 01996 to creatively foster long-term thinking and responsibility in the framework of the next 10,000 years) auf der Ebene der UNO damit Datenarchivierung systematisch und für die ganze Menschheit geschähe.

    • Das Datenformatproblem, welches Vinton Cerf sieht, wird wohl bald verschwinden, denn es werden sich Standards ausbilden wie man Daten langfristig archiviert. Sobald es diese Standards gibt und sie sich durchgesetzt haben, kann alte Software in dieses Standardformat konvertiert werden. Sollte sich beispielsweise DNA als Langfristspeichermedium etablieren, müsste lediglich noch festgelegt weden wie Bilder, Texte etc. in Bytes übersetzt werden und wie Bytes in DNA übersetzt wird. Jeder der DNA sequenzieren kann hat dann Zugang zu diesen Daten und da DNA- Sequenzierung kaum noch ausser Mode geraten wird, gäbe es auch nicht das Problem der veralteten Decodierngshardware.

      • Besonders einfach und sicher wären in Nickelfolien fotochemisch geätzte Mikrotexte und Mikrobilder, die man mit einer starken Lupe lesen kann, und die natürlich auch von zukünftigen Computern optisch eingelesen werden können. Für später farbige Mikrobilder benötigt man natürlich drei geätzte Mikrobilder. Ein Bild sagt mehr als tausend Worte, und kann auch zum definieren der Worte dienen.

        • Ja, man sollte Daten aus einem Langzeitarchiv auch mit blossem Auge oder einer Lupe erkennen können. In Figur 5 von Towards Gigayear Storage Using a Silicon-Nitride/Tungsten Based Medium wird vorgeschlagen, auf der äussserten Ebene einen grossen mit blossen Augen sichtbaren QR-Code zu zeigen. Jedes “Pixel” des QR-Codes ist dann wieder ein QR-Code und jedes Pixel der eingeschachtelten QR-Codes sind wiederum QR-Codes. Damit kann man Tera-bis Petabyte von Daten auf einer winzigen Disk speichern und dennoch auch dem unbewaffneten Auge bereits einen Hinweis geben.

Leave a Reply


E-Mail-Benachrichtigung bei weiteren Kommentaren.
-- Auch möglich: Abo ohne Kommentar. +