
Wir haben bald ein Speichermedium, das die Zivilisation überdauern kann. Doch was nützt es, wenn wir vergessen, wie man es liest? Es ist der Albtraum jedes Kreativen und jedes Archivars: der digitale GAU. Jener Moment, in dem die Festplatte nur noch klackert, das Archivband einen Lesefehler meldet oder sich ein Cloudspeicher mit einem lakonischen „404“ ins digitale Nirwana verabschiedet. Wir hegen und pflegen Terabytes an Daten – Lebenswerke in Pixeln, Tönen und Texten –, doch ihre Haltbarkeit ist oft erheblich kürzer als uns das Marketing der Speicherindustrie glauben machen will. Inmitten dieser digitalen Flüchtigkeit erscheint eine Technologie am Horizont, die das ultimative Versprechen abgibt: Daten für zehntausend Jahre zu sichern, eingeschrieben in Glas. Doch hier beginnt ein faszinierendes Paradox: Was nützt das ewige Medium wenn sie die Technologien unablässig wandeln und ihre Werkzeuge schnell vergisst. Ich denke da mir etwa an Disketten oder „historische“ Speicher wie ZIP-Laufwerke oder Syquest-Wechselplatten. Die Frage ist nicht nur, ob wir unsere Kultur für die Ewigkeit bewahren können, sondern wie wir sicherstellen, dass die Nachwelt unsere digital gespeicherten Werte noch entziffern kann.
Die Sehnsucht nach dem unvergänglichen Archiv
Die Zahlen sind ernüchternd und treiben jedem Verantwortlichen für digitale Bestände Sorgenfalten auf die Stirn. Magnetbänder, lange das Rückgrat professioneller Archive, müssen alle zehn bis zwanzig Jahre umkopiert werden – ein teurer und fehleranfälliger Prozess. Festplatten geben oft schon nach fünf Jahren den Geist auf, und selbst die als robust geltende Blu-ray Disks ist ein Versprechen auf vielleicht ein Jahrzehnt, nicht auf ein Jahrhundert. Jede dieser Technologien erfordert eine konstante, energieintensive Wartung und die ständige Sorge vor der Migration auf die nächste Hardware-Generation oder den nächsten Schnittstellenwechsel. Vor diesem Hintergrund wirkt die Idee, Daten in einem extrem widerstandsfähigen Material wie Glas zu speichern, wie die Erlösung aus der digitalen Kurzlebigkeit.
Die Technik dahinter ist von bestechender Eleganz. Ein Femtosekunden-Laser sendet unvorstellbar kurze Lichtimpulse in ein Stück Quarz- oder Borosilikatglas. Diese Impulse sind so präzise, dass sie im Inneren des Glases winzigste, dreidimensionale Strukturen, sogenannte „Voxels“, hinterlassen. Jeder dieser Punkte kann durch seine Orientierung und Intensität mehrere Bits an Information kodieren. Schicht für Schicht schreibt der Laser so ein komplexes, dreidimensionales Muster in das Glas – ein digitales Palimpsest, das mit bloßem Auge unsichtbar bleibt. Das Auslesen erfolgt ebenfalls berührungslos: Ein spezielles Mikroskop durchleuchtet das Glas, und eine Software übersetzt die Muster zurück in die ursprünglichen Daten.
Ein Medium für die Ewigkeit – und die Flüchtigkeit des Verstehens
Hier aber beginnt die eigentliche kulturelle Herausforderung, die weit über die technische Machbarkeit hinausgeht. Das Glas mag für Äonen halten, doch was ist mit den Geräten und dem Wissen, die zu seiner Entschlüsselung nötig sind? Wir schaffen ein Medium, das unsere Zivilisation überdauern könnte, aber wir binden seine Lesbarkeit an eine technologische Kette, deren Glieder gleichermaßen komplex und von atemberaubender Flüchtigkeit sind. Ein Lesegerät von heute ist in fünfzig Jahren ein Museumsstück, in fünfhundert Jahren unverständlicher Schrott. Die Software, die Algorithmen, die Treiber – all das ist in einer Sprache für Maschinen geschrieben, die sich in einem rasanten Wandel befindet.
Stellen wir uns Archäologen der Zukunft vor, die eine unserer Glasplatten finden. Sie halten ein perfektes, unversehrtes Medium in Händen. Doch ohne das passende Lesegerät – die „Rosetta-Stone-Maschine“ für Femtosekunden-Laser-Daten – blicken sie nur auf ein leeres Stück Glas. Die eigentliche Herausforderung ist also nicht, die Daten zu speichern, sondern die Fähigkeit zu bewahren, sie zu verstehen. Wir wetten darauf, dass zukünftige Generationen nicht nur unsere Daten für bewahrenswert halten, sondern auch die technologische Kontinuität wahren, um sie zugänglich zu machen. Wenn selbst Dateiformate von vor zwanzig Jahren schon Probleme bereiten, ist das eine kühne Wette.
Zwischen Vision und Wirklichkeit: Der Stand der Dinge
Trotz dieser philosophischen Bedenken schreitet die Entwicklung voran. Unternehmen wie Microsoft mit seinem „Project Silica“ und die britische Universitätsausgründung SPhotonix treiben die Technologie zur Marktreife. Pilotprojekte mit großen Archiven und Rechenzentren sind für die Jahre ab 2027 geplant, eine breitere Verfügbarkeit wird für das Ende des Jahrzehnts prognostiziert. Die Kosten sind zunächst hoch – ein Schreiber wird anfangs um die 30.000 Dollar kosten, ein Lesegerät etwa 6.000 Dollar. Auch die Schreibgeschwindigkeit hinkt noch hinter der von LTO-Bandlaufwerken her.
Für die tägliche Sicherung riesiger Datenmengen ist das Verfahren also vorerst ungeeignet. Sein Wert liegt im „Write Once, Preserve Forever“-Ansatz. Es ist die ultimative Kaltlagerung für die Kronjuwelen eines Archivs: die abgeschlossenen Filmprojekte, die wichtigsten fotografischen Werke, die zentralen Dokumente einer Kulturinstitution. Die reinen Speicherkosten pro Terabyte könnten langfristig unter einen Dollar fallen, doch die wahre Ersparnis liegt im Wegfall der ewigen Migrationszyklen und der Energiekosten für die Lagerung.
Letztlich ist die Einführung der Glas-Speicherung weniger eine technische als eine kulturelle Entscheidung. Sie zwingt uns, darüber nachzudenken, was wir wirklich für die Ewigkeit bewahren wollen. Und sie konfrontiert uns mit der unbequemen Wahrheit, dass die Beständigkeit unserer Erinnerungen nicht allein vom Medium abhängt, sondern von unserer Fähigkeit, eine Brücke des Verstehens über die Zeiten hinweg zu bauen. Das Glas gibt uns die Steine, aber die Brücke müssen wir selbst konstruieren – und instand halten.




„Sie zwingt uns, darüber nachzudenken, was wir wirklich für die Ewigkeit bewahren wollen.“ – Das ist vielleicht der entscheidende Satz. Eine Malerei in einer Steinzeithöhle ist dem Menschen unmittelbar ansichtig und verständlich. Davon gibt es vielleicht … drei auf der Erde? – Nehmen wir uns und unsere Daten nicht so wichtig, kuratieren wir maximal. Es mögen in 10.000 Jahren geschätzt ebenfalls drei Werke oder Dokumente aus heutiger Zeit überdauern. Dann wäre es schön, dass diese Werke unmittelbar sichtbar sind. Damit menschliche Augen sie sehen können. Graviertes Glas wird womöglich nicht mal als Speicher erkannt.
Archäologen freuen sich über den Fund alltäglicher Gegenstände, die vor Tausenden von Jahren achtlos weggeworfen wurden. Wenn wir eine Auswahl treffen, was bewahrt werden soll, werden wir ziemlich sicher einen großen Fehler begehen.
Bei den Schriftzeugnissen ist es nicht anders. Viele Keilschrifttafeln sind nur erhalten, weil ein Feuer ausgebrochen war und die Tafeln gebrannt hat. Eigentlich waren sie gar nicht für die Ewigkeit gedacht gewesen. Heute freut man sich über relativ banale Zeugnisse aus dem täglichen Leben, die so die Zeiten überdauert haben.
ja, stimmt, da hast du Recht. – Interessante Frage, was könnte von uns übrigbleiben und erkannt/gelesen werden? Man kommt schnell in so ein Däniken-Gedankengebäude. Sachen von heute werden morgen womöglich ganz anders interpretiert, also diese Glasreliefbrennereien werden womöglich anders begriffen werden, Überdauern werden sie mit erhöhter Wahrscheinlichkeit, zumindest als Scherben.
Ich würde das Interesse der Nachwelt nicht unterschätzen, und künftige Generationen werden ja auch nicht blöd sein – sie werden schon herausfinden, wie man an die Daten heran kommt. Natürlich wird es hilfreich sein, auf gut dokumentierte offene Standards zu setzen. Beispielsweise halte ich es für unwahrscheinlich, dass die Grundlagen des JPEG-Verfahrens jemals verloren gehen werden, selbst wenn es irgendwann niemand mehr verwendet. Schon weil seine Prinzipien auch den Weiterentwicklungen zugrunde liegen.
Übrigens ist ein Glasblock ziemlich robust. Mir sind schon mundgeblasene Weingläser beim allzu forschen Abwaschen oder Abtrocknen zersprungen, aber die sind ja auch sehr dünnwandig …
Digitale Speichertechnologien müssen ihre Langlebigkeit erst beweisen.
Die vordigitalen Informationsübertragungen waren Bauten, Zeichnungen, Schriften und Zeichen auf unterschiedlichen Materialen. Soweit wir wissen. Was verloren gegangen ist weiß niemand. Grafische und schriftliche Werke sind wegen des organsichen Trägermaterials und der Mal/Tinten/Zeichen-Mitteln auch mit organischen Anteilen naturgemäß nur begrenzt haltbar. Ähnliches gilt für Foto- und Filmmaterial, wobei natürlich die laufenden anorganisch chemischen Reaktionen selbst bei optimaler Lagerung eine laufende Qualitätsverminerung bis zur praktischen Unbrauchbarkeit bringen.
Auch magnetische Speicherungen haben laufenden Qualitätsverlust und keine wirklich lange Lebensdauer. Soweit das, was heutzutage unter dem Begriff „analog“ einfach zusammengeführt wird.
Die digitale Speicherung bedeutet zwar theroretisch eine verlustfreie Kopierfähigkeit, bgeginnt jedoch durch die Quantisierung schon mit einem Informationsverlust.
Allein die letzten Jahrzehnte mit den unzähligen Speichertechnologien und Inkompatibilitäten bringt eine extreme Hareausforderung mit sich. Dazu mehr noch später. Das größte Problem wird wohl die ungeheure Datenmenge sein, deren jährlicher Anstieg ungebremst scheint. Man wird sich entscheiden müssen, was, wie und wo aufgehoben werden soll. Das wird die Gesellschsft tun müssen. Dabei werden Informationen verloren gehen, was zukünftige Historikerinnen und Historiker, falls es die Menschheit noch geben wird, in einigen Tausend Jahren bedauern werden. Doch die Menschheit hat so viele einst werworbene Fähigkeiten verloren.
Die letzten, sagen wir mal 50 Jahre, haben gezeigt, dass neue Computersysteme auf Kompatibilität mit alten Geräten keinerlei Rücksicht nehmen. Funktioniert das alte System noch, kann man ein Überspielen auf eine neues System versuchen, ansonsten ist es sehr schwierig bis unmöglich. Die angesprochenen ZIP-Laufwerke sind nur ein Beispiel von unzähligen. Noch schwieriger oder eigentlich eher unmöglich ist es, wenn man Daten eines speziellen Programms in einem neuen, anderen Programm verwenden will. Tage und Wochen an Arbeit gehen verloren und müssen neu erarbeitet werden. Auch wenn eine neues Programm sie Basisfunktionen des alten versteht, bei 4o%- oder 60%-Kompatibilität endet es meist.
Letztlendlich muss man auch eingestehen, dass das regelmäßige Kopieren allein von immensen Datenmengen extrem viel Zeit benötigt. Natürlich gibt es Mechanismen, die dafür sorgen sollen, dass die digitale Kopie mit dem Original ident ist, doch es ist Software die das gewährleisten muss. Software ist nicht fehlerfrei, und heutige Software überprüft nach dem Schreiben nicht, ob der Schreibvorgang tatsächlich korrekt abgelaufen ist, es gibt nur mathematische Prüfungen, die einen erfolgreichen Lesevorgang nicht erstzen können. Außerdem sieht man es einem Datenträger nicht an, wann er defekt sein wird. Es gibt nur statistische Werte für Lebensdauer und Fehlerhäufigkeit. Die sagt nichts über den einzelnen verwendeten Datenträger aus.
Letztendlich kommt noch die KI hinzu. Wozu die in diesem Kontext eingesetzt wird? Ich denke nur an die Meldung vor einigen Tagen, dass Metas KI-Sicherheitschefin (!!!) ihre E-Mail-Inbox von OpenClaw verwüstet vorfand. In eriner Schilderung steht „Nichts macht einen demütiger, als seinem OpenClaw anzuschaffen, dass es vor Handlungen um Bestätigung fragen soll, nur um ihm dann dabei zuzusehen, wie es in Windeseile das Postfach löscht“
https://x.com/summeryue0/status/2025774069124399363
Was werden da Kohorten von täglichen KI-Nutzern mit Daten anrichten, außer KI-Daten mit historischen Daten zu mischen.