Digitale Transformation und Klimawandel sind eine ungesunde Mischung, wenn es um die Ausfallsicherheit von Rechenzentren geht. Naturkatastrophen werden häufiger und in ihren Auswirkungen schlimmer, gleichzeitig nimmt die Abhängigkeit von Daten und Rechenleistung zu. Speicherung und Verarbeitung „in der Cloud“ wird oft missverstanden als dezentrale Struktur.
Wenn aber keine Georedundanz der Rechenzentren gegeben ist, kann auch die Cloud einfach weg sein. Georedundanz lässt sich durch Colocation, ein eigenes weiteres Rechenzentrum oder Outsourcing schaffen.
Aus fünf Kilometern wurden zweihundert
Das Bundesamt für Sicherheit in der Informationstechnik (BSI) hat seinen Katalog der „Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren“ 2019 überarbeitet. Unter dem Eindruck der Schneekatastrophe im Münsterland 2005 und den Überschwemmungen an Elbe und Donau 2013 wurde die Abstandsempfehlung für georedundante Rechenzentren von fünf auf zweihundert Kilometer massiv erhöht. In der Hochverfügbarkeitsstufe (VK 3) soll damit eine Verfügbarkeit von 99,99 % bei maximal einer Stunde Unterbrechungszeit erreicht werden. Höchstverfügbarkeit (VK 4) bedeutet ein Ziel von 99,9999 % bei etwa fünf Minuten Ausfall. Die Stufe VK 5 mit einer Verfügbarkeit von 100 % ist für Rechenzentren ein theoretischer Wert, der in der Praxis nicht zu erzielen ist. Ein Restrisiko bleibt immer. Das BSI räumt ein, dass über eine Strecke von 200 km Latenzzeiten auftreten, die eine vollkommen synchrone Spiegelung von Datenbeständen nicht erlauben. Deshalb spricht man jetzt von Betriebsredundanz. Das betreibende Unternehmen muss also entscheiden, ob kurze Ausfallzeiten oder Vermeidung von Datenverlust Priorität haben.
Das gehört alles zur Georedundanz
Wohlgemerkt, die Kriterien des BSI stammen von 2019. Da gab es weder die Flut im Ahrtal und in der Eifel noch den russischen Angriff auf die Ukraine mit all seinen Folgen, etwa für die Sicherheit der Energieversorgung in Deutschland. Georedundanzen müssen in der aktuellen Situation wesentlich genauer unter die Lupe genommen werden. Eine reine Abstandsregel ist wichtig, reicht aber sicher nicht, um eine Unabhängigkeit der Rechenzentren zu garantieren. Voraussetzungen neben der räumlichen Trennung sind insbesondere:
- unabhängige Stromversorgung (unterschiedliche Transformatoren zwischen Mittel- und Niederspannungsnetz)
- unabhängige Netzanbindung (gänzlich getrennte Netztrassen zum Anschluss an die Points of Presence – PoP – der Provider)
Selbstverständlich müssen weitere Sicherungsmaßnahmen wie Netzersatzanlagen („Notstrom“, zum Beispiel ein Dieselaggregat), Klimatisierung bzw. Kühlung und dergleichen unabhängig voneinander an beiden Standorten vorhanden sein.
Auslagerung bedeutet nicht automatisch Redundanz
Eine Auslagerung des zweiten Rechenzentrums innerhalb des eigenen Unternehmens, an einen externen Anbieter oder im Wege einer Colocation – dem Betreiben eines eigenen Servers in den Räumen eines Drittanbieters – kann Geo-Redundanz schaffen, muss aber nicht. Wichtig ist eine Prüfung der Redundanz nach den oben aufgeführten Kriterien. Im schlimmsten Fall wird nur der Übertragungsweg zwischen Rechenzentrum (Server) und Arbeitsplatz (Client) verlängert, ohne dass dadurch Redundanz entstünde. Aber auch wenn die Einrichtung eines redundanten Rechenzentrums hinsichtlich Entfernung, Stromversorgung und Netz erfolgreich war, sind regelmäßige Tests für die Umschaltung zwingend nötig. Niemand will im Ernstfall eine Überraschung erleben, wobei Performance-Probleme hier noch eine harmlose Variante darstellen.
Bild: Bigstockphoto.com / Wavebreak Media