Paradigmenwechsel im Data Center Konsolidierung, Rezentralisierung, Hochverfügbarkeit und Business-Continuity erfordern Infrastruktur-Konvergenz

Ordnungsmerkmale

erschienen in: <kes> 2005#1, Seite 79

Rubrik: Management und Wissen

Schlagwort: Rechenzentrums-Planung

Zusammenfassung: Innovative Unternehmen und Behörden sollten den aktuellen Druck bezüglich Konsolidierung und Kostenreduktion nutzen, um sich im Sinne einer Aufbruchstimmung intensiv mit der strategischen Neuausrichtung ihrer IT-Strukturen und deren Fitness für die Erfüllung der Unternehmensziele und Geschäftsprozesse zu beschäftigen. Konzeptionsansätze für die Praxis.

Autor: Von Klaus Kühr, Betzdorf

Kundenorientierte Geschäftsprozesse sowie humane und wirtschaftliche Unternehmensziele erfordern heute auf allen Ebenen, jederzeit und an allen Orten die schnelle, integere und ausfallsichere Verfügbarkeit der "Ressource Information". Die in Unternehmen und Verwaltung bestehenden IT/TK-Infrastrukturen werden sich im Zeitraum bis 2010 global und mobil in alle Geschäftsprozesse integrieren und die hierzu notwendigen Netzzugänge mit angemessener Qualität und Sicherheit zur Verfügung stellen müssen. In diesem Zusammenhang wird sich die Disponibilität dieser Ressourcen als entscheidender Faktor für die Wettbewerbsfähigkeit herausstellen.

Dieser Paradigmenwechsel ist Chance und Herausforderung zugleich. Mithilfe innovativer Konzepte wird er zum Schlüssel für die Realisierung von IT-Infrastrukturen und Data Center neuer Ausrichtung, Prägung und Variabilität für die nächste Generation der IT- und Kommunikationssysteme.

Parallel hierzu zeigt sich ein Trend zu virtualisierten IT-Ressourcen, die eine effektive Informationsverteilung auf einem bisher nicht gekannten Qualitäts- und Sicherheitsniveau erforderlich machen wird. Das Ziel: autonome Infrastrukturen, deren über ausfallsichere Netze verknüpfte Komponenten "IT-Leistung aus der Steckdose" und eine globale Verfügbarkeit von quasi 100 % bereitstellen. Dies bedeutet globales "Information Sharing" ohne Beschränkungen durch Anwendungen, Zugriff auf Daten und IT-Services sowie Betriebsführung, Wartung oder Reparatur der gebäude-, sicherheits- und kommunikationstechnischen Infrastruktur.

Bereits heute müssen Unternehmen ihre IT- und TK-Infrastrukturen aufgrund der vielfältigen Abhängigkeiten von dieser Technologie in ihr Business Continuity Management einbinden. Dies wurde auch von Seiten der Gesetzgebung schon 1998 erkannt und im Gesetz zur Kontrolle und Transparenz in Unternehmen (KonTraG) im Rahmen des von der Unternehmensleitung wahrzunehmenden Risikomanagements verpflichtend festgeschrieben.

Auswirkungen

In Verbindung mit der aus strategischer Sicht und mit Blick auf die Kosten notwendigen Konsolidierung und Rezentralisierung bestehender Strukturen und Ressourcen hat bereits ein großer Teil der Unternehmen und Behörden unter Aspekten von Verfügbarkeit, Sicherheit, Notfall- und Katastrophenvorsorge erhebliche Finanzmittel in redundante und ausfallsichere IT-Systemstrukturen und Komponenten investiert. Diese Investitionen in die Business Continuity bieten jedoch nur dann die angestrebte Sicherheit, wenn bei der Strukturierung und räumlichen Platzierung der Komponenten, bis hin zum Verlauf von Kabeltrassen, die physischen und technischen Aspekte mit angemessener Redundanz berücksichtigt werden.

Data Center als wesentliche Elemente hochverfügbarer IT- und Kommunikationssysteme erfordern in diesem Sinne "Hochverfügbarkeitsinfrastrukturen" baulicher, gebäude- und sicherheitstechnischer Art, deren Betriebs- respektive Ausfallsicherheit den gleichen Sicherheitslevel bieten muss wie die fehlertoleranten Hardware-, Speicher- und Kommunikationssysteme selbst. Diesen Zustand ganzheitlich ausgewogener Betriebs- und Ausfallsicherheit der baulichen, gebäude- und sicherheitstechnischen Infrastruktur auf dem Niveau der ITK-Systeme und -Netze definiert der Autor als "IT-Infrastruktur-Konvergenz".

IT-Infrastruktur-Konvergenz erhält in Verbindung mit der sprunghaft verlaufenden Technikentwicklung der ITK-Hardware eine strategische Qualität, die hinsichtlich der gebäude- und sicherheitstechnischen Infrastruktur von Data Center, Serverräumen, Kommunikationsnetzen und ihrer Betriebsführung aufgrund geänderter Rahmenbedingungen ebenfalls einen "Paradigmenwechsel" erfordert.

[Illustration]
Abbildung 1: Strategie-, Planungs- und Realisierungsphasen bei der Data-Center-Konsolidierung

Rezentralisierung

Unter dem Druck der strategischen Neuausrichtung und Konsolidierung von Unternehmen und Verwaltungen wird die IT-Organisation und die zugehörige IT-Infrastruktur zukünftig zwangsläufig schlanker und zentralistischer sein. In diesem Sinne wird sich die in den 90er-Jahren entstandene Dezentralisierung der Rechenzentren und Serverräume wieder umkehren.

Ein klarer Trend zeigt sich bei der Funktions- und Ausfallsicherheit hin zu einer stetigen, quasi 100%igen IT-Verfügbarkeit ohne "wenn und aber" entsprechend den Geschäftsprozessen und dem daraus resultierenden Nutzerverhalten. Neben den Großunternehmen gilt dies im Zeichen des E-Commerce inzwischen auch für die IT der kleinen und mittleren Unternehmen (KMUs), die zwangsläufig nicht aus dem Vollen schöpfen können und daher intelligente Lösungsansätze mit reduzierten Kosten nachfragen.

Viele Sicherheitsverantwortliche haben bereits gezielte Maßnahmen wie eine Echtzeitspiegelung von Daten sowie den Aufbau von Hochverfügbarkeits-Server-Clustern an getrennten Standorten realisiert oder integrieren derartige Maßnahmen mit hoher Priorität in ihre aktuellen Konzepte zur Konsolidierung und Restrukturierung der ITK-Systeme.

Parallel haben sich Server und Kommunikationssysteme mit Rasanz von den in eigenen Gehäusen eingebauten Komponenten über Rack-Systeme und die so genannten Pizzaboxen zu den nach mehrjähriger Anlaufzeit jetzt in der täglichen Praxis des Massengeschäftes angekommenen Blades weiterentwickelt. Blade-Server ermöglichen durch eine größere Serveranzahl auf der Rack- und somit auch Rechenzentrumsfläche die Installation wesentlich größerer IT-Server- beziehungsweise Systemleistungen und damit eine Reduktion des spezifischen Stellflächenbedarfs oder machen zumindest eine Erweiterung der Stellfläche bei erhöhten Anforderungen überflüssig. Mit dem Einsatz solcher Hardware steigt aber nicht nur die Packungsdichte, sondern gleichzeitig auch die elektrische Leistungsaufnahme der Racks sowie die abzuführende Verlustwärme.

Aufgrund der vielfältigen Abhängigkeiten wesentlicher Planungsgrundlagen von der IT-Strategie und den daraus resultierenden Anforderungen an die Verfügbarkeit, Redundanz, Notfall- und Katastrophenvorsorge der System- und Netzarchitektur ist mit Blick auf die bauliche, gebäude-, sicherheits- und kommunikationstechnische Planung und Realisierung der IT-Infrastruktur umfassendes Generalistenwissen gefragt.

Konzeption, Planung, Realisierung sowie die Betriebsführung von Einzel- und Campusgebäuden mit hoher Durchdringung von IT- und Kommunikationstechnik mit dem Anspruch der Hochverfügbarkeit geht deutlich über den Horizont "normaler" Gebäude- und Sicherheitstechnik hinaus. Aus diesem Grunde sollte man frühzeitig und zusätzlich zu den eingesetzten Architekten und Fachplanern der technischen Gebäudeausrüstung einen generalistischen Berater für IT-Infrastruktur beziehungsweise Data Center einsetzen, der auch über die notwendige Sachkompetenz für die Detailrealisierung verfügt. Der Einsatz eines solchen "Integrators" sollte möglichst schon in der Strategie-, spätestens jedoch in der Konzeptphase in Verbindung mit der Planung und Realisierung von Konsolidierungs-, Restrukturierungs- und damit verbundenen Umbau- und Neubaumaßnahmen erfolgen.

IT-Strategie, Prozesse und Verfügbarkeit

Nach dem Projektstart sind in der Strategiephase zunächst die auf den Unternehmenszielen, Kernkompetenzen und Geschäftsprozessen beruhenden Grundlagen und strategischen Planungsziele zu klären (vgl. Abb. 1). Die Umsetzung sämtlicher Aktivitäten und Maßnahmen muss unter Einbeziehung der allgemeingültigen Maxime für planerische Tätigkeiten erfolgen: Strategie vor Organisation – Organisation vor Technik.

Demnach bestimmen die Verfügbarkeitsanforderungen unternehmenskritischer (mission critical) Anwendungen die strategische Ausrichtung hinsichtlich Qualität, Sicherheit und Notfallvorsorge der System- und Netzstrukturen. Da die geforderte Verfügbarkeit letztlich ausschlaggebend für die zu schaffenden Voraussetzungen und die damit verbundenen Kosten ist, empfiehlt sich eine Kategorisierung, beispielsweise in fünf Verfügbarkeitsklassen (vgl. Tab. 1).

Klasse Art Verfügbarkeit Ausfallzeit/Jahr
1 ausfallsicheres System > 99,9999 % 0d 00h 00m 32s
2 sehr hoch verfügbares System 99,999 % 0d 00h 05m 15s
3 hoch verfügbares System 99,99 % 0d 00h 52m 34s
4 Standard-System 99,9 % 0d 08h 45m 36s
5 Standard-System ohne bes. Anforderungen 99,5 % 1d 19h 48m 00s

Tabelle 1: Verfügbarkeitsklassen mit zugehörigen jährlichen Ausfallzeiten [Tage d Std. h Min. m Sek. s]

Dabei muss neben der Gesamtverfügbarkeit im Laufe eines Jahres auch die im Einzelausfall maximal tolerierbare Ausfallzeit gezielt hinterfragt und nach Abwägung der zu verantwortenden Anforderung festgelegt werden. Unter Vernachlässigung unternehmens- oder projektspezifischer Gesichtspunkte können die Wiederanlaufklassen wie folgt skizziert werden:

Klasse 1: überlebenswichtige Geschäftsprozesse oder Anwendungen mit sofortigen, erheblichen und nachhaltigen Auswirkungen auf Produktion, Umsatz oder Sicherheit

Klasse 2: sehr wichtige Geschäftsprozesse oder Anwendungen mit erheblichen Auswirkungen auf Umsatz, Produktion oder Sicherheit durch Störung der ordnungsgemäßen Abläufe

Klasse 3: wichtige Geschäftsprozesse oder Anwendungen mit greifbaren kalkulierbaren Schäden, die mit Mehraufwand über Ersatzverfahren oder Tools kurzzeitig in reduziertem Umfang weitergeführt werden können

Klasse 4: relativ unwichtige Geschäftsprozesse oder Anwendungen mit der Möglichkeit zum Verschieben über einen begrenzten Zeitraum ohne größere Schäden und Zusatzaufwendungen

Klasse 5: zeitweise verzichtbare Geschäftsprozesse oder Anwendungen sporadischer Nutzung mit der Möglichkeit zur Verschiebung über einen längeren Zeitraum ohne wesentliche Schäden und Störungen

Auswirkungen auf Data Center

Die Verfügbarkeit der IT- und Kommunikationsressourcen bestimmt letztendlich auch die von Seiten der baulichen, gebäude- und sicherheitstechnischen Infrastruktur zu gewährleistenden Qualitäts- und Sicherheitsstandards. Die Verfügbarkeit nach den Klassen 1 und 2, verbunden mit den durch die Business Continuity geforderten Wiederanlaufklassen 1 und 2, lässt sich beispielsweise nur über ein Zwei-Standort-Konzept für Server- und Storage-Systeme mit darauf ausgerichteten LAN- und WAN-Netzanbindungen erreichen. Sofern dann im Störfall der IT-Betrieb vom jeweils nicht-betroffenen Standort übernommen werden kann, sind weitergehende Maßnahmen, wie beispielsweise "Raum-in-Raum"-Konstruktionen, jedoch nicht notwendig und daher verzichtbar.

Bauliche, betriebs- und sicherheitstechnische Ausführung müssen in der Realisierung von den Sicherheits- und Qualitätsanforderungen der IT-System- und Netzarchitektur bestimmt sein. Diese Anforderungen gehen über die Standards von Seiten des Baurechts und allgemeinen Normen hinaus, da diese ausschließlich auf den Personenschutz der in den Gebäuden befindlichen Menschen ausgerichtet sind, nicht aber auf den Schutz empfindlicher Elektronik.

IT-konvergente Gebäude- und Sicherheitstechnik muss mit System- und Leistungsredundanz so strukturiert und realisiert werden, dass auch im Falle von Störungen, Schäden, Wartungen und Instandsetzungen die über Service Level Agreement (SLA) geregelten Klassen der Verfügbarkeit und des Wiederanlauf sichergestellt sind. Oft erweisen sich hier die Details der Umsetzung als Schlüssel zum Erfolg.

Outsourcing

Aufgrund der drückenden Kostensituation verstärkt sich hier der Trend zum Outsourcing. Dabei setzt ein Teil der Unternehmen zur Vermeidung eines Abflusses oder Verlustes von IT-Kompetenz auf Lösungen, die nur die baulichen, gebäude- und sicherheitstechnischen Infrastrukturen und ihren Betrieb als so genannte Colocation-Services "außer Haus" geben – abgesichert auf der Basis vertraglicher SLAs mit konkret festgelegten, mess- und prüfbaren Sicherheits- und Qualitätsanforderungen. Der eigentliche Betrieb der IT- und Kommunikationssysteme verbleibt in solchen Fällen weiterhin komplett in der Verantwortlichkeit des Auftraggebers und Nutzers, wodurch dort dann auch die zum Systembetrieb notwendige Sachkompetenz erhalten bleibt.

Realisiert man ein Zwei-Standort-Konzept komplett mit einem oder zwei Anbietern von Colocation-Services, so verstärkt sich zwangsläufig auch die in der Realität – unabhängig von vertraglichen Regelungen bestehende – Abhängigkeit vom Colocation-Betreiber. Zur Vermeidung oder zumindest Verringerung einer derartigen Abhängigkeit werden häufig auch Lösungskonzepte präferiert, bei denen ein Data Center im baulichen Umfeld des Auftraggebers verbleibt, während der zweite Standort in einem Colocation Center realisiert wird.

Klaus Kühr ist Geschäftsführer der RSG RZ-Sicherheit und Gebäudetechnik GmbH.