SAN oder nicht SAN?
Das ist hier die Frage.

Zwei gegenläufige Meinungen erörtern die Vor- und Nachteile von Speichernetzen für die Hochverfügbarkeit von Daten.

Hochverfügbarkeit per Software

Ordnungsmerkmale

erschienen in: <kes> 2003#4, Seite 24

Rubrik: Systeme und ihr Umfeld

Schlagwort: Hochverfügbarkeit

Zusammenfassung: Dienste und Daten für geschäftskritische Prozesse müssen heutzutage ständig verfügbar sein. Um das umzusetzen, favorisiert Siegfried Reiter Softwarelösungen, die redundant ausgelegte Systeme miteinander verbinden und steuern.

Autor: Von Siegfried Reiter, Köln

Mit durchgehenden Geschäftsprozessketten wächst die Abhängigkeit von hochverfügbaren Informationssystemen. Fällt eines der Glieder aus, ist der gesamte Geschäftsablauf betroffen. Doch wie soll man die Geschäftsprozesse hochverfügbar auslegen, wenn möglich gleichzeitig ihre Leistungsfähigkeit steigern? Dazu muss man die Verfügbarkeit sowohl der Daten als auch der Server gewährleisten, auf denen geschäftskritische Applikationen wie Datenbanken, Anwendungen oder Netzdienste ablaufen. Diese zwei die Geschäftsprozesse tragenden Säulen gilt es auch gegen den Katastrophenfall abzusichern: Fehlbedienung, Stromausfall, Wassereinbruch, Feuer und Anschläge.

Trotz dieses komplexen Anforderungsprofils dürfen die Hochverfügbarkeits-(HV-)-Maßnahmen nicht das Budget der Unternehmen sprengen. Zumal viele Unternehmen heute in wirtschaftlich schweren Zeiten bei IT-Investitionen auf die Kostenbremse treten müssen. Das gilt vor allem für mittelständische Unternehmen, die sich aber genauso wenig wie die Großen Abstriche bei der Verfügbarkeit ihrer Geschäftsprozesse leisten können.

Datenverfügbarkeit alleine reicht nicht

Damit haben die Entscheider in den Unternehmen die Qual der Wahl. Sie können ihr Augenmerk auf die Speichertechnik, auf Network Attached Storage (NAS) oder ein Storage Area Network (SAN) richten. Diese HV-Technologien sichern aber lediglich die Verfügbarkeit der Daten. Bei NAS liegt der Fokus allein auf den Daten hinterlegt in Dateiform auf Plattensystemen. Im SAN können von Haus aus zusätzlich Datenbanken sowie mit Blick auf Backup und Desaster Recovery Bandgeräte in die Hochverfügbarkeitskonstellation einbezogen werden. Für ein solches Plus an Datenverfügbarkeitsbreite muss das Unternehmen tief in die Tasche greifen. Das gilt sowohl für die Produktkosten – Fiber-Channel-Switch-Systeme, neue Speichereinheiten sowie Managementwerkzeuge zur Verwaltung der SAN-Infrastruktur und der Bandgeräte – als auch für die Projektierung dieser komplexen Vorhaben.

Allerdings eröffnen mittlerweile neue Ansätze (etwa von Oracle), den Radius des wesentlich kostengünstigeren NAS auch auf Datenbanken auszudehnen. In diesem Fall werden die Datenbankbereiche, anstatt auf Platte, als Dateien via NAS vorgehalten. Trotz allem sind neben NAS oder SAN zusätzliche Investitionen notwendig, beispielsweise in Server-Cluster, um auch die Verfügbarkeit wichtiger Applikations-Server abzudecken.

Server-Cluster – eine Alternative?

Wieso alles nicht gleich ausschließlich auf Server-Cluster oder auf eine HV-Software setzen, die auf den bestehenden Servern einfach mitläuft? Das ermöglicht es, sowohl den Daten-Servern (Datei-Servern mit ihren Plattensystemen und Datenbanken) als auch den Applikations-Servern (Anwendungs- und Netzdienste-Servern) bis hin zu Management- und Sicherheits-Servern (Firewall- und Zugriffskontroll-Servern) Hochverfügbarkeit zu verleihen. Richtig ausgelegt kann sich das Unternehmen mit beiden HV-Ansätzen zudem komplexe Backups (und ggf. Restores) auf Band ersparen: nämlich dann, wenn die HV-Server-Konstellation inklusive eines zusätzlichen Servers und Datenspiegels über zwei Standorte verteilt wird. Dies entbindet das Unternehmen darüber hinaus vom Aufsetzen und Austesten komplexer Ausfallszenarien.

Doch Vorsicht: Die Funktionalität von Server-Cluster versus purer HV-Software, die auf den bestehenden Daten- und Applikations-Servern mitläuft, driftet weit auseinander, ebenso wie die Kosten, die mit dem einen oder anderen Ansatz verbunden sind. So schließen Server-Cluster in der Regel nur eine Fail-over-Funktion ein: Sie erlaubt es, bei Problemen auf einem der Server des Clusters die Verarbeitung nahtlos dem Ausweich-Knoten zu übertragen. Was aber von Haus aus meist fehlt, ist eine Software zur Datenspiegelung. Diese muss dann von einem Dritthersteller erworben werden – Kostenpunkt pro Server-Cluster ab 30 000 Euro.

Wenn über die Verfügbarkeit der Daten- und Applikations-Server hinaus die Zugriffe der Benutzer auf Daten und Applikationen hoch performant ablaufen sollen, muss außerdem eine Software oder Box zur gleichmäßigen Lastverteilung auf die beteiligten Server, ebenfalls von einem Dritthersteller, angeschafft werden. Der Preis dafür liegt pro Load-Balancer oberhalb der 10 000-Euro-Marke. Darüber erschließt sich dann dem Unternehmen meist auch nur eine Lastverteilung zwischen den Ausgabe-Server, beispielsweise Web-Servern, die den Daten- oder Applikations-Servern vorgeschaltet sind. Das trägt nur bedingt zu einer Performance-Verbesserung bei den Zugriffen auf Daten und Applikationen bei.

Software genügt

Bleibt als letzte Möglichkeit, auf eine HV-Software zu setzen, die unmittelbar auf den betreffenden Servern – Datenbank-, Datei-, Anwendungs- und/oder Netzdienste-Server – läuft. Wie Server-Cluster deckt auch diese Lösung in voller Breite sowohl die Hochverfügbarkeit von Daten als auch von Applikationen ab. Da die HV-Software auf den betreffenden Servern selbst aufgespielt wird, fallen bis auf redundante Server keine zusätzlichen Hardware-Investitionen an. Mit Preisen ab etwa 5 000 Euro pro Server liegen derartige Software-Lösungen zudem deutlich unter den Kosten für Server-Cluster plus Datenspiegelung und Load-Balancing oder gar einer SAN-Installation.

Fail-over, Datenspiegelung und Load-Balancing sind in solchen Software-Lösungen oftmals integriert. Der Betreiber muss also keine Zusatzprodukte von Drittherstellern anschaffen. Alle drei Disziplinen sind zudem unter einer einheitlichen Menüoberfläche zu konfigurieren und überwachen. Der Datenabgleich zwischen den redundanten Systemen wird üblicherweise auf Dateiebene absolviert. Deshalb zieht die Installation der HV-Software keine Veränderungen an den bestehenden Server-Applikationen nach sich.

Darüber hinaus erweist sich die HV-Software als plattformunabhängig: Sie kann auf nahezu beliebigen Servern zum Einsatz kommen: Windows NT, Windows 2000, Sun Solaris, HP-UX, IBM AIX oder Linux. Server-Clustering funktioniert hingegen lediglich auf einer bestimmten Server-Plattform. Der Lastausgleich funktioniert direkt zwischen beliebigen Servern des HV-Verbunds, statt wie beim Server-Cluster zwischen den vorgeschalteten Ausgabe-Servern. Das trägt unmittelbar zur Performance-Steigerung bei den Daten- und Applikationszugriffen bei.

Die Machart der HV-Komplett-Software zahlt sich außerdem für das Unternehmen in einer schnellen und kostensparenden Projektierung aus: Die Anpassung seiner Lösung Safekit verspricht Evidian beispielsweise für den Einsatz im Server-Verbund binnen drei Tagen; schneller gehts für rund fünfzig Systeme von Datenbanken und Web-Servern über Managementanwendungen bis hin zu Sicherheitssystemen, für die fertige Plug-and-Play-Lösungen bereitstehen.

Auch im laufenden Betrieb kann der integrierte HV-Software-Ansatz geringeren Aufwand bedeuten: Für den Fail-over muss ein Administrator per Skript vorgeben, in welcher Form dieser absolviert werden soll. Datenspiegelung und Load-Balancing werden bei solchen HV-Lösungen meist aus einem XML-Dokument (eXtensible Markup Language) heraus gesteuert. Dazu muss der Administrator im ersten Fall die für die Replikation vorgesehenen Kataloge, im zweiten Fall die Algorithmen für die Lastverteilung auf die beteiligten Server eintragen.

Siegfried Reiter ist Senior Consultant bei der Evidian GmbH in Köln.