SAN oder nicht SAN?
Das ist hier die Frage.

Zwei gegenläufige Meinungen erörtern die Vor- und Nachteile von Speichernetzen für die Hochverfügbarkeit von Daten.

Hochverfügbare Daten im Speichernetz

Ordnungsmerkmale

erschienen in: <kes> 2003#4, Seite 20

Rubrik: Systeme und ihr Umfeld

Schlagwort: Speichernetzwerke

Zusammenfassung: Aktuelle Applikationen erfordern große Mengen Massenspeicher mit hoher Verfügbarkeit. Reiner Baumann plädiert für vernetzte Speichertechnik, ohne deren Einsatz er die wachsenden Datenmengen nicht mehr handhabbar sieht.

Autor: Von Reiner Baumann, München

Kaum ein anderer IT-Sektor wächst so stark und stellt so hohe Anforderungen wie die Speicherung von Unternehmensdaten. Laut einer Studie von Forrester Research soll im Jahr 2003 die Speicherkapazität 75 Cent von jedem ausgegebenen IT-Dollar verschlingen. Noch immer verzichten aber etliche Unternehmen auf den Einsatz von Speicher-Servern. Meist nicht einmal aufgrund von ernst zu nehmenden Alternativen, sondern aus Scheu vor hohen Investitionen und dem damit verbundenen Administrationsaufwand.

Erheblich teurer wird es indes, wenn man wartet, bis überholte Speicherstrukturen zusammenbrechen und Datenverluste oder Zugriffsausfälle auftreten. Um derartige Szenarien zu vermeiden, kommt aber über kurz oder lang kein wachstumsinteressiertes Unternehmen um aktuelle Storage-Konzepte herum. Man sollte daher nicht länger "ob?" und "warum?" fragen, sondern über das "wie" nachdenken. Dies beginnt mit einer Evaluierung der verschiedenen Storage-Konzepte und der Überlegung, welches System den Anforderungen des Unternehmens am besten entspricht.

Das klassische Direct Attached Storage (DAS), das Speichereinheiten direkt mit den Applikations-Servern verbindet, scheidet quasi von vornherein aus: Mit seinen stark beschränkten Kapazitäten ist es den Anforderungen moderner Unternehmen nicht mehr gewachsen. Auch als Einsteigerlösung eignet es sich nicht, da ein zentrales Management sehr kompliziert ist, das System eine hohe Fehlerempfindlichkeit aufweist und überproportional teuer ist. Nach Aussagen von McKinsey und Merrill Lynch beläuft sich der Total Cost of Ownership (TCO) während eines Zeitraums von drei Jahren auf 0,84 US-$ pro Megabyte – Storage Area Network (SAN) und Network Attached Storage (NAS) sind da mit 0,38 US-$ beziehungsweise 0,35 US-$ relativ günstig.

Auch angesichts der Prognose, dass sich in größeren Unternehmen die gesamte Datenmenge jedes Jahr in etwa verdoppelt, kommen als Storage-Lösungen nur NAS und SAN in Frage. Beide Konzepte bieten ganz unterschiedliche Vorteile, je nach Anforderungen aber auch Nachteile. Die oft gehandelte Faustregel "NAS für kleinere Unternehmen, SAN für Netzwerke mit großen Datenvolumina" greift jedoch zu kurz. Die Entscheidung für das eine oder das andere Konzept oder eine Verknüpfung beider Architekturen erfordert eine detaillierte Analyse des Ist-Zustands, der Anforderungen sowie der angestrebten Ziele, der finanziellen und personellen Ressourcen für das Storage-Projekt.

Am schwierigsten ist dabei die Einschätzung, welches Konzept dem Unternehmen auch in Zukunft den besten Dienst erweisen kann und doch auch heute im Rahmen des Budgets liegt. Ein günstiges Storage-System bedeutet nicht zwangsläufig, dass es in wenigen Jahren für das dann gewachsene Unternehmen nicht mehr brauchbar sein wird.

SAN: Anspruchsvolles Hochleistungsnetz

Das Storage Area Network ist das schnellste Pferd im Storage-Stall, aber auch das anspruchvollste und teuerste, was sowohl Anschaffung als auch Wartung angeht. Als eigens zu Speicherzwecken eingerichtetes Hochgeschwindigkeitsnetz fasst ein SAN alle Speichersysteme zusammen. Die Anwendungs-Server sind von diesem Storage-Array getrennt. Dadurch entsteht ein zentral verwaltetes System, auf das alle Anwendungen Zugriff haben und in das sich jederzeit weitere Komponenten einbinden lassen.

SAN und Server verbinden so genannte Fibre Channel (Fabric); das lokale Netz (LAN) wird von den Speicher-Datenströmen also nicht belastet und steht komplett dem Datenaustauch zwischen Clients und Servern zur Verfügung. Die Fibre-Channel-Technologie ermöglicht im SAN sehr hohe Durchsatzraten von bis zu 2 GBit/s in weit verstreuten Architekturen mit bis zu 10 000 Metern Abstand zwischen den Geräten. Diese Vorzüge erfordern allerdings beträchtliche Investitionen in Fibre-Channel-Switches, Online- und Nearline-Speicher für die redundante Auslegung und in komplexe Verwaltungs-Tools.

SANs folgen im Prinzip einem heterogenen Konzept, das heißt sie müssen verschiedene Server-Plattformen und Storage-Systeme einbinden können. Dies gibt Administratoren Unabhängigkeit von proprietären Systemen und Flexibilität bei der Komponentenauswahl. In der Praxis ist das jedoch schwierig, denn bislang mangelt es an verbindlichen Standards, welche die Interoperabilität zwischen verschiedenen Herstellern wirklich gewährleisten. Auch das Management einer solchen Lösung ist derart komplex, dass bisweilen die Leistungsfähigkeit des Netzwerks darunter leidet. Ein SAN bietet zwar deutliche Vorzüge in Bezug auf Leistungsfähigkeit und Skalierbarkeit, ist zugleich aber sehr planungs-, administrations- und kostenintensiv.

NAS: Solides File-Server-Konzept

Gut geplant und abgesichert, kann auch Network Attached Storage eine sehr leistungsfähige und dabei wirtschaftliche Speicherlösung sein. Sie bietet deutliche Vorteile beim Data Sharing und wird aufgrund ihrer einfacheren Administration und hohen Zuverlässigkeit häufig dem SAN vorgezogen. NAS schließt die Speichereinheiten direkt an das allgemeine lokale Netzwerk an. Dadurch steht der Speicher im Netz zur Verfügung und jeder Berechtigte kann über das LAN auf Storage-Systeme zugreifen. Um Performance-Engpässe zu vermeiden, sollte daher die LAN-Infrastruktur kräftig ausgebaut werden, für Hochverfügbarkeit müssen alle Verbindungen redundant ausgelegt sein.

Wie bei klassischen File-Servern verwaltet in NAS-Umgebungen das Betriebssystem jeder Einheit den Input/Output (I/O) vom LAN auf die Speicher. Diese proprietären Systeme sind speziell auf schnelles I/O ausgelegt und verwenden dieselben Protokolle wie die Clients: Die Datenübertragung erfolgt per TCP/IP.

NAS-Systeme sind relativ einfach und kostengünstig einzurichten. Ein komplettes NAS-Umfeld lässt sich innerhalb weniger Stunden aufbauen. Das vorhandene File-Server-Konzept bleibt bestehen, was die Hardware-Anschaffungskosten gering hält. Auch die Schulungskosten bleiben im Rahmen, da größtenteils auf vertraute Technik zurückgegriffen wird.

Aber gerade weil sie so einfach zu implementieren sind, wird die strategische Planung häufig vernachlässigt. In einigen Unternehmen stehen Hunderte von NAS-Appliances mit unternehmenskritischen Daten. Dringend notwendige Migrationen, weil beispielsweise ein Server veraltet oder zu klein geworden ist, werden häufig vernachlässigt – oft aus Scheu, den betreffenden Server mitsamt seinen Daten zeitweise offline zu nehmen. Ein effizientes Arbeiten erfordert aber permanente Wartung und Reorganisation, was scheinbar im Widerspruch zum Bedarf nach stetiger Verfügbarkeit der Daten steht.

Für Zeitfenster keine Zeit

Egal ob Ausfälle (Downtimes) aus Fehlern oder geplanter Wartung hervorgehen, sie bedeuten immer eine Produktivitätslücke und damit Umsatzeinbußen. Die Datenverfügbarkeit ist also tunlichst nahe 100 % zu halten, Reorganisationen und Konsolidierungen werden daher meist für Wochenenden und Nächte eingeplant. Je globaler ein Unternehmen agiert, desto mehr Mitarbeiter sind aus unterschiedlichen Zeitzonen auf die Hochverfügbarkeit der geschäftskritischen Applikationen und Daten der Zentrale angewiesen – die Zeitfenster, in denen Storage-Administratoren agieren können, schrumpfen. Gleichzeitig nimmt die Zeit unverhältnismäßig stark zu, die zum Planen und Koordinieren notwendig ist. Die Ausfall- und Arbeitszeiten für das Management belasten als Kostenfaktor das NAS-Projekt und sollten von vornherein in die Entscheidungsfindung mit einbezogen werden.

Die meisten Hilfsmittel bei der Migration sind entweder simple Werkzeuge oder proprietäre Lösungen. Per Network Data Management Protocol (NDMP) lassen sich beispielsweise Daten in Blöcken von einem Ausgangs- zu einem Zielserver transferieren – sofern beide Geräte NDMP unterstützen und der Administrator ein Skript entwickelt, das den Transfer vornimmt. Während des Kopiervorgangs sind aber Zugriffe auf lesende Operationen beschränkt; in der Regel sperren Administratoren den Zugriff während der Migration komplett. Ähnlich synchronisiert das Open-Source-Tool rsync Daten zwischen einer Quelle und den Empfängern: Für Online-Backup, vor allem im Linux- und Netware-Umfeld, eine ausgezeichnete Lösung, aber mit der Mühe verbunden, die Software einzurichten und entsprechende Skripte zu entwickeln.

Spezielle Storage-Management-Appliances können die Arbeit der Administratoren allerdings vereinfachen. Beispielsweise lässt sich Rainfinitys RainStorage bei Bedarf sogar unterbrechungslos in das NAS einfügen, indem man ein Virtual Local Area Network (VLAN) aufbaut; dazu muss das Gerät lediglich am gleichen Ethernet-Switch angeschlossen sein wie die zu migrierenden Server. Sollen Daten von einem System zu einem anderen migriert werden, kopiert die Appliance die Daten vom Ausgangs- zum Zielsystem und überwacht alle wesentlichen Benutzeranfragen: Änderungen auf dem Ausgangssystem dupliziert RainStorage zum Zielserver. Sobald die Daten kopiert wurden, leitet das Gerät alle Benutzeranfragen direkt auf den neuen Server.

Fazit

Die Storage-Frage sollte elementarer Bestandteil der IT-Strategie jedes Unternehmens sein. Selbst eine teure Storage-Lösung ist langfristig kostengünstiger als der Verlust von Unternehmensdaten. Mit sorgfältiger Planung lassen sich aber auch Kosten- und Arbeitsaufwand im laufenden Betrieb deutlich eindämmen. Auch Storage-Management-Lösungen stellen letztendlich Einsparmöglichkeiten dar, da sie den Planungsaufwand der Administratoren deutlich verringern, Wochenend- und Nachtarbeit auf ein Minimum reduzieren und Downtimes eliminieren. Wenn alle diese Überlegungen in die Planung mit einfließen, können vernetzte Speichersysteme all ihre Vorteile zur Geltung bringen und müssen dennoch keine zeit- und kostenverschlingenden Projekte sein.

Reiner Baumann ist Geschäftsführer EMEA bei Rainfinity.