Systeme und ihr Umfeld

Storagetechnologien

Hochverfügbarkeit im Netz durch WAS?

Von Rolf Lange, München

Die Bedingung für den Internet-Erfolg eines Unternehmens ist die Sicherheit der Daten im Netz. Eine neue Technologie namens Web Attached Storage (WAS) soll die Systemverfügbarkeit erhöhen und zudem auch andere Vorteile des Network Attached Storage (NAS) auf Projekte im Internet übertragen.

Acht Sekunden – das zeigen Studien – länger wartet kein User, bis sich eine Website aufgebaut hat. Bleibt sein Bildschirm so lange leer, wechselt er zur Konkurrenz. Das erklärt, weshalb neben der Performance auch die Verfügbarkeit der Daten im E-Commerce sichergestellt sein muss. Das heißt, mit größeren Bandbreiten sollte das Speichersystem einen höheren Durchsatz ermöglichen und die permanente Verfügbarkeit der Daten sicherstellen. Hier greifen neue Techniken wie etwa ADSL (Asymmetric Digital Subscriber Line), die Hochverfügbarkeit rund um die Uhr gewährleisten sollen. So lassen sich mit ADSL über eine Kupferdoppelader Datenraten von bis zu 8 Mbit/s im Downstream – das heißt von der Vermittlungsstelle zum Teilnehmer – übertragen sowie bis zu 786 Kbit/s in umgekehrter Richtung (Upstream). Eine Studie der International Data Corporation (IDC) belegt, dass sich dieser Aspekt im Gesamtbudget der IT-Branche widerspiegelt: Im Jahr 2003 rechnet IDC mit Ausgaben von insgesamt 8 Mrd. Dollar für die Implementierung entsprechender Systeme.

Um unternehmensintern Daten sicher zu speichern, haben sich in der Vergangenheit zwei Technologien etabliert: SAN (Storage Area Network) und NAS (Network Attached Storage). In beiden Fällen werden die Server und die Speicherfunktionen getrennt. Die Speichersysteme stellen dabei gleichberechtigte Komponenten im Netzwerk dar. Bei NAS sind Appliance Server, die über ein LAN-Interface direkt an das LAN oder WAN andocken, für die Speicherung der Daten zuständig. Durch den arbeitsteiligen Aufbau erfährt die Infrastruktur des gesamten Netzwerks so eine echte Optimierung im Sinne der Thin Server Technologie. Beispielsweise kann eine Vielzahl von Benutzern gleichzeitig auf die Informationen im Netz zugreifen, ohne dass die Performance leidet oder gar die Systemverfügbarkeit in Gefahr gerät. Das stellen eigene CPUs und ein Betriebssystem oder ein Micro-Kernel der "schlanken" Server sicher.

Faktor Internet

Sobald man das Internet einbezieht, kommen neue kritische Aspekte hinzu, die ein sicheres und leistungsfähiges Speichersystem berücksichtigen muss: Während sich der Speicherbedarf in bestimmten Branchen "lediglich" pro Jahr verdoppeln wird, rechnet ein Drittel der im E-Commerce tätigen Unternehmen in den nächsten beiden Jahren mit einer Verzehnfachung des Speicherbedarfs, wie Forrester Research in einer aktuellen Studie belegt. Entsprechend müssen die Systeme skalierbar sein. Auch passende Software-Tools für die Konfiguration, das Monitoring und das Backup/Recovery sind nötig.

Wenn zudem mehrere verschiedene Komponenten in die Infrastruktur implementiert werden sollen, sind offene Standard-Schnittstellen gefragt. Ansonsten treten möglicherweise Kollisionen mit vorhandenen Web und Application Servern, Switches, Hubs oder anderen Hardwarekomponenten auf. Gerade bei großen Internetseiten messen Experten diesem Problem einen hohen Wert bei. Schließlich besteht die Gefahr, dass ständige Systemerweiterungen in unkontrolliertem Wildwuchs resultieren. Replizierte Daten, also mehrfach vorgehaltene Inhalte, die auf Festplatten und anderen Storagemedien unnötig Speicherplatz belegen, sind nur eine der unliebsamen Folgen. Auch das Update, das Backup und das Recovery werden dadurch ineffizient.

Neben der Skalierbarkeit und der effektiven Administration kommt der Stabilität des DV-Systems eine wichtige Rolle zu. Gerade im Business-to-Business-Sektor ist es von enormer Wichtigkeit, Downtimes zu minimieren, oder besser noch vollständig zu vermeiden. Selbst für Unternehmen, die sich direkt an den Konsumenten wenden (Business-to-Consumer-Bereich), können diese Downtimes unermesslich hohe Schäden verursachen – etwa durch einen Imageverlust durch Ausfall. Nicht einmal die Systempflege oder das Backup können im E-Commerce, wie früher üblich, abends oder außerhalb der Stoßzeiten erfolgen, denn die Daten müssen im Web rund um die Uhr verfügbar sein.

Outsourcing

Aufgrund der Komplexität des Datenflusses im Internet haben sich bereits zahlreiche .com-Unternehmen entschlossen, ihre Seiten auf ISPs (Internet Service Provider) und Co-Location Unternehmen auszulagern. Damit werden diese selbst zum ASP (Application Service Provider) und bieten Dienstleistungen wie automatische Datensicherung, den krisensicheren Datenschutz durch redundante Datenhaltung oder den read-only-Zugriff auf Wissensarchive an. Mit dem Outsourcing sind unter dem Gesichtspunkt der Sicherheit jedoch wieder andere Risiken verbunden, schließlich sind die Daten selbst eine unternehmenskritische Komponente.

Der Erfolg im Internet hängt also stark davon ab, wie ein Unternehmen die technischen Hürden meistert. Glaubt man den pessimistischen Prognosen der Marktanalysten der Gartner Group, werden 75 Prozent der derzeit laufenden E-Business-Projekte scheitern, weil sie Mängel in der IT-Struktur aufweisen und künftigen Anforderungen nicht gewachsen sind. WAS stellt sich diesen besonderen Anforderungen des Internets und ist in drei Bereiche gegliedert: Web Caching, Web Serving und Datenspeicherung.

Web Attached Storage

Bei den Caching Appliances handelt es sich um eine besondere Form der Appliance Server, die als temporäre Zwischenspeicher für Webinhalte und FTP (File Transfer Protocol)-Dateien dienen. Webinhalte, die der Kunde häufig nachfragt, liegen so in lokaler Nähe – anstatt irgendwo im World Wide Web. Damit wird zum einen der Web Server selbst entlastet und zum anderen gelangen die Inhalte schneller zum User. Darüber hinaus bringt der Web Server mit einem vorgelagerten Caching Server wiederum mehr Performance. Das aufwendige, zusätzliche Spiegeln von Informationsinhalten entfällt. Ein weiterer Vorteil liegt in der Reduzierung des Datenverkehrs auf der WAN (Wide Area Network)-Leitung. So lassen sich wiederholte Zugriffe auf ein bereits gespeichertes Objekt aus dem Cache-Speicher bedienen, anstatt erneut eine HTTP (Hypertext Transfer Protocol)-Verbindung zum Host aufzubauen (Forward Proxy). Der Browser des Kunden setzt die abgerufenen Seiten dadurch schneller zusammen, während zugleich die Bandbreite des WANs geschont wird. Das Resultat sind messbare Kostensenkungen für den Internet-Dienstleister und den Webhosting-Provider. Er muss nur ein einziges Mal Speicher erwerben – Telekommunikationsverbindungen schlagen dagegen rund um die Uhr zu Buche.

Die zweite Komponente der WAS-Architektur, das Web Serving, bietet den Unternehmen die Möglichkeit, Thin-Server-Technologien als Web Server einzusetzen. Die Daten werden auf einem dedizierten Fileserver gespeichert. Verglichen mit den üblicherweise genutzten Web-Servern vermindern sich so die Administrationskosten auf der Server-Seite. Der Web-Server moderiert dabei die Interaktionen zwischen dem User und den Applikationen über HTTP, Skripts oder Servlets, also serverseitigen Applets. Dagegen stellen die Application Server etwa die E-Commerce-Anwendungen zur Verfügung oder regulieren die Datenbank-Transaktionen. Web Serving bezieht sich also auf alle dynamischen Daten, die eine Site beinhaltet.

Die Datenspeicherung schließlich trennt WAS komplett von den Web oder Application Servern. Das erleichtert das Backup. Auch die Inhalte der Webseiten lassen sich damit immer wieder einfach und zügig updaten. WAS macht so auch neuartige E-Commerce-Lösungen möglich, die eine Verarbeitung enorm großer Datenmengen erfordern.

Interne Struktur

Die interne Architektur des WAS basiert rein auf Software. Um eine Datenanfrage durch einen WAS-Befehl auszulösen, werden generell drei Software Layer durchlaufen. Zuerst natürlich der Standard-Protokollstapel TCP/IP (Transmission Control Protocol/Internet Protocol). Anschließend transportieren die File Sharing Protokolle NFS (Network File System) oder CIFS (Common Internet File System) im Kopf des Pakets die Informationen für das Datenhandling. Dadurch wird das WAS zur offenen Lösung. Seit sich NFS und CIFS quasi zum Industriestandard etablieren konnten, haben beinahe alle Web und Application Server diese Protokolle in ihre Systemsoftware integriert. Weil WAS beide File Sharing Protokolle versteht, kann ein Linux-Server, der NFS spricht, auf die gleiche Datei zugreifen wie eine Windows NT Applikation, die auf CIFS basiert.

Die Metadaten werden dabei durch das Protokoll Layer weitergegeben. Das Filesystem nutzt diese, um die Adresse der Speicherblöcke und die Sicherheitsinformationen der Dateien zu bestimmen. Anschließend leitet es die Anfrage an den Speichercontroller weiter, der letztlich die physikalische I/O (Input/Output)-Operation auf der Festplatte durchführt. Der gesamte Prozess läuft dabei unabhängig von einem Betriebssystem ab und verlangt keine spezielle teure Hardware.

Vorteile

Eine Kernfunktion von WAS ist es Daten zu bewegen. Dadurch werden schnellere Ladezeiten erreicht und gegenüber alternativen Speichersystemen vor allem höhere uptime-Zeiten. Im E-Commerce sind deshalb Speichersysteme mit Disk Arrays, die direkt an den Server angeschlossen werden, keine adäquate Lösung. Denn hier erweist sich das Internet als erfolgskritische Anwendung im Unternehmen. Zu risikoreich und zu hoch sind die Gefahren von Datenverlusten oder schlichter Systemüberlastung bei vielen Zugriffen. Auch Downtimes, die aus Administrationsproblemen resultieren, sind nicht zu unterschätzen. Gerade weil das Internet eine netzbasierte Welt ist, muss sich auch ein Speichersystem auf diese Umgebung stützen wie beim NAS bzw. WAS.

Eine IDC-Umfrage unter Anwendern hat gezeigt, dass deutlich niedrigere operationale Kosten und verbesserte Client/User-Zufriedenheit typischerweise aus der Installation und der Verwendung spezialisierter NAS-Plattformen resultieren. Der kritische Faktor, der hinter der Performance bei Webseiten steht, ist demnach die Effizienz, mit der der Provider die Daten zur Verfügung stellt. Genau das wird in Zukunft die Spreu vom Weizen trennen. Denn Internetseiten basieren nicht mehr nur auf reinem HTML-Code.

Speicherintensive Dateiformate erobern schon heute die Pages. Während die altbekannten und ebenso beliebten jpg-Files nur etwa 20 kB groß sind, steigt der Bedarf an Speicherkapazität durch neue Dateiformate wie Shockwave, Realplayer oder MP3. Die Speichersysteme müssen aus diesem Grund schon heute auf morgen vorbereitet sein. Die Sicherheit und damit permanente Verfügbarkeit der Daten bilden das Fundament für den Erfolg im Internet.

Rolf Lange ist Geschäftsführer der Auspex Systems GmbH, München

© SecuMedia-Verlags-GmbH, D-55205 Ingelheim,
KES 3/2000, Seite 40