On-Demand Computing und Sicherheit

Ordnungsmerkmale

erschienen in: <kes> 2004#4, Seite 34

Rubrik: Management und Wissen

Schlagwort: On-Demand Computing

Zusammenfassung: Immer genau so viel IT-Ressourcen, wie man gerade braucht, und keine "unnützen" Kosten für "überflüssige" Reserven oder selten benötigte Spitzenauslastung – das verspricht die Idee des On-Demand Computing. Dieser Beitrag liefert eine Annäherung an die neuen IT-Architekturen und ihre Sicherheitsimplikationen.

Autor: Von Thomas Obert, Eschborn

IT-Dienste so einfach und flexibel beziehen wie Strom aus der Steckdose oder Wasser aus dem Hahn? Das ist eine Vision, die langsam immer mehr Gestalt annimmt. Der Wunsch nach bedarfsgerechter und somit kostenoptimaler IT-Infrastruktur mit entsprechenden Software-Lösungen ist deutlich zu vernehmen. Warum müssen Server rund um die Uhr laufen, wenn die eigentliche Rechenzeit nur wenige Stunden pro Tag beträgt? Unser Auto stellen wir doch auch ab, wenn wir auf dem Parkplatz ankommen und nehmen in Kauf, dass wir einen Neustart vor dem Losfahren "riskieren" müssen, was heutzutage ja keine wirkliche Herausforderung darstellt. Die Anforderung ist grundsätzlich sehr einfach zu verstehen: Rechenleistung und sonstige Dienste sollen dann, und nur dann, in Anspruch genommen und abgerechnet werden, wenn man sie braucht. Daran gebunden ist eine bedarfsorientierte Abrechnung der genutzten Services. Bei der Stromlieferung ist das schon viele Jahrzehnte selbstverständlich. Ist es wirklich so schwierig, dieses Prinzip auch auf IT-Dienste abzubilden? Dass alle Elektrogeräte einfach am verteilten Stromnetz arbeiten, liegt vor allem an anerkannten Industriestandards: fest vorgegebene Spannung (240 V), Frequenz (50 Hz), genormte Schnittstellen (Schutzkontaktsteckdosen).

Auch in der Informationsverarbeitung hat man erkannt, dass standardisierte, einfache Schnittstellen eine Grundvoraussetzung für integrative IT-Architekturen darstellen. Was aber On-Demand Computing genau bedeutet, ist bis heute nicht völlig klar definiert (vgl. Kasten). Die Anforderungen an Zeit (eingeschränkter Zeitraum der benötigten Rechenkapazitäten), Leistung (aufwändige Berechnungen oder Konsolidierung vorhandener Daten) und Kosten (Abrechnungsmodelle, die den Aspekten Zeit x Leistung gerecht werden) müssen in ein ausgewogenes Verhältnis gebracht werden.

----------Anfang Textkasten----------

Was ist On-Demand Computing?

Dieser Tage gibt es noch keine standardisierte oder einheitliche Definition von On-Demand Computing. Diverse Schlagworte, Techniken und Konzepte werden jedoch ständig mit dem Begriff On-Demand Computing verbunden:

Grid Computing

Ziel des Grid Computing ist es, die Ressourcen (Prozessorleistung, Speicherkapazität) von vielen verteilten Rechnern zur Lösung eines einzelnen Problems zur gleichen Zeit nutzen zu können. Üblicherweise findet das heute im wissenschaftlichen Bereich Anwendung, beispielsweise in Chemie, Physik oder Astronomie, wo häufig extrem prozessorintensive Berechnungen gefragt sind. Der Einsatz von Supercomputern wäre zwar zu bevorzugen, kommt jedoch aufgrund der hohen Kosten nur selten infrage. Diese Art von On-Demand Computing ähnelt sehr den bekannten Peer-to-Peer-Netzwerken.

Utility Computing

Unter Utility Computing versteht man ein Abrechnungsmodell, das Dienstleister nutzen, um ihren Kunden auf Anfrage Ressourcen- und Infrastrukturverwaltung zur Verfügung stellen zu können. Die Dienste werden entweder nach Verbrauch oder gegebenenfalls auch als spezielle Flat Rates abgerechnet.

Virtualisierung

Das Konzept der Virtualisierung sieht die Bündelung verteilter Ressourcen vor (z. B. Speicher). Damit ist es möglich, virtuelle Ressourcenblöcke zu erzeugen, die real über beliebige geographische und organisatorische Grenzen verteilt sein können. Die Virtualisierung bildet die Grundlage für Grid und Utility Computing.

Self-Management, Adaptive Computing und Autonomic Computing

So genannte selbstheilende Systeme sind bereits seit langer Zeit ein Traum und Wunsch von Informatikern; auch in populären Science-Fiction-Filmen (Matrix, Terminator) bilden sie die Voraussetzung für globale Veränderungen der Gesellschaft. Diverse Konzepte sollen ermöglichen autonome Systeme so zu entwerfen, dass dynamische System-Management-Fähigkeiten nach Bedarf entstehen, vernetzt und eingesetzt werden können. Dabei sollen die verteilten On-Demand-Computer eigenständig und dynamisch auf äußere Umstände und Systemzustände reagieren. IBM nennt diese Funktionalität CHOP-Circles: Self-Configuring, -Healing, -Optimizing und -Protecting.

----------Ende Textkasten----------

Aus Sicht der IT-Manager und CIOs bietet sich noch eine weitere neue Perspektive: Bisher ungenutzte Ressourcen, wie Rechenleistung und Datenspeicher, stehen "zeitweise" in übermäßigem Umfang zur Verfügung. Durch entsprechende On-demand-Architekturen kann man hoffen, diese Überkapazitäten gegebenenfalls zu Geld zu machen. Dies trifft nicht nur auf Serversysteme zu, sondern auch auf Desktops und Laptops der Mitarbeiter: 90 Prozent und mehr der zur Verfügung stehenden Rechenkapazität wird während normaler Büro-Tätigkeiten (E-Mail lesen und schreiben, Präsentationen erarbeiten etc.) nicht benötigt. Die einzigen Anwendungen, die heute wirklich die gesamte Leistung eines Endgeräts fordern, sind 3D-animierte Echtzeit-Computerspiele – diese findet man aber (hoffentlich) nur selten im geschäftlichen Umfeld.

Das Potenzial ist enorm, die Idee nicht einmal neu: Bereits seit 1997 nutzt das US-amerikanische Forschungsprogram SETI auf der Suche nach außerirdischer Intelligenz die nicht benötigte Rechenleistung hilfsbereiter Menschen über das Internet ([externer Link] www.seti.org). Durch Installation eines Bildschirmschoners hilft man, aus dem All empfangene Radiosignale zu analysieren.

[Illustration]
Die Erwartungen von Sun für signifikante IT-Kenngrößen heute und in der Zukunft

Auf dem Markt des On-Demand Computing drängeln sich heute alle großen IT-Unternehmen und präsentieren mehr oder weniger ausgereifte Lösungen für diesen zukunftsträchtigen Bereich. Dabei unterscheiden sich die Angebote im Detail: IBM hat den gesamten Konzern auf die Vision "eBusiness On-Demand" umgestellt. Dahinter verbirgt sich ein konzeptionelles Rahmenwerk zur Identifikation der betriebswirtschaftlichen Anforderungen mit dem Ziel, die bestehende Unternehmens-IT so anzupassen, dass sie die Vorteile von Grid und Utility Computing sowie weiteren Techniken in vollem Umfang nutzen kann ([externer Link] www.ibm.com/e-business/de/).

Mit der On-Demand-Strategie im Rahmen der "Adaptive Enterprise Initiative" verfolgt Hewlett Packard einen ähnlichen Ansatz ([externer Link] www.hp.com/go/demandmore/). Die wesentlichen Angebote (Utility Data Center, Adaptive Management Infrastructure) basieren auf dem Netzwerk-Management-System OpenView. Auch Computer Associates hat angekündigt, seine Unicenter-Lösungen den Anforderungen des On-Demand Computing anzupassen. Während Sun Microsystems sich auf eine Virtualisierung von Rechen- und Speicher-Ressourcen konzentriert, hat Microsoft die "Dynamic Systems Initiative" ins Leben gerufen ([externer Link] www.microsoft.de/ms/management/initiativen/dsi.htm). Ziel ist es, sowohl Hardware, Software als auch Dienstleistungsangebote zu bündeln, um eine Architektur zu formen, die On-Demand-Anforderungen genügt.

Standards als Türöffner

Der Wandel bestehender IT-Architekturen hin zu serviceorientierten Ansätzen ist in vollem Gange. Dienstleistungen (erbracht durch Anwendungsprogramme), die vollkommen auf Internet-Technologie basieren, firmieren gemeinhin als Web Services: Anwendungen kommunizieren dabei durch Nutzung von XML-Dokumenten über http(s). Unternehmensgrenzen lassen sich damit einfach überwinden; dementsprechend wachsen bei Web-Services die Sicherheitsanforderungen deutlich: Durch das Öffnen der Anwendungen werden die Perimetersicherheitseinrichtungen wie Firewall und Proxy-Server teilweise ausgehebelt – die Anwendung selbst muss für Sicherheit sorgen. On-Demand Computing fundiert auf der Idee (Web-)Service-orientierter IT-Architekturen. Ein enger Zusammenhang zwischen den dort entwickelten Standards (z. B. der Security Assertion Markup Language – SAML, [3]) und On-Demand-Sicherheitslösungen der Zukunft ist eindeutig vorhanden.

Allerdings sind die entsprechenden Standards (z. B. [2] für Grid Computing) noch lange nicht verabschiedet und von den marktführenden IT-Unternehmen akzeptiert. Die Konsolidierung wird hier sicher noch einige Zeit in Anspruch nehmen. Lösungsanbieter werden sich aber nur dann etablieren können, wenn Standardkonformität bereits zur Grundaustattung zählt.

Monolithische IT-Architekturen haben grundsätzlich einen enormen Sicherheitsvorteil gegenüber verteilten Anwendungen: alle Informationen und Aktivitäten bleiben lokal. Im Internet ist in den letzten Jahren eine globale Vernetzung von Millionen Rechnern erfolgt – Universitäten, Heimanwender und nicht zuletzt Unternehmen ziehen profitablen Nutzen aus den Möglichkeiten dieser universellen Kommunikation. Mit der Öffnung der Systeme hin zum Internet ergaben sich allerdings auch neue Risiken: Hacker und Viren sind eine stetig wachsende, reale Bedrohung. Mit On-Demand-Technologie nehmen die Risiken weiter zu, beispielsweise durch die Öffnung der zur Verfügung gestellten Services für einen potenziell sehr großen Anwenderkreis.

Manche Trojanische Pferde haben hier den Wandel schon vorweg genommen: In so genannten Bot- und Zombie-Netzen warten kompromittierte Systeme nur darauf, Angreifern bei Bedarf große Mengen verteilter Bandbreite für Denial-of-Service-Attacken oder Spam-Versand zur Verfügung zu stellen. Wenn Programme ohnehin verteilt genutzt werden, ergeben sich naturgemäß auch für Angriffssoftware neue Möglichkeiten.

Die hohe Dynamik von On-Demand-Architekturen stellt eine besondere Herausforderung für die Sicherheitskonzepte bestehender Netzwerke dar: Firewall-Regeln sind das Ergebnis sorgfältiger Analysen und normalerweise alles andere als dynamisch. Aufgrund der Tendenz, On-Demand Computing im Wesentlichen über Web Services zu realisieren, verlagert sich der Schwerpunkt der Sicherheitsanforderungen von der Perimetersicherheit auf die Anwendungssicherheit – die Unternehmensgrenzen verschwimmen.

Eine große Herausforderung bildet dann die Authentifizierung: Die Identität der Netzteilnehmer verwaltet man heute in der Regel in organisatorisch abgegrenzten Bereichen. Jeder von uns kennt (und hasst) die Unmenge an Benutzernamen und Passworten, die man meist benötigt, um auf verschiedene, verteilte Anwendungen zugreifen zu können. So genannte Federated Identities sollen in Zukunft eine Möglichkeit bieten, mit zentral erstellten und vertrauenswürdigen Identitätsmerkmalen eine Vertrauensbeziehung in unterschiedlichen, organisatorisch getrennten Systemen und Anwendungen herzustellen [4]. Hierbei ist jedoch die Frage der jeweiligen Berechtigungen noch nicht berücksichtigt: Woher soll der gerufene Dienst die entsprechende Autorisierungsinformationen beziehen und nachprüfen können? Fragen, die zukünftige Standards adressieren und lösen müssen.

Problemfeld Policies

Nutzt man Dienste über weltweit verteilte Systeme, die den verschiedensten Organisationen angehören, so ist es unwahrscheinlich, dass diese alle den gleichen Sicherheitsrichtlinien genügen. Dennoch muss gewährleistet bleiben, dass die Richtlinien der Dienstnehmer nicht beeinträchtigt oder gar verletzt werden. Es ist wohl unvermeidlich, während des Verbindungsaufbaus zu einem On-Demand-Service die Sicherheitspolicy zwischen den Kommunikationspartnern ad hoc auszuhandeln.

Auch On-Demand-Dienste sind Anwendungen und unterliegen somit dem Gesetz, dass Software nie fehlerfrei sein kann. Da diese Dienste direkt (durch die Firewall hindurch) gerufen werden, ermöglicht dies Schadprogrammen oder Hackern übliche Softwarefehler (Buffer Overflow, fehlerhafte Typprüfung usw.) direkt auszunutzen. Erfolgreiche Angriffe bedeuten auch für die aufrufenden Dienste unmittelbare Gefahr, entweder durch Verbreitungsstrategien (Viren und Würmer) oder die Modifikation der angeforderten Ergebnisse (Informationen). Die Integrität der Dienste muss daher in hohem Maße geschützt werden. Besser sieht es im Hinblick auf Denial-of-Service aus. On-Demand-Architekturen sind hier von Natur aus resistent: Fällt ein Dienst aus, so stehen üblicherweise mehrere Alternativen zur Verfügung.

Die Sicherheit der Kommunikationsebene stellt bereits heute kein großes Problem mehr dar. Durch Transport Layer Security (TLS/SSL) sind starke Verschlüsselung und somit auch Integritätssicherung der Kommunikationswege gewährleistet. Starke Authentifikation mithilfe digitaler Zertifikate ist ebenfalls integriert. Mit dem Einsatz von IPv6 werden weitere Sicherheitsfunktionen direkt in der Netzwerkschicht verfügbar – wann das sein wird, ist jedoch immer noch unklar.

Eine offene Frage stellt hingegen die Nachvollziehbarkeit dar: Beispielsweise müssen Wirtschaftsprüfer auch in Zukunft die ordnungsgemäße Durchführung kritischer Geschäftsanwendungen auditieren können. Wie stellt man das aber an, wenn eine Quartalsabrechnung nach Bedarf auf dynamisch zur Verfügung gestellten Diensten erfolgt? Bis heute gibt es hierauf noch keine zuverlässige Antwort. Auch hinsichtlich des Datenschutzes und sonstiger legislativer Anforderungen (z. B. Sarbanes Oxley) bleiben offene Fragen, wenn Dienste über Landesgrenzen hinweg in Anspruch genommen werden.

Fazit

Auch Outsourcing können IT-Leiter heute nicht mehr "außen vor" lassen: Automatisierte unternehmensübergreifende Abläufe müssen unter höchsten Sicherheitsanforderungen zu realisieren sein – natürlich mit dem Ziel, IT-Kosten einzusparen. On-Demand-Architekturen eröffnen hier ganz neue Outsourcing-Modelle.

Der Kostendruck wird auch weiterhin steigen. IT-Führungskräfte sind angehalten, einen wertvollen Beitrag innerhalb der Wertschöpfungskette im Unternehmen zu leisten. Mithilfe neuer Lösungen zur Nutzung vorhandener, globaler Ressourcen wird zwar die effiziente Auslastung forciert, dies erfordert jedoch eine Öffnung der Anwendungen. Der Trend hin zur serviceorientierten Architektur verstärkt das zusätzlich.

Die Sicherheitsverantwortlichen der Unternehmen sind daher in der Pflicht, rechtzeitig dafür zu sorgen, dass die IT-Verantwortlichen sich von Beginn an mit dem veränderten Risikopotenzial befassen. Der Schwerpunkt der Sicherheitsmaßnahmen wird sich ganz konkret von Infrastrukturmaßnahmen (Firewalls, Virenschutz usw.) hin zur Anwendungssicherheit (Identitätsmanagement, Berechtigungen usw.) verlagern. Erschwerend kommt heute hinzu, dass die erforderlichen Standards meist noch mitten in der Entwicklung stecken. Wenn diese dann letztendlich verabschiedet sind, so dauert es erfahrungsgemäß noch mindestens eine Hardware-Generation (ca. 18 Monate), bis stabile Lösungen auf dem Markt erscheinen.

Thomas Obert (CISM, CISSP) ist Security Compliance Manager im Bereich CTO-SMT der Deutschen Bank AG.

Literatur

[1]
Hans-Rüdiger Vogel, Rechenraster, Sicherheit beim Grid Computing, <kes> 2003#5, S. 6
[2]
Open Grid Services Architecture Security Working Group, [externer Link] http://forge.gridforum.org/projects/ogsa-sec-wg
[3]
Organization for the Advancement of Structured Information Standards, [externer Link] www.oasis-open.org
[4]
Liberty Alliance Project, [externer Link] www.projectliberty.org