Cloud Computing: Dedicated Hosting oder virtualisierte Lösung? – Gastbeitrag von Stefan Rühl

Im ersten Teil seines Gastbeitrages über Cloud Computing beschäftigte sich Stefan Rühl mit der Frage “Was ist Cloud Computing?“. Im zweiten Teil geht es um Dedicated Hosting oder virtualisierte Lösung? Dedicated Hosting oder […]

Im ersten Teil seines Gastbeitrages über Cloud Computing beschäftigte sich Stefan Rühl mit der Frage “Was ist Cloud Computing?“. Im zweiten Teil geht es um Dedicated Hosting oder virtualisierte Lösung?

Dedicated Hosting oder virtualisierte Lösung? Diese Frage hängt stark von der eingesetzten Applikation und der Art der Programmierung ab. Nicht alles passt in eine virtualisierte Umgebung. Manches soll auch aus diversen Gründen nicht in einer solchen laufen. So werden häufig Datenbankcluster mit high performance Storage als dedizierte Systeme im managed Service betrieben, wo hingegen Webserver in virtualisierten Umgebungen gut aufgehoben sind. Das bedeutet jedoch nicht, dass ein Datenbankcluster nicht auch in einer virtualisierten Umgebung gut performen kann.

Unmanaged Hosting

Beim unmanaged hosting möchte der Kunde lediglich root Server mit 24×7 Betrieb und ggf. helping / remoute hands gegen Zeitabrechnung. Es werden Server beim Carrier entweder auf Monats- oder Jahresvertragsbasis angemietet, welche mit vollen root Rechten versehen sind. Der Kunde spielt eigenständig ein OS sowie seine Applikationen auf und bucht benötigten Storage hinzu. Diese Variante ist ideal für StartUps mit kleinem Budget oder für Plattformen, mit geringeren Peaks bzw. Userzahlen. Themen wie Skalierung, SLAs und Sicherheit stehen hier nicht im Vordergrund. Eingesetzt werden meist die gleichen Server, wie sie beim managed hosting auch verwendet werden.

Nachteilig bei dieser Lösung ist, dass nur nach Standardprozessen verfahren werden kann. Für individuelle Konfigurationen oder professionelles Consulting sind diese Anbieter nicht aufgestellt. Ein häufig auftretendes Problem sind die Portreduzierungen bei Überschreitung einer gewissen Bandbreite. So drosseln einige Carrier den Gigabit Port des Servers bis zu 10Mbits. Hierdurch bekommt die Plattform meist erhebliche Latenzprobleme. Auch ist der eingesetzte Storage für hohe Userzugriffe meist zu langsam. Die IOps Werte der eingesetzten Systeme sind meist im unteren Bereich angesiedelt. Der Preis spielt hier eine wichtigere Rolle als die Performance.

Kunden, welche Ihr Portal hier starten und erfolgreich sind, wechseln nach kurzer Zeit zu einem managed hosting Anbieter.

Typische Anbieter für unmanaged hosting in Deutschland sind z.B. Hosteurope, Hetzner, Server4You, 1&1, Strato

Dedicated managed Hosting

Beim dedicated managed hosting werden sämtliche Komponenten einer Plattform, also Server, Storage, Firewalls, Loadbalancer etc. dediziert für einen Kunden aufgebaut und 24×7 supportet und überwacht.

Der Vorteil liegt zum einen in den Nutzungsmöglichkeiten. Die Plattform kann für den Kunden individuell aufgebaut werden. Jeder Server kann so konfiguriert und eingebunden werden, wie es für die jeweiligen Dienste optimal ist. Zum anderen werden beim dedicated managed hosting auch individuelle SLAs angeboten. So kann zum Beispiel auf einem wichtigen Datenbankcluster eine Wiederherstellungszeit bei einem Ausfall von wenigen Stunden vereinbart werden und bei den Webservern ein kostengünstigeres SLA von z.B. next business day. Auch werden Themen wie disaster recovery und time to repair besprochen und finden Einfluss in das Design der Plattform und die Auswahl der Hardware.

Weiterhin ist das Thema Sicherheit hier nicht zu vernachlässigen. Eine dedicated Plattform „gehört“ nur einem Kunden. Es besteht keine Gefahr (wenn der Carrier seinen Job ordentlich macht), dass ein anderer Kunde unberechtigterweise Daten einsehen kann. Die Plattform muss nur nach „außen“ abgesichert werden. Auch ist eindeutig, wo die Daten liegen. Dieses kann aus lizenztechnischen Gründen oder nationalen Rechtsunterschieden sehr wichtig sein.

Die Nachteile liegen im Wesentlichen in der Auslastung und in den Kosten. Da hier zwischen verschiedenen Serverdiensten unterschieden werden muss (Datenbank-, Web-, Memcache-, Applicationserver etc.), ist die load auf den einzelnen Servern oft sehr unterschiedlich. Da die Plattform für die zu erwartenden Peaks ausgelegt werden muss kann davon ausgegangen werden, dass zu ca. 70% der Zeit die Plattform maximal zu 70% ausgelastet ist. Meist ist das Verhältnis noch wesentlich ungünstiger. Auch sind die Kosten für die Loadbalancer recht hoch, da diese ebenfalls für die Peaks ausgelegt sein müssen. Dieses Szenario entspricht der Ausgangssituation im oben benannten Beispiel.

Weiterhin nachteilig sind die unflexiblen Leistungsverträge mit den Carriern. In der Regel werden hier 12-, 24- oder 36-Monatsverträge abgeschlossen, welche kein downgrade zulassen – sonder nur ein Hinzubuchen von Leistungen. Dieses wirkt sich insbesondere negativ aus, wenn die Serverindustrie neue Prozessorengenerationen auf den Markt bringen. So haben z.B. die G6 Prozessoren im Gegensatz zu den G5 eine ca. 40% höhere Leistung. Dieses bedeutet, dass eine Serverplattform bei identischer Last um 30% der Server reduziert werden könnte. Hierdurch werden auch 40% weniger Strom, Klimatisierung, Rackspace und RZ Fläche benötigt. Geschieht so ein Generationswechsel bei einer Vertragslaufzeit von 3 Jahren am Ende des ersten Vertragsjahres, so hat der Kunde ein erhebliches Kostenproblem gegenüber seinem neu startenden Mitbewerber.

In Summe lässt sich feststellen, dass ein dedicated hosting eine sehr kostenintensive Form des Hostings darstellt. Im Gegenzug ist es die individuellste Form des Betriebes eines solchen.

Anbieter von dedicated managed hosting sind in Deutschland Interoute, NTT, Telefónica o2, easynet, COLT Telecom, T-Systems.

Shared unmanaged Virtual Hosting

Die Welt der virtualisierten Plattformen, gern auch als Cloud bezeichnet, trennt sich im Wesentlichen in zwei Bereiche. Zum einen in die „private cloud“ – eine dedizierte, gemanagte Plattform mit einer Virtualisierungsschicht (Z.B. Vmware, open nebula, XEN etc.). Die andere Variante ist die „shared cloud“ – eine große virtualisierte Plattform, auf welche mehrere Kunden geschaltet werden.

Als erstes wollen wir uns mit der „shared cloud“ am Beispiel der „Amazon Elastic Compute Cloud (Amazon EC2) & Amazon S3“ beschäftigen. Amazon war einer der ersten Anbieter solcher Lösungen. Inzwischen zieht Microsoft mit „Azure“ nach und auch Google wird sich seine Anteile am Kuchen noch holen.

Amazon hat eine beispiellose Cloud Umgebung für Kunden entwickelt, welche unter dem Namen EC2 angeboten wird. Diese wird ergänzt durch ein dynamisches Storagekonzept – S3.

Der Grundgedanke von Amazon ist, Instanzen mit dynamisch zu- und abbuchbaren Prozessoren und RAM anzubieten. Hierzu können Betriebssysteme und Datenbanken hinzugebucht werden. Der Kunde erstellt seine Instanzen, bucht RAM und Prozessoren hinzu, installiert ein ausgewähltes OS und installiert seine Applikation. Wird zu bestimmten Zeiten mehr Rechenleistung benötigt (Peaks), so können weitere Prozessoren oder RAM hinzugebucht werden. Das Interessante hierbei ist, dass diese, wenn die Lastkurve wieder fällt, zurückgegeben werden können. Ebenso kann Storage dynamisch eingesetzt werden. Der Kunde zahlt also immer nur das, was er für seine Plattform tatsächlich benötigt. Weiterhin gibt es eine dynamische Loadbalancing Lösung, welche ebenfalls über alle RZ Standorte arbeitet. Das Paket rundet sich dadurch ab, dass die Instanzen in verschiedene Rechenzentren auf verschiedenen Kontinenten verschoben werden können – gleichwohl auch der Storage.

Durch ein ausgeklügeltes IP Routing behält der Kunde seine festen IP Adressen.

Somit erhält der Kunde ein System, welches sich genau an seine Lastkurve anpasst und somit keine unnötigen Kosten verursacht.

Das gesamte System wird über ein Webfrontend gesteuert.

Ebenso wie beim unmanaged hosting hat der Kunde keine Servicemanager und Techniker, mit denen er seine Probleme besprechen kann oder sein Wachstum planen und designen kann. Auch hier muss der Kunde einem festgelegten Prozedere folgen und hat kaum Spielraum für individuelle Ansätze.
Themen, wie zum Beispiel komplexe Datenbankcluster im Hinblick auf Performance, disaster recovery etc. werden nicht individuell besprochen. Auch ist beim Thema Storage keine Individualität gegeben. So werden Kleinstdaten von wenigen kByte auf dem gleichen System abgelegt, wie große Videos. Auch werden keine Optionen für schnellen high IO Storage für z.B. performante Datenbanken angeboten.

Der Kunde muss über ein sehr hohes Know-how verfügen, wenn seine Plattform wächst. Auch ist zu beachten, dass hier als Virtualisierungsschicht open nebula eingesetzt wird. Stand heute kann z.B. eine VM Instanz nicht in eine open nebula Umgebung verschoben werden. Das ist aber ein grundsätzliches Thema bei der Auswahl der Betriebsumgebung.

Wichtig ist hier auch die Kosten- und Performancebetrachtung. Benötigt der Kunde über einen langen Zeitraum viele Instanzen, so sehen die Kosten im Vergleich zum managed hosting nicht mehr so interessant aus. Auch skaliert die elastic Cloud nicht linear. Es müssen immer mehr Prozessoren und RAM hinzugebucht werden mit einer abfallenden Gesamtleistung.

Ideal ist diese Plattform für zeitnahe Projekte. Soll z.B. ein Video encodet werden, so kann auf einer ersten, kleinen Plattform die benötigte Software installiert und entsprechende Tests durchgeführt werden. Arbeitet das System zufriedenstellend, werden z.B. 1000 Prozessoren und entsprechender RAM gebucht und der Encodingprozess gestartet. Ist der Job erledigt, wird wieder auf die kleine Basisplattform reduziert. Für solche Jobs ist die Elastic Cloud von Amazon derzeit unschlagbar.

Ein weiterer Punkt ist die rechtliche Komponente. Hier ist zum Beispiel zu fragen, wie sicher Userdaten auf der Plattform sind. Auch muss dem Thema Datenzugriff / Lokale Datenablage eine besondere Beachtung gegeben werden. So dürfen nicht alle Daten, sowohl Userdaten als auch Content, in allen Ländern gelagert bzw. einsehbar sein. Der Kunde muss hier das deutsche Datenschutzrecht genau mit den AGB von Amazon abgleichen, um nicht versehentlich Rechtsbruch zu begehen. Auch fällt in einigen Ländern gehosteter Content unter nationales Recht. Ein Umstand, der unbedingt mit geprüft werden muss.

Nächste Woche: “Private managed Cloud – die Ideale Lösung?”

Tipp: Weitere Artikel zum Thema Cloud Computing gibt es in unserem Special

Zur Person
Stefan Ruehl ist seit fast 20 Jahren im IT-Sales für verschiedene Carrier tätig und hat in dieser Zeit einige der bedeutendsten Web 2.0-Portale in Deutschland beraten und begleitet. In den vergangenen Jahren hat er viele Gespräche mit CIOs, CTOs und CEOs zum Thema Cloud Computing und dessen Vorteile und Risiken geführt. In diesen Gesprächen zeigte sich immer deutlicher, dass die große Herausforderung im Cloud Computing weniger technische, rechtliche oder kaufmännische sind, sondern vielmehr die Vernetzung und Gestaltung von Unternehmensprozessen mit der „Produktion“ und die Annahme neuer Rollensituationen der Mitarbeiter – also eine Top Management-Aufgabe.

Alexander

Alexander Hüsing, Chefredakteur von deutsche-startups.de, arbeitet seit 1996 als Journalist. Während des New Economy-Booms volontierte er beim Branchendienst kressreport. Schon in dieser Zeit beschäftigte er sich mit jungen, aufstrebenden Internet-Start-ups. 2007 startete er deutsche-startups.de.