Hyperkonvergente Systeme: Hyperkonvergente Infrastruktur (HCI) einfach erklärt

Schon einmal etwas von Hyperkonvergenz (Hyperconvergence) gehört? Nein? Das sollten Sie aber, die Anforderungen an die Unternehmens-IT steigen kontinuierlich: Immer größere Datenmengen müssen in kürzerer Zeit über die Server laufen, ohne dass dafür mehr Budget zur Verfügung stünde. Deshalb sind im Bereich der IT-Infrastruktur hyperkonvergente Systeme derzeit hochgefragt. Rechenzentren arbeiten heute in der Regel mit zentralen Storage-Systemen. Hyper-converged infrastructure (HCI) beruht hingegen auf normaler Hardware: Rechner mit eingebauten Festplatten oder SSDs. Der große Vorteil dieser Struktur liegt darin, dass alles von einem Ort aus verwaltet werden kann: Virtualisierung, Netzwerk und Speicher.

Was ist eine hyperkonvergente Infrastruktur?

„Konvergenz“ meint zunächst einmal nur, dass mehrere Dinge an einem Punkt zusammenlaufen. So funktionieren auch konvergente Infrastrukturen: Verschiedene IT-Komponenten werden zu einem Paket zusammengefügt. Um die Herausforderungen der Virtualisierung zu meistern, hat man in den letzten Jahren die Konvergenz zur Hyperkonvergenz weiterentwickelt. Die Schritte von traditioneller Infrastruktur zur HCI folgen dabei einer klaren Richtschnur: mehr Effizienz durch Vereinfachung.

Wie ist traditionelle IT-Infrastruktur aufgebaut?

Das Rechenzentrum eines Unternehmens besteht klassischerweise aus mehreren Komponenten: Network, Storage, Compute und (im besten Fall) Back-up/Disaster Recovery. Alle Teilaspekte laufen getrennt voneinander, auf unterschiedlicher Hardware und mit individuellen Software-Lösungen. Administratoren verwalten die Komponenten unabhängig voneinander. Die Komplexität und Individualität der einzelnen Teile macht den Einsatz von Spezialisten nötig. Ein Netzwerk-Administrator ist nicht gleichzeitig in der Lage, die Speicherverwaltung zu übernehmen.

Eine so aufgebaute Unternehmens-IT ist, wenn sie richtig verwaltet und gewartet wird, ein solides System, mit dem sich sehr gut arbeiten lässt. Gleichzeitig ist es aber auch sehr starr und kann nur mit viel Aufwand verändert werden. Neue Komponenten sind teuer, weshalb die Verantwortlichen sie meist nur in längeren Zyklen anschaffen. Wenn sich abzeichnet, dass die bestehenden Mittel nicht mehr den Anforderungen entsprechen, sollen die neuangeschafften Geräte zumindest für die nächsten Jahre genutzt werden. Kapazitäten werden im Voraus und nicht bedarfsgerecht bereitgestellt.

Außerdem reagiert ein solches System sensibel auf Änderungen. Bei der Einrichtung der IT verwenden Administratoren sehr viel Energie und Nerven darauf, alle Elemente so aufeinander abzustimmen, dass ein reibungsloses Arbeiten möglich wird. Neue Komponenten müssen deshalb mit Vorsicht eingebracht werden, weil sie sonst das technische Gleichgewicht stören könnten.

Von der traditionellen zur konvergenten Infrastruktur

Im Vergleich dazu werden in konvergenten Strukturen die einzelnen Bestandteile stärker in einem gemeinsamen Rahmen vereint, einer sogenannten Appliance. Dabei bleiben die Komponenten generell unabhängig voneinander, arbeiten aber Hand in Hand zusammen. Sie werden bereits im Vorfeld vom Anbieter des Komplettsystems aufeinander abgestimmt, damit ein reibungsloses Zusammenspiel garantiert ist. Mit mühevoller Anpassung der einzelnen Hardware-Teile muss sich die IT also nicht mehr befassen.

Das hat auch organisatorische Vorteile: Konvergente Systeme sorgen generell für mehr Ordnung im Serverraum. Die unterschiedlichen Hardware-Komponenten werden in Serverschränken mit direkten Verbindungen zueinander untergebracht. Dennoch bleiben es unabhängige Einzelteile, die auch so gewartet werden müssen – und zwar vom entsprechenden Personal. Wenn der Zeitpunkt für ein Upgrade der Hardware gekommen ist, lassen sich Erweiterungen nicht einfach hinzukoppeln. Das komplette System muss angepasst werden. In diesem Aspekt unterscheiden sich konvergente Systeme nicht von ihren klassischen Vorgängern.

Entwicklungen der Virtualisierung

Der Stand der Dinge heißt Virtualisierung. Statt einzelne physikalische Umgebungen zu erstellen, kreieren Administratoren virtuelle Ebenen, in denen sie Server, Speicher und Netzwerke bereitstellen. So können unterschiedliche Server auf nur einer Plattform laufen. Dies sorgt dafür, dass Ressourcen viel besser ausgeschöpft werden können. Statt vieler einzelner Hardware-Lösungen, die jeweils nur ineffizient genutzt werden, stehen die Mittel in der virtuellen Umgebung für das gesamte System zur Verfügung. Ein Hypervisor (d. i. die abstrahierende Zwischenebene) verteilt die Ressourcen gleichmäßig an die einzelnen Komponenten.

Wichtig für eine funktionierende Virtualisierung ist die schnelle Kommunikation der beteiligten Komponenten. So benötigen beispielsweise auch virtuelle Maschinen Speichernetze. Die sogenannten LUNs (Logical Unit Numbers) können sowohl einfache Festplatten als auch Bestandteile des allgemeinen Speichernetzwerks sein. So oder so muss die Einrichtung durch einen Storage-Spezialisten erfolgen und nicht durch den Administrator für die Virtualisierung. Das führt zu Verlangsamungen in Arbeitsprozessen.

Außerdem ist der sogenannte I/O-Blender-Effekt ein Problem, mit dem Administratoren schon lange zu kämpfen haben: Alle virtuellen Maschinen (bei Virtual Desktop Infrastructure beispielsweise) richten ihre Anfragen (Input/Output) an den Hypervisor, und dort werden sie wie in einem Mixer (Blender) vermengt. Die Speichermedien brauchen dadurch länger, um die angeforderten Daten zu finden. Dies führt schließlich zu Geschwindigkeitsverlusten in der Datenübertragung.

Komponenten für Hyperkonvergenz

Eine hyperkonvergente Infrastruktur beinhaltet unter anderem folgende Komponenten:

  • integrierte Virtualisierung (Hypervisor)
  • virtualisierter Speicher (Software-defined Storage)
  • virtualisiertes Netzwerk (Software-defined networking)
  • Steuerungs-Software

Wie funktioniert HCI?

Hyperkonvergente Systeme wurden geschaffen, um den neuen Herausforderungen an die Unternehmens-IT, allen voran der zunehmenden Virtualisierung, gerecht zu werden. Das Prinzip beruht dabei auf dem Hand-in-Hand-Gedanken der Konvergenz und geht noch einen Schritt weiter.

Ein solches System kommt als Komplettpaket beim Kunden an. Alle Komponenten der Infrastruktur finden sich innerhalb des voreingestellten Systems wieder. Die Infrastruktur läuft dabei über eine virtuelle Maschine auf der Ebene des Hypervisors ab. Die Hardware liegt wie ein gemeinsam genutzter Ressourcenpool darunter. Hyperkonvergente Systeme funktionieren somit prinzipiell wie Cloud-Dienste: Auf einer abstrahierten Ebene werden Services angeboten, die auf virtuellen Servern laufen, wobei die Hardware-Lösung im Hintergrund für den Nutzer weder sichtbar noch von Bedeutung ist. HCI bietet Unternehmen aber – im Gegensatz zu Cloud-Anbietern – den Vorteil, dass ihre Daten vor Ort bleiben.

Das Interessante ist, dass alles auf gewohnter x86-Hardware läuft und Unternehmen keine Spezialanfertigungen benötigen. Das vereinfacht die Wartung. Möglich ist dies, da Hyperkonvergenz auf der Idee eines SDDC (Software-defined data center) basiert. Die verwendete Hardware tritt in den Hintergrund, alle benötigten Komponenten werden durch Software gestellt und verwaltet. So können Ressourcen auch leichter verschoben werden. Die Verwaltungs-Software gibt Administratoren die Möglichkeit, innerhalb der virtuellen Umgebung Rechen- und Speicherleistungen so bereitzustellen, wie sie momentan gebraucht werden. Hardwareseitig sind die meisten hyperkonvergenten Systeme sowohl mit Flash-Speichern als auch mit klassischen Festplattenlaufwerken ausgestattet und bieten so einen guten Ausgleich zwischen Kosten und Performance.

Vorteile von hyperkonvergenten Systemen

HCI senkt die Komplexität von Rechenzentren, was gleichzeitig in einem Anstieg von Effizienz und Produktivität auf verschiedenen Ebenen mündet.

  • Administration: Die Zusammensetzung des IT-Teams verändert sich grundlegend durch die Einrichtung einer hyperkonvergenten Infrastruktur. Ein traditionelles Rechenzentrum zeichnet sich durch viele unabhängige Lösungen aus. Netzwerk, Speicher und Rechenaktivitäten werden getrennt voneinander behandelt – nicht nur, was die Bereitstellung entsprechender Hardware angeht. Auch die Verwaltung dieser Systeme verteilt sich auf verschiedene IT-Experten. Für jede Aufgabe gibt es eigenes Fachpersonal. Bei HCI läuft alles über die gleiche Oberfläche. Alle Überwachungsvorgänge können an einem Ort erfolgen. Das sorgt gleichzeitig dafür, dass Generalisten statt Spezialisten gefragt sind. Diese müssen mit der Infrastruktur als Ganzes umgehen, statt sich ausschließlich mit Teilaspekten zu befassen. Im Endeffekt bedeutet dies auch, dass der Personalbedarf der IT-Abteilung sinken wird.
  • Einrichtung: Bei HCI handelt es sich um All-in-one-Lösungen. Daher basieren sie prinzipiell auf der Idee von Plug-and-Play: Das System kommt an, wird an den Strom angeschlossen und funktioniert. Weitere Einstellungen sind selbstverständlich noch notwendig, aber den Löwenanteil der Einrichtungen hat der Anbieter bereits selbst erledigt. Dies erleichtert auch den Umstieg von einem traditionellen System auf die hyperkonvergente Lösung.
  • Anpassung: Hyperkonvergente Systeme lassen sich um einiges leichter anpassen als eine traditionelle Infrastruktur. Bei dieser ist es notwendig, die Größe von Systemen auf Verdacht zu skalieren. Das heißt, man schafft Komponenten mit der Absicht an, die Leistungen erst in der Zukunft voll auszunutzen. Zum Zeitpunkt der Anschaffung selbst sind die Gegebenheiten für eine effektive Auslastung oft noch gar nicht vorhanden, sodass Ressourcen lange Zeit ungenutzt bleiben. Muss dann allerdings doch wieder aufgerüstet werden, ist dies ein sehr kostspieliger und aufwendiger Prozess. HCI hingegen kann man sehr viel einfacher nachrüsten: Für das System lassen sich relativ simpel Erweiterungen kaufen und ohne Ausfall der kompletten IT integrieren. Dafür muss man nur einen weiteren Knoten in das System integrieren. Das gelingt innerhalb weniger Stunden statt ansonsten mehrerer Wochen.
  • Kosten: Da sich das Administrationspersonal verringert, HCI schneller eingerichtet und einfacher zu erweitern ist, sinken die Kosten im Vergleich zu einem traditionellen System. Zudem ist die Anschaffung in den meisten Fällen sehr viel günstiger. Hinzu kommen geringere Betriebskosten, da Energie eingespart wird. Die Preise der einzelnen Lösungen variieren jedoch: Die Hardware an sich genommen ist kein großer Kostenpunkt, doch die Anbieter lassen sich die Bereitstellung bezahlen. Auch die Software, die bei HCI aufgrund der Virtualisierung enorm leistungsfähig sein muss, hat ihren Preis. Auf längere Sicht dürfte sich dies aber rechnen.
  • Sicherheit: Es hat sich gezeigt, dass hyperkonvergente Systeme sehr viel geringere Ausfallzeiten haben als traditionelle Systeme. Zudem sind in den Komplettsystemen die benötigten Gegebenheiten für Back-ups und Wiederherstellungen bereits installiert und automatisiert. Redundanz entsteht durch die Kopplung von zwei Knoten. Da innerhalb der Infrastruktur alle Komponenten virtuell vertreten sind, kann man ganze Appliances ohne Datenverlust oder Systemausfälle austauschen.
  • Geschwindigkeit: Hyperkonvergente Infrastruktur bietet auch den Vorteil, die Geschwindigkeit in bestimmten Bereichen zu erhöhen. Vor allem Deduplikationsprozesse können effektiver gesteuert werden. Dadurch, dass alle virtuellen Maschinen den gleichen Code verwenden, sind doppelte Daten leichter zu eliminieren. Zudem wird das Problem des I/O-Blender-Effekts gemindert, weil die Systeme komplett aufeinander abgestimmt und auf Virtualisierung ausgelegt sind.

Immer wieder berichten IT-Teams, die auf eine klassische Infrastruktur setzen, dass bei Problemen die Anbieter sich gegenseitig für den Fehler verantwortlich machen, statt Lösungen zu liefern. Dem betroffenen Unternehmen ist aber egal, wer schuld an den Komplikationen ist, sie müssen nur so schnell wie möglich behoben werden. Diese Situation kann bei hyperkonvergenten All-in-one-Lösungen nicht auftreten. Es ist nur ein Anbieter für die Funktion des Systems verantwortlich. Auch wenn dieser Bauteile anderer Hersteller verwendet, bleibt er dennoch der Ansprechpartner und ist damit allein zuständig für Lösungen.

Ebenfalls nicht ganz unwichtig, vor allem für kleinere Betriebe: Platz- und Energiebedarf minimieren sich. Hyperkonvergente Server sind sehr klein gebaut und haben nichts mehr mit den traditionellen riesigen Speicherschränken zu tun. Auch der Energieverbrauch ist geringer, weshalb diese Systeme sogar als umweltfreundlicher gelten – Stichwort: Green IT.

Nachteile der Hyperkonvergenz

Wer sich für ein hyperkonvergentes System entscheidet, setzt auf eine All-in-one-Lösung – alles von nur einem Anbieter. Das bedeutet allerdings auch: Man macht sich von diesem abhängig (Vendor-Lock). Sollte sich der Hersteller als unzuverlässig entpuppen oder sogar den Betrieb einstellen, kann sich das katastrophal auf die Unternehmens-IT auswirken. Auch für Erweiterungen kann man nicht einfach zu einem neuen Hersteller wechseln. Chaos im Serverraum wäre vorprogrammiert.

Dies passiert auch, wenn Unternehmen versuchen sollten, ihre bereits bestehende Infrastruktur mit hyperkonvergenten Systemen aufzurüsten. So ist das System nicht gedacht: HCI soll die bestehende Hardware ersetzen und nicht erweitern. Der Übergang von einer Lösung zur anderen ist zwar vergleichsweise einfach zu meistern, bedeutet aber für Unternehmen, die bereits jahrelang mit ihrer traditionellen Infrastruktur arbeiten, eine klare Zäsur. Die zuvor mit viel Energie und Kosten zusammengestellte Hardware wird durch den Umstieg obsolet. Dessen muss man sich bei der Entscheidung für HCI bewusst sein.

Negativ kann auch einer der vermeintlichen Vorteile des Systems ausgelegt werden: die flexible Erweiterbarkeit. Um das Rechenzentrum an gestiegene Anforderungen anzupassen, wird eine komplette Appliance zur Infrastruktur hinzugefügt. Dieses Produkt umfasst aber das komplette Paket aus Compute, Storage und Network. Auch wenn man eigentlich nur mehr Speicherplatz benötigt, muss man ein Gesamtpaket ordern – und kann dieses nicht individualisieren. Anbieter hyperkonvergenter Systeme führen zwar Produkte in unterschiedlichen Größenordnungen, aber gerade die passgenauen Einstellungen sollen durch diese Art des Rechenzentrums ja vermieden werden.

Hyperkonvergente Infrastruktur oder Cloud: Was ist der Unterschied?

HCI und Cloud-Technologie scheinen auf den ersten Blick sehr ähnlich zu sein, schließlich basieren sie auf dem gleichen Prinzip der Virtualisierung: Ressourcen werden besser ausgeschöpft und die Arbeit für Nutzer erleichtert. Beide Technologien funktionieren mit virtuellen Maschinen, die Dienste bereitstellen. Der Unterschied liegt aber vor allem im Standort und den damit gegebenen Vor- und Nachteilen der Produkte. Während der Cloud-Dienst mitunter weit weg vom Kunden angesiedelt ist (abhängig vom Anbieter sogar über Kontinente entfernt), befindet sich das hyperkonvergente System in den eigenen Räumlichkeiten und unter eigener Kontrolle.

  HCI Cloud
Standort lokal global
Datensicherheit eigener Standard fremder Standard
Betrieb durchgehend bedarfsgerecht buchbar
Zugang LAN/WAN Internet
IT-Team wird benötigt wird weniger benötigt
Kosten Anschaffung & Betrieb Abonnement

Die Frage, ob man sich als Unternehmen für ein eigenes Rechenzentrum mit hyperkonvergenter Infrastruktur entscheiden sollte, ist also abhängig von den Anforderungen des jeweiligen Unternehmens. Gerade kleine Firmen, die nicht mit einer eigenen IT-Abteilung arbeiten, sind bei Cloud-Anbietern gut aufgehoben. Für alle, die in größeren Dimensionen denken, was ihre IT angeht, und die unter keinen Umständen die Kontrolle über ihre Daten in fremde Hände legen möchten, bietet HCI die richtige Lösung.

HCI ist das richtige, wenn …

Der große Vorteil hyperkonvergenter Infrastruktur findet sich in der Vereinfachung der IT: mehr Platz, weniger Hersteller-Chaos, weniger Verwaltungsaufwand. Die neuen Systeme, die auf gewohnter Technik basieren, folgen den Zielen der Converged Infrastructure und erweitern diese um die Virtualisierung aller Komponenten. Das hat nicht mehr viel mit einem klassischem Rechenzentrum zu tun, eine Umstellung kann daher mitunter die komplette System- und Personalstruktur umwerfen.

Die Vorteile der hyperkonvergenten Infrastruktur sind sehr verlockend, für kleine wie große Unternehmen. Die gute Skalierbarkeit gepaart mit vereinfachtem Monitoring und Management machen sie für alle Anwender sinnvoll. Deshalb: Für Gründer und für jedes Unternehmen, das seine IT gerade erst aufbaut, dürfte HCI genau das Richtige sein. Anders sieht es aus, wenn bereits ein vollausgestattetes Rechenzentrum mit gut ausgebildetem IT-Team vorhanden ist. Die Out-of-the-box-Systeme sind nicht für die Eingliederung vorgesehen und bedürfen darüber hinaus andere Technologiekenntnisse. Wenn man die komplett vorhandene Storage-, Server- und Netzwerk-Hardware austauschen und gleichzeitig das Team umstrukturieren muss, ist die Umstellung nicht mehr ganz so reizvoll.

Entwicklungen auf dem IT-Markt sind schwer vorherzusagen, ansonsten hätte es in der Vergangenheit nicht so häufig Fehleinschätzungen von Bedarf und Entwicklungsgeschwindigkeiten gegeben. Es ist aber recht wahrscheinlich, dass Virtualisierungsprozesse auch in der Zukunft nicht an Bedeutung verlieren, weshalb HCI nicht als aktueller Hype abgetan werden sollte. Daher ist der Schritt in diese Richtung – der nicht zwangsläufig Hyperkonvergenz heißen muss – für jedes Unternehmen auf lange Sicht unabdingbar. Den richtigen Zeitpunkt für eine solche Umstellung sollten Unternehmer und IT-Spezialisten aber mit reichlich Bedacht wählen.