Suchen

Back to the Roots: die Mainframe-Architektur lebt im Rechenzetrum neu auf

Shortest Path Bridging: radikal neue Konzepte auf bekannter Basis

Seite: 2/2

Firmen zum Thema

Desktop-Virtualisierung

Der Einsatz von Virtualisierungstechnologien zur besseren Ressourcenauslastung und damit Senkung des Energiebedarfs beschränkt sich indes nicht auf die Rechenzentren. Thin Clients bieten hier eine gute Möglichkeit. Diese bilden ein schickes Front-End für den Nutzer und seine Ein- und Ausgaben. Die eigentlichen Arbeitsprozesse werden wiederum als virtuelle Maschine auf Servern abgebildet.

Individuelle Nutzerprofile mit exakt auf die Aufgaben und Anforderungen abgestimmten Konfigurationssätzen werden bei Netzwerkanmeldung von der Desktop-Virtualisierung, beispielsweise Citrix, auf den entsprechenden Client-Prozess im Back-End-Server übertragen. Der Desktop wandert also letztlich auf die Server, wo wiederum die Rechenzentrumsvirtualisierung greift, die für optimale Ressourcennutzung sorgt.

Die Konsequenzen für das Netzwerk gestalten sich ähnlich denen bei der Server-Virtualisierung: Das Netzwerkmanagement muss hier eben entsprechend mit der Desktop-Virtualisierung zusammenarbeiten, um die Infos für Lage und Art der Desktop-Prozesse auf den Servern zu erhalten – die Anforderungen an die Netzwerkarchitektur sind dieselben wie bei der Server-Virtualisierung, denn auch die Server für die Desktop-Virtualisierung liegen ja im Rechenzentrum.

Möglichst wenige und möglichst energieeffiziente Komponenten

Eine generelle Strategie für die Senkung des Stromverbrauchs in der IT ist es, mit möglichst wenigen aktiven Komponenten auszukommen und die Energieeffizienz dieser Komponenten so weit als möglich zu optimieren. Bei modernen Switches gilt derzeit ein Verbrauch von 3,5 Watt pro 10-Gigabit-Ethernet-Port als vorbildlich.

Dieser noch vor wenigen Jahren unvorstellbar günstige Wert lässt sich zum einen durch die hohen Port-Dichten erzielen, die Switch-Boards heute bieten. Zum anderen verwenden die Top-Player heute sehr stromsparende elektrische Bauteile sowie Netzteile mit einem Wirkungsgrad von 95 Prozent und besser. Dadurch sinkt nicht nur der Verbrauch, es gibt auch deutlich weniger Leistungsverluste, die sich bekanntlich bevorzugt in Form von Wärme manifestieren.

Weniger Wärme bedeutet wiederum weniger Kühlungsbedarf – und damit auch weniger Energieverbrauch für die Klimatisierung. Und wenn eine Komponente weniger Strom verbraucht, können auch die USV-Systeme zum Abfangen von Stromausfällen entsprechend geringer dimensioniert werden. USV-Systeme, speziell solche mit Doppelwandler für höchste Ausfallsicherheit („Online-USVs“), sind systembedingt ziemliche Stromfresser. Jedes eingesparte Watt für den Betrieb wird damit durch Folgeeinsparungen bei Klimatisierung und USV „vergoldet“.

Konsolidierung der Netzwerkinfrastrukturen

In Sachen Reduktion der aktiven Komponenten insgesamt bietet sich eine Vereinfachung und Konsolidierung der Netzwerkinfrastrukturen an. In den vergangenen Jahren wanderten bereits Sprach- und Videonetzwerke auf das Datennetz und künftig werden sicher mehr und mehr auch die Speichernetze (Storage Area Networks – kurz SANs) im gemeinsamen Datennetz aufgelöst.

Aktuell werden SANs noch in großer Mehrzahl in getrennten Fibre-Channel-Infrastrukturen realisiert, die nicht nur komplex zu bauen und aufwendig zu warten sind, sondern auch eine Vielzahl neuer aktiver Komponenten einführen, die Mengen an Strom ziehen. Mit Technologien wie Fibre-Channel-over-Ethernet (FCoE), iSCSI oder auch NFS gibt es heute genügend Ansätze, um SANs in einem IP-Netzwerk abzubilden.

Dabei müssen natürlich auch die speziellen Anforderungen von SANs wie etwa extrem kurze Latenzzeiten und verlustlose Verbindungen entsprechend umgesetzt werden. Letzteres wiederspricht den Konzepten von TCP und dem Ur-Ethernet, die beide als verlusttolerant bezeichnet werden können. Natürlich geht auch hier im Grunde nichts verloren, aber das Nichtankommen eines Pakets muss erst einmal bemerkt und eine Neuübertragung angestoßen werden. In Speichernetzen würden solche Verfahren zu unakzeptablen Antwortzeiten führen.

Konsolidierte LAN-/SAN-Infrastruktur

Eine konsolidierte LAN-/SAN-Infrastruktur muss also in der Lage sein, Pakete aus Speichergeräten mit einer Priorität zu übertragen, die noch weit über der von Sprache und Video liegt und dafür Sorge tragen, dass solche Pakete an keiner Stelle des Kommunikationswegs verworfen werden.

Letzteres lässt sich beispielsweise durch eine angemessene Dimensionierung der Ausgangspuffer eines Switches realisieren. Hersteller wie Alcatel-Lucent unterstützen das physikalische Buffering zusätzlich durch Virtual Output Queueing, einem Mechanismus, der bereits am Eingangsport greift und Pakete nicht herein lässt, von denen klar ist, dass sie am Ausgangsport ohnehin nicht verarbeitet werden könnten. Die einzigen Pakete, die immer herein dürfen, sind eben Storage-Pakete. Der Vorteil dabei ist, dass sich der Switch erst gar nicht mit gefährdeten Paketen beschäftigen muss, was Rechenleistung und damit nicht zuletzt wiederum Energie einspart.

Moderne Netzwerk-Konzepte zielen also auf die sich verändernden Anforderungen in Rechenzentren ab. Server- und Desktop-Virtualisierung, die damit verbundenen Veränderungen bei den Verkehrsströmen (Nord/Süd vs. Ost/West), der Einzug von Storage in das LAN (iSCSI, FCoE, NFS) und nicht zuletzt der Green-IT-Gedanke (mehr erreichen mit weniger Blech, weniger Platz) sind hier als wichtigste Gründe zu nennen.

Alcatel-Lucent führt mit Shortest Path Bridging (SPB) eine revolutionäre Netzwerktechnologie in Enterprise-Netzwerke ein, welche die konsequente Weiterentwicklung von Carrier-Know-how in private Netzwerke darstellt.

Über den Autor

René Princz-Schelter ist Director Presales und Product Marketing bei Alcatel-Lucent Enterprise

(ID:32891280)