Netzwerk-Grundlagen – Rechenzentrumsnetze im Umbruch, Teil 8

Server- & Netzwerkvirtualisierung – Strukturaspekte für Konvergenz und Konzentration

12.07.2010 | Autor / Redakteur: Dr. Franz-Joachim Kauffels / Andreas Donner

Vernünftige Virtualisierungskonzepte beinhalten Server, Desktops und das Netzwerk – und verschieben damit gewohnte Strukturen und Ebenen; Bild: Dr. Franz-Joachim Kauffels
Vernünftige Virtualisierungskonzepte beinhalten Server, Desktops und das Netzwerk – und verschieben damit gewohnte Strukturen und Ebenen; Bild: Dr. Franz-Joachim Kauffels

Planung in drei Rechnerebenen

Die Planung in drei Rechnerebenen (RZ-Ebene, Abteilungsrechner-Ebene, Arbeitsplatz-Ebene) spiegelte lange Zeit offensichtlich nicht nur die Bedürfnisse der Anwender, sondern auch das generelle Angebot des Marktes wider. In den letzten Jahren hat man allerdings lernen müssen, dass diese Dreiteilung höchst unwirtschaftlich ist und zudem mehr Probleme aufwirft als den Betreibern lieb sein kann.

Die Server-Virtualisierung ist im ersten Ansatz nichts weiter als die Auflösung der Abteilungsrechnerebene. Moderne, parallel arbeitende Multi-Core-Systeme im RZ können die Aufgaben besser, schneller, billiger und sicherer erledigen. Für die Integration neuer Funktionen muss man keinen neuen Rechner mehr kaufen, sondern lediglich eine neue virtuelle Maschine definieren, die die Aufgaben erledigt.

Alle Aufgaben können damit gleichmäßig über alle Maschinen verteilt werden, was die Auslastung verbessert. Auch wenn ein Virtualisierungskonzept zunächst kompliziert anmutet, bringt es doch in der Praxis erhebliche Vorteile im Betrieb. Das Wandern virtueller Maschinen via Netz über die realen Maschinen lässt einigen Betrachtern die Luft wegbleiben, ist aber dennoch nur ein weiterer Schritt auf einem längeren Weg hin zur Re-Zentralisierung. In diesem Zusammenhang wird eben auch der Wunsch nach einer entsprechenden Integration von Speichersystemen laut, die ja schon seit längerem intern virtualisiert sind.

Und ob Sie es mir nun glauben oder nicht: die Abschaffung der Abteilungsrechnerebene ist so erfolgreich, dass in absehbarer Zukunft auch die Arbeitsplatzrechnerebene zumindest teilweise dran glauben könnte. Die Desktop-Virtualisierung leidet zwar heute noch in einigen Fällen an technischen Detailproblemen, bietet aber einzigartige Möglichkeiten für Sicherheit, Kontrolle und Steuerung der Arbeitsplätze. Diese werden dann zu Terminals der virtuellen Server. Alleine aus der Perspektive des Betriebes ergeben sich vor allem für Standard-Arbeitsplätze derart viele Vorzüge, dass letztlich alleine die sich hier ergebende massive Kostensenkung dem Konzept der Desktop-Virtualisierung Vorschub leisten wird.

All diese Einflüsse waren schon seit ca. fünf Jahren abzusehen, sind aber erst in den letzten 12 – 18 Monaten wirklich über uns hereingebrochen. Dafür aber mit voller Wucht. Immerhin verändert die Virtualisierung das grundsätzliche Bearbeitungsmodell (siehe hierzu auch Abbildung 1).

Nun gibt es eine interessante Frage. Durch die Virtualisierung ändern sich die Verkehrsströme in Netzen rabiat. Das kann man natürlich in einer ersten Welle wie gewohnt durch Überkapazität abfangen. Aber man muss auch bedenken, dass die heutige L2/L3 VLAN/OSPF-Strukturierung vor dem Hintergrund der drei besprochenen Systemebenen entwickelt und optimiert wurde.

Die bange Frage ist nun: kann die fast 20 Jahre alte Strukturierung mit den neuen Entwicklungen Schritt halten? Die Bereitstellung von Überkapazität ist zunächst wie ein Damm. Wie lange hält der Damm? Wann bricht er zusammen?

Generell kann man sagen, dass die Virtualisierung auf der Rechnerebene eine Virtualisierung des gesamten Datenflusses zwischen Anwendung (auf dem virtualisierten Rechner) und Nutzung nach sich zieht; siehe Abbildung 2.

Letztlich entsteht über der „gewohnten“ physikalischen Netzebene eine virtuelle Service-Ebene, wenn man das alles zu Ende denkt; siehe Abbildung 3.

In der Praxis ist es natürlich meist so, dass man die Virtualisierung von Servern nach und nach durchführen wird und nicht schlagartig. Dadurch funktioniert natürlich das bestehende Netz erst einmal weiter. Auf Engpässe wird man dann ggf. schlagartig stoßen. Vielfach leben Netze heute auch davon, dass die Virtualisierungslösungen als solche noch nicht wirklich ausgekocht sind und zunächst einmal eine Performance haben, die weit unter ihren eigentlichen Möglichkeiten liegt.

weiter mit: Oft des Pudels Kern: Unterschiedliche Verantwortlichkeiten Für Server und Netzwerk

 

Weiterbildung für IT-Profis

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 2046044 / Grundlagen)