Kommentar von Thomas Pavel, LSI

Daueraufgabe Rechenzentrums-Beschleunigung

| Autor / Redakteur: Thomas Pavel / Nico Litzel

Der Autor: Thomas Pavel ist Director EMEA Channel Sales bei LSI
Der Autor: Thomas Pavel ist Director EMEA Channel Sales bei LSI (Foto: LSI)

In jeder Netzwerkinfrastruktur, vor allem in Rechenzentren, steht die IT vor einer wahren Sisyphusaufgabe: Hat man einen Leistungsengpass besiegt, taucht an anderer Stelle sofort wieder etwas auf, was die Daten- oder Anwendungsgeschwindigkeit ausbremst. Thomas Pavel, Director EMEA Channel Sales bei LSI erklärt, wie Administratoren gegen immer neue Leistungsengpässe vorgehen können.

Angesichts der Bedeutung und Menge an Daten, denen Unternehmen gegenüberstehen, beseitigen die Verantwortlichen zwar entstandene Engpässe schneller als je zuvor, aber sie werden dem System nicht mehr wirklich Herr: Ständig drosselt ein neues Problem die Performance.

Einige dieser Staupunkte sind altbekannte Dauerbrenner, wie der I/O-Pfad zwischen Servern und Festplatten. Dieser ist stets problematisch, unabhängig davon, ob es sich um DAS oder ein SAN handelt, da die Rechenkapazität und Geschwindigkeit von Mikroprozessoren den Speicher schon vor langer Zeit abgehängt haben.

Virtualisierung und Konsolidierung führen zu neuen Engpässen

Andere, neuere Engpässe entstehen durch den Trend zur Virtualisierung und die Konsolidierung von Servern und Speichersystemen in Rechenzentrums-Clouds. Immer mehr Unternehmen stellen Cloud-Architekturen bereit, um Speicher, die Datenverarbeitung und das Netzwerk in Pools zu verwalten und so die Effizienz und Auslastung von Computing-Ressourcen zu erhöhen sowie Kosten zu senken.

Beim Erhöhen der Effizienz in Rechenzentren ging es bisher im Endeffekt immer um das Ausbalancieren und Optimieren dieser Ressourcen. Diese Kalibrierung erlebt momentan einen radikalen Umbruch durch wesentliche Neuerungen bei Netzwerken, wie den Sprung von 1-Gigabit-Ethernet auf 10 Gigabit und bald auf 40 Gigabit, das Aufkommen von noch schnelleren Prozessoren sowie die zunehmende Bereitstellung von SSDs.

Mit der Virtualisierung steigt die Serverauslastung. Das intensiviert jedoch zugleich interaktive Ressourcenkonflikte hinsichtlich Arbeitsspeicher und I/Os. Noch mehr Konflikte entstehen unweigerlich, wenn große, datenlastige Anwendungen so weiterentwickelt werden, dass sie auf stetig wachsenden Clustern von Zehntausenden Computern ausgeführt werden, die Petabytes von Daten verarbeiten, verwalten und speichern.

Aufgrund dieser dynamischen Veränderungen in Rechenzentren stellt die Wahrung akzeptabler Leistungsniveaus eine immer größere Herausforderung dar. Es gibt durchaus bewährte Möglichkeiten, die häufigsten Engpässe zu beheben – Möglichkeiten, mit denen IT-Manager bessere Karten im hoch dotierten Wettkampf um die Vermeidung von Flaschenhälsen haben.

Schließen der I/O-Lücke zwischen Arbeitsspeicher und Festplatten

Die I/Os von Festplatten sind ein wesentlicher Engpass bei DAS-Servern, SANs und NAS-Arrays. Genauer gesagt: Ein I/O-Vorgang für den Arbeitsspeicher eines Servers dauert um die 100 Nanosekunden, während ein I/O-Vorgang für eine HDD auf Ebene 1 (Tier 1) etwa zehn Millisekunden dauert. Das ist 100.000 Mal länger und würgt die Anwendungsleistung letztlich ab. Die Latenz eines SAN oder NAS ist häufig sogar noch höher, weil sich der Datenverkehr im dazwischenliegenden Netzwerk staut, das auf Fibre Channel, FC over Ethernet oder iSCSI basiert.

Kommentar zu diesem Artikel abgeben

Schreiben Sie uns hier Ihre Meinung ...
(nicht registrierter User)

Kommentar abschicken

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 37988130 / Konsolidierung/TCO)