Virtuelle Datentransfers erhöhen den Datendurchsatz auf latenzbehafteten Leitungen

Backups zentralisieren durch WAN-Optimierung

Seite: 2/3

Firmen zum Thema

Startpunkt Client

Zu beachten ist, dass Anfragen immer vom Client zum Server durchgereicht werden, um zu gewährleisten, dass die gelieferten Daten zu jedem Zeitpunkt aktuell sind.

Die Nutzlast (Payload) übertragener Daten wird dabei auf Byte-Level mit Hilfe sehr schnell konvergierender String-Search-Algorithmen auf redundante Daten hin untersucht, dabei werden Segmente variabler Länge in Wörterbüchern auf Speichersystemen oder im Hauptspeicher abgelegt und mit einer Referenz respektive mit einem Symbol versehen.

Bildergalerie

Wird ein derartiges Segment mithilfe des String-Search-Algorithmus später nochmals erkannt, wird lediglich das Symbol übertragen, auf der Gegenseite im Wörterbuch nachgeschlagen und die korrespondierende Byte-Sequenz wieder in ein Datenpaket als Payload eingefügt.

Ohne Datentransfer geht es schneller

Die Payload wird bereits bei der ersten Übertragung komprimiert, um schon beim „kalten“ Transfer eine Datenreduktion zu erreichen. Auf der Transportebene werden spezielle Verfahren angewandt, die die verfügbare Bandbreite möglichst schnell voll auszunutzen (darunter Congestion Window Extension, HS-TCP und MX-TCP) und die Anzahl der Roundtrips minimieren.

Mit dem Verfahren der Virtual Window Extension können die Congestion Windows theoretisch eine Größe von mehreren Megabytes erreichen, da anstatt physischer Daten lediglich komprimierte Daten bei Ersttransfers respektive Referenzen auf bereits bekannte Datensegmente übertragen werden, die ihrerseits wieder auf eine viel größere Menge tatsächlicher Daten verweisen.

Besonderheiten in Data-Protection-Umgebungen

Zwei Szenarien sind bei Weitverkehrsstrecken auseinander zu halten:

1. Durch die Integration von WOCs ist es möglich, die über das WAN übertragenen Daten so zu konditionieren, dass die vorgegebenen Ziele für die Übertragungszeiträume erreicht oder noch weiter unterboten werden können.

2. Im Falle gekoppelter Rechenzentren mit angemessenen Disaster-Recovery-Mechanismen herrschen im Vergleich zu herkömmlichen Außenstellen-Anbindungen, völlig andere Randbedingungen, die eine andere Parametrisierung der WAN Acceleratoren verlangen.

Rechenzentren sind in der Regel mit sehr schnellen Leitungen, teilweise mit Geschwindigkeiten von über 100 MBit pro Sekunde, miteinander verbunden. Es werden wenige, oft aber langlebige Sessions zwischen den Sites aufgebaut. Darüber werden große Daten-Repositorien übertragen, Last kann zufällig verteilt und sequentiell auftreten.

Während es bei relativ langsamen WAN-Verbindungen mit großen Delays oft darum geht, die Latenz virtuell zu eliminieren und die WAN-Kapazität stark zu erhöhen – geht es bei Long Fat Networks (LFNs) darum, die verfügbare Bandbreite überhaupt bis zum Kapazitätsmaximum auszulasten rsp. den maximalen LAN-Durchsatz zu erreichen.

weiter mit: Neue Kombination für High-speed Netze notwendig

(ID:2042119)