Mobile-Menu

Kommentar von Thomas Pavel, LSI

Mega-Rechenzentren – Pioniere für das Rechenzentrum der Zukunft

Seite: 3/3

Anbieter zum Thema

Einige Beschleunigungskarten mit Flash-Caching unterstützen mehrere Terabyte SSD-Speicher, sodass sie gesamte Datenbanken oder Working-Sets als „Hot Data“ zwischenspeichern können. Auf diese Daten kann bei jeglichem Workload schnell und deterministisch zugegriffen werden, da kein Netzwerk zwischengeschaltet ist und der Datenverkehr daher nicht von Engpässen oder Verzögerungen bedroht ist. Mindestens ein MDC verwendet ausschließlich SSDs und verzichtet völlig auf Festplatten.

In Unternehmen geht es bei Entscheidungen zur Verwendung von SSDs im Allgemeinen hauptsächlich um die Speicherebene und die Kosten pro Gigabyte oder pro I/O-Vorgang. SSDs sind außerdem zuverlässiger, weniger störend, leichter zu verwalten, schneller zu replizieren und neu zu erstellen sowie energiesparender als Festplatten. Die überlegene Leistung von SSDs ermöglicht umfangreichere Ergebnisse mit weniger Servern, Softwarelizenzen und Serviceverträgen, sodass die Gesamtbetriebskosten gesenkt werden.

Pionierarbeit für das Rechenzentrum der Zukunft

MDCs leisten Pionierarbeit für Anwendungslösungen, die weit höher skaliert werden können als jedes kommerziell erhältliche Produkt. Beispiele sind Hadoop-Analysen und davon abgeleitete Anwendungen sowie Clustersysteme für Abfragen und Datenbanken wie Cassandra und Google Dremel. Diese Anwendungen werden nicht nur von Unternehmen eingeführt, sondern inspirieren auch neue kommerzielle Lösungen.

Zwei relativ neue Initiativen versprechen, Architekturen, Kostenvorteile und effiziente Verwaltung von MDCs auf den Markt für Unternehmen zu bringen. Open Compute verspricht eine minimalistische, kosteneffektive, leicht skalierbare Hardware-Infrastruktur für Rechenzentren mit Computing-Clustern.

Ähnlich verspricht OpenStack-Software die automatisierte, clusterbasierte Verwaltung von MDCs auch für Rechenzentren in Unternehmen. Dabei werden Pools von Computing-, Speicher- und Netzwerkressourcen erstellt, die automatisch verwaltet werden – der Heilige Gral des Software-Defined-Rechenzentrums. Einige Architekten vermuten, dass diese Lösungen die Gesamtbetriebskosten um bis zu 70 Prozent senken können.

Außerdem gibt es zurzeit eine MDC-Bewegung, die sich bemüht, Server auf Rack-Ebene zu zerteilen, das heißt, Prozessor, Arbeitsspeicher, Speicher, Netzwerk und Stromversorgung voneinander zu trennen und ihre Lebenszyklen separat voneinander zu verwalten – auch dies, um die Ergebnisse pro ausgegebenem Euro zu verbessern.

Fazit

Indem sich Unternehmensarchitekten auf diese Optimierungen auf Rack- oder Rechenzentrumsebene konzentrieren statt auf die herkömmlich betrachteten Komponentenkosten, können sie umfangreichere Ergebnisse und geringere Ausgaben erreichen. Das führt auch zu Folgevorteilen wie geringeren Kosten für Verwaltung und Wartung. Die heutigen Mega-Rechenzentren sind Experimentierfeld für zukünftige Unternehmens-Rechenzentren. Sie sind treibende Kraft für Innovationen und Effizienzerhöhungen, da sie immer weiter skaliert werden, um der Datensintflut Herr zu werden.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:39547780)