Suchen

Storage auf der Cebit 2008 Ein nicht repräsentativer Rundlauf

Autor / Redakteur: Rainer Graefen und Nico Litzel / Nico Litzel

Es hat schon was sympathisch Spannendes, wenn man wieder einmal – wie fast jedes Jahr – die Cebit heimsucht. Der Gang in eine x-beliebige Halle am Anfahrtstag offenbart, dass sich, wie jedes Jahr, nichts geändert hat: Es ist überall unaufgeräumt! Die Teppiche sind noch nicht ausgerollt, laute Musik erschwert die Kommunikation, Handwerker stehen gelassen vor halbfertigen Messeständen – und es sind nur noch wenige Stunden bis zur Eröffnung. Es sieht also gut aus.

Firmen zum Thema

( Archiv: Vogel Business Media )

Hans-Dieter Wysuwa, Managing Director Germany bei FSC, erwartet mich auf der Empore von Halle 13, hoch über dem Trubel. Die Treppe nach oben hat eine Steigung von 100 Prozent. Leider haben die Architekten die Kletterhaken zum Anseilen vergessen. Dafür gibt es als kleine Belohnung eine leckere Suppe.

Bei FSC läuft das Speichergeschäft über alle Erwartungen gut. Neben den Big Enterprises hat man jedoch auch das Home Office „auf dem Radar“. Solche Aussagen irritieren mich eigentlich immer, da auch EMC gerade versucht, durch den Einkauf von Iomega neue Einkommensquellen zu erschließen. Herr Wysuwa versuchte, mir den Mund mit einem handlichen RAID-Speicher wässrig zu machen, der fantastisch aussehen würde und zudem funktional sein soll. Mit dem Lob warte ich allerdings noch bis die Redaktion mal ein Testexemplar in die Hände bekommen hat. Einig waren wir uns beide, dass bei der Datensicherung im Home Office das Tape keine Chance mehr hat. Zu umständlich, zu langsam und zu teuer.

Für die professionellen Anwender gelten solche Argumente natürlich nicht, da Tape, sofern gut verwaltet, zu den schnellsten und preiswertesten Speichermedien zählt. FSC ist zudem mit der Centricstor der einzige Hersteller, der eine virtuelle Tapelibrary für Mainframe- und Open-Systems-Umgebungen anbietet. Die Centricstor erweist sich darüber hinaus als Türöffner für die von FSC vorangetriebenen Managed Storage Services.

So um die Jahrtausendwende war das Inhouse Outsourcing auch bei IBM, Hewlett-Packard und Sun schon ein großes Thema. Von dieser Seite hört man über das Thema jedenfalls nicht sehr viel. Datenwachstum, Servervirtualisierung und der daraus resultierende Fachkräftemangel bei gleichzeitiger Budgetstagnation sollen laut Wysuwa die treibenden Kräfte bei den ausgelagerten IT-Service-Providern sein, ihre IT FSC anzuvertrauen.

Später am Abend treffe ich mich dann noch auf ein Bier mit Jean-Jacques Maleval, dem Herausgeber des Storage-Newsletter und profundem Kenner der Storage-Szene.

Double-Take rüstet auf

Am nächsten Tag geht es mit Double-Take weiter. Bei diesem Unternehmen dreht sich alles um Disaster Recovery. „Zielgruppe von Double-Take sind kleine, mittelständische und große Unternehmen“, heißt es in der offiziellen Cebit-Pressemeldung. Und weiter: „Das Team, das vor Jahresfrist noch aus zwei Mitarbeitern bestand, [wurde] erheblich verstärkt.“ Da muss man sich bei IBM und EMC wohl warm anziehen, denkt sich der Journalist.

Trotzdem. Nichts gegen die Technik des Unternehmens, das mit einem Agenten den gesamten I/O-Verkehr auf Windows-Maschinen überwacht und dann auf ein entferntes System kopiert. Auch für VMware Infrastructure 3.0 hat Double-Take inzwischen passende Erweiterungen parat. Anwender, die hier einen Bedarf haben, sollten Disaster Recovery jedoch nicht so sehr von der technischen Umsetzung her betrachten, sondern als einen diffizilen Prozess, in dem die Beantwortung der Frage „Haben wir hier einen Katastrophenfall?“ nach Aussagen von Experten mit das Schwerste ist. Wer möchte schon gerne seine Mitarbeiter mit dem manuellen Wiederherstellen der letzten vier, acht und mehr Stunden Arbeit ohne tieferen Grund beschäftigen?

Pimp my Datacenter: Tagma Store und Bluearc

Nach so viel Software gönne ich mir einen tiefen Schluck aus der Hardware-Pulle. Bluearc heißt das Unternehmen, das bei Fileservices zunehmend Freunde findet. Hitachi Data Systems (HDS) kombiniert die Systeme von Bluearc mit der Tagma Store, um so eine leistungsfähige Infrastruktur zukünftiger, riesiger Unternehmensspeicher aufzubauen. Dazu später mehr.

Im Gegensatz zu den gegenwärtigen Dateiservern setzt man bei Bluearc nicht auf die steigende Performance moderner Prozessoren, sondern auf FPGAs, Field Programmable Gate Arrays, die die diversen Prozesse eines Dateiservices mit schneller Hardware abwickeln. Durch die programmierbare Logik können ebenfalls die Vorteile verbesserter IC-Fertigungstechnik ausgeschöpft werden. Und wenn mehrere Systeme zusammengeschaltet werden, steigen Bandbreite und Performance – das erinnert ein wenig an HPs Nonstop-Technik Himalaya. Dadurch sollen die Bluearc-Systeme wesentlich schneller arbeiten als beispielsweise Netapp-Filer oder Windows Dateiserver. Zudem ist das Dateisystem nicht mehr auf zwölf Terabyte beschränkt, sondern kann, sofern ich mich richtig erinnere, mit 256 Terabyte umgehen.

Für HDS hat die Bluearc-Technik immense Bedeutung. Die ersten Schritte in Dateidienste mit Netapp-Gateway-Filern und später mit einigen eigenen Entwicklungen haben dem Hersteller wohl gezeigt, dass in diesem Bereich eine größere technische Lücke zu füllen ist. Mit Bluearc hat HDS gleich ein größeres Projekt mit der Datev gewonnen und wagt sich nun an ganz neue Herausforderungen.

Den File im Heuhaufen finden

Wie IBM, HP und EMC auch, „leiden“ selbst die großen Storage-Hersteller unter den Bedürfnissen ihrer Kunden, die das Mengenwachstum ihrer unstrukturierten Daten, also so etwas wie dieser Text, in den Griff bekommen wollen. Auf der Cebit stellte man die Data Discovery Suite vor, die fähig sein soll, in dem SAN-und NAS-Heuhaufen strukturierter und unstrukturierter Daten noch in einer erträglichen Zeit die gewünschte Information zu finden. Die eigens dafür konzipierte Suchmaschine, die es auch mit einigen Hundert und mehr Terabyte aufnimmt, war sehenswert. Mittels Datenklassifikation und Indexierung lässt sich die Suche einengen und damit die Suchzeit stark verkürzen.

Hardware auch beim Storage-Virtualisierer Falconstor. Als erste Firma in Deutschland konnte mir Geschäftsführer Guy Berlo stolz die EVA 4400 von HP präsentieren. Man hatte das Enterprise Virtual Array mit dem eigenen Produkt IPstor kombiniert, sodass ein transparenter Array-Failover in Verbindung mir VMwares ESX-Server möglich wird. Für mich bringt die Firma immer das Problem mit sich, dass die alles können, was sich mit Virtualisierungs-Software lösen lässt. Man virtualisiert virtualisierten Speicher, dedupliziert den seit Neuestem, stellt virtuelle Tape Libraries für eine größere Anzahl von Storage-Herstellern her, man kann logische Festplatten für VMware bereitstellen, man kann der VMware-Anwendung aber auch den rohen Speicherplatz präsentieren, damit sie performanter als mit dem VMware-Filesystem auf Speicher zugreifen kann. Diese Firma hat für fast jedes Problem eine Lösung und deswegen ist es aus meiner Sicht auch schwer, diese Firma griffig zu machen.

Infiniband-Ports und Teilchenbeschleuniger

Motherboards scheinen nicht so ganz in die Storage-Welt zu passen. Stimmt natürlich nicht, wie ein zufälliger Besuch bei Supermicro zeigte. Don Clegg, Vice President, hat gerade einen größeren Deal mit dem Genfer CERN, dem europäischen Labor für Teilchenphysik, abgeschlossen. In Genf hatte man die Entscheidung auf Basis günstigerer Stromkosten gefällt. Schließlich kostet die Technik für die Suche nach dem Higg´schen Boson so viel Geld, dass man im CERN für den kostengünstigen wissenschaftlichen Austausch erst das Internet erfunden hat und jetzt schon seit Jahren an Server- und Speichergrids auf Basis von Intel-Standardarchitekturen arbeitet. Interessant an Supermicros Motherboards ist die Tatsache, dass neben den bekannten Schnittstellen für den I/O-Verkehr nun dort auch Infiniband-Ports zu finden sind.

Bei SAP ist es dann genau andersherum. Speicher- und Servervirtualisierung interessiert den Hersteller von betriebswirtschaftlicher Unternehmenssoftware nur so weit, als dass man damit auf eine funktionstüchtige, flexible Hardware aufsetzen kann. Man unterstützt alles, was im Walldorfer Kompetenzzentrum auf Herz und Nieren getestet wurde und legt quasi als Schirm seine adaptive Computing-Infrastruktur Netweaver darüber. An diese kann sich dann jede Anwendung ankoppeln, Hardware-Ressourcen anfordern und sich mit SAP R/3 verbinden.

IBM: einfache Reisekostenabrechnungen mit Atlantik

Freunde der Kollaborationssoftware Lotus Symphony wird es freuen, dass IBM an der Atlantik-Plattform arbeitet, mit der sich Daten aus SAP-Datenbanken extrahieren lassen. Als eine Anwendung wirbt IBM mit Reisekostenabrechnungen, die häufig einer Zustimmung von oben und vor allem einer Kostendeckung bedürfen. Dies und vieles andere ließe sich mit Atlantik wesentlich einfacher abwickeln.

Speichern für (betuchte) Dummies

Doch auch abseits der schmucken Stände der etablierten Hersteller gibt es in Bezug auf Storage Spannendes und bisweilen Kurioses zu sehen: Das 2004 gegründete US-Unternehmen Data Robotics hat „Drobo“ vorgestellt, ein DAS-System (Direct Attached Storage). In dem USB-Festplattengehäuse finden bis zu vier SATA-Festplatten Platz, die Anwender entweder mit den Dateisystemen NTFS oder HFS+ formatieren können. Dank einer eigenentwickelten Speicher-Verwaltungssoftware lassen sich die Disks, die unterschiedliche Kapazitäten aufweisen und von verschiedenen Herstellern sein dürfen, zu einem RAID-ähnlichen Verbund zusammenschalten.

Zwei Platten werden automatisch zu einem quasi RAID-1-Verbund zusammengeschaltet. Gesellt sich eine weitere Festplatte hinzu, so migriert Drobo die Daten automatisch zu einem RAID-5-ähnlichen Verbund. „Automatisch“ ist das Schlüsselwort schlechthin: Der Drobo richtet sich nach Unternehmensangaben beispielsweise an Zahnärzte, Rechtsanwälte oder Fotografen, die nicht willens oder in der Lage sind, sich näher mit IT und speziell Speicherverwaltung zu beschäftigen. Dementsprechend signalisiert der Drobo mit bunten LEDs nach dem Ampelschema den Status und den Füllstand der Festplatten und konfiguriert sich ohne Zutun des Anwenders neu, sollte eine Disk ausfallen oder hinzukommen.

Dass sich der Drobo an ein eher betuchtes Publikum wie Rechtsanwälte und Ärzte richtet, ist auch am Preis zu erkennen: Für das Gehäuse ohne Festplatten stellt das Unternehmen 530 Euro in Rechnung. Beim derzeitigen Euro-Dollar-Wechselkurs müssen sich die Verantwortlichen allerdings vertan haben, denn auf der US-Seite des Herstellers wird der Drobo für 499 US-Dollar (etwa 320 Euro angeboten). Aber auch schon zu diesem Preis gibt es schon ganz brauchbare NAS-Filer, die ein „echtes“ RAID beherrschen, eine bessere Anbindung als USB bieten und nicht zwangsläufig auf proprietäre Software angewiesen sind.

(ID:2011499)