Datacore ist trotz Krise im Aufwind

Teixeira rechnet verstärkt mit Software-definierten Speicherarchitekturen

| Autor / Redakteur: Kriemhilde Klippstätter / Nico Litzel

George Teixeira, Gründer und CEO von Datacore Software
George Teixeira, Gründer und CEO von Datacore Software (Foto: Datacore)

Datacore-Chef George Teixeira kam vom sonnigen Florida ins eisige München. Der Hauptgrund: die hauseigene Partnerkonferenz mit rund 300 Teilnehmern. Deutschland ist für Datacore das weltweit umsatzstärkste Land – sogar noch vor den USA.

Teixeira blickt ziemlich gelassen auf das vergangene Jahr zurück, das sich für die Softwareschmiede entgegen aller Befürchtungen – Stichwort Eurokrise – zum erfolgreichsten seit Bestehen des Unternehmens entwickelt hat. In den vergangenen vier Jahren erreichte die Company im Durchschnitt ein jährliches Wachstum von 25 Prozent. 2012 wuchs der Umsatz europaweit um 27 Prozent und in Deutschland sogar um 30 Prozent.

Das ist auch den über 500 Neukunden zu verdanken, die das Datacore-Team gewinnen konnte. „Die System Builder sind für uns ein wichtiger Markt geworden und ebenso die vielen Cloud Service Provider, die es hier in Deutschland gibt“, erklärt Teixeira den Erfolg. In den USA gebe es einige sehr große Cloud-Dienstleister, in Europa – und speziell in Deutschland – dagegen eher viele kleinere.

What's hot in 2013: Virtualisierung, SSDs …

Neben den wirtschaftlichen Ergebnissen präsentierte der CEO zwar keine neuen Produkte – die sollen später im Jahr angekündigt werden – dafür aber die Trendthemen im Speichermarkt, die seiner Meinung nach das Jahr 2013 bestimmen werden.

„Virtualisierung der Tier-1-Applikationen“ nennt Teixeira das, was derzeit stattfindet: „ERP-Systeme, Datenbanken oder OLTP-Anwendungen werden zunehmend virtualisiert.“ Der Grund dafür sei die schiere Notwendigkeit, um wirtschaftlicher und produktiver agieren zu können. Bei der Virtualisierung der geschäftskritischen Anwendungen zeige sich der Storage-Bereich allerdings oft als Bremsklotz. „In den vergangenen zehn bis 20 Jahren hat es unglaubliche Fortschritte in der Computertechnik gegeben, aber nicht im Speicherbereich“, konstatiert der CEO.

Damit die von den virtuellen Maschinen erzeugten speicherintensiven Arbeitslasten auch einigermaßen schnell abgespeichert werden, bedarf es dort höchster Leistung. Die Folge ist, dass der Speicherbereich oftmals überdimensioniert und nicht immer ausgelastet ist. Da sich auf den virtuellen Servern aber die geschäftskritischen Anwendungen häufen, haben Verfügbarkeit und Redundanz Top-Priorität – und fressen so die Kostenvorteile der Virtualisierung oftmals wieder auf.

Inhalt des Artikels:

Kommentare werden geladen....

Was meinen Sie zu diesem Thema?

Der Kommentar wird durch einen Redakteur geprüft und in Kürze freigeschaltet.

Anonym mitdiskutieren oder einloggen Anmelden

Avatar
Zur Wahrung unserer Interessen speichern wir zusätzlich zu den o.g. Informationen die IP-Adresse. Dies dient ausschließlich dem Zweck, dass Sie als Urheber des Kommentars identifiziert werden können. Rechtliche Grundlage ist die Wahrung berechtigter Interessen gem. Art 6 Abs 1 lit. f) DSGVO.
  1. Avatar
    Avatar
    Bearbeitet von am
    Bearbeitet von am
    1. Avatar
      Avatar
      Bearbeitet von am
      Bearbeitet von am

Kommentare werden geladen....

Kommentar melden

Melden Sie diesen Kommentar, wenn dieser nicht den Richtlinien entspricht.

Kommentar Freigeben

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

Freigabe entfernen

Der untenstehende Text wird an den Kommentator gesendet, falls dieser eine Email-hinterlegt hat.

copyright

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Infos finden Sie unter www.mycontentfactory.de (ID: 37765200 / Technische Grundlagen und Konzepte von SSDs)