Haben HANA-Boliden bald das Nachsehen? SAP will HANA auf Scale-out-Architekturen laufen lassen
Mit einem HCI-Zertifizierungsprogramm will SAP die Hardwarebasis für seine In-Memory-Datenbanklösung erweitern. Doch ehe SAP die Systeme für HANA-geeignet erklärt, sind einige Hürden zu überwinden.
Anbieter zum Thema

SAP HANA ist eine Erfolgsgeschichte. Dasselbe gilt für hyperkonvergente Infrastrukturen. Was liegt da näher als beide zu koppeln? Immerhin hat inzwischen nahezu jeder große Anbieter auch ein HCI-System in seinem Portfolio.
Das Konzept, Storage und Server unter einem Management-Dach zu vereinen und Infrastruktur durch das Hinzufügen mehr oder weniger gleichartiger Bausteine zu skalieren, reizt Anwender, die nicht mehr mühselig und kostenträchtig allerlei Komponenten unterschiedlicher Hersteller zu einer Infrastruktur verschweißen wollen.
HCI-Marktführer ist derzeit die Firma Nutanix, die inzwischen knapp 300 Millionen Dollar im Quartal umsetzt. Weitere Anbieter sind beispielsweise HPE mit dem Aufkauf Simplivity, dem soeben durch Akquise eine Netzwerkkomponente hinzugefügt wurde, und Dell EMC mit VxRail. IBM dagegen betreibt Nutanix zertifiziert auf seinen Power-Prozessoren.
Maßgeschneiderte Lösungen
Folgerichtig beginnt SAP damit, HCI-Infrastrukturen für HANA fit zu machen. "Wir haben derzeit mit der Zertifizierung von fünf HCI-Systemen begonnen", erklärt Martin Heisig, Head of SAP HANA Technology Innovation Ecosystem und damit unter anderem für diese Aufgabe zuständig. Abgeschlossen ist noch keine Zertifizierung.
SAP öffnet damit die Hard- und Softwarebasis im Rahmen des TDI- (Tailored Datacenter Integration) Programms noch etwas weiter: Neben teuren reinen SAP HANA-Spezialsystemen durften mit SAPs Segen zunächst Shared-Storage, dann gemeinsam genutzte Netzwerklösungen, im dritten Schritt Lösungen mit einer Xeon E5-Einsteiger-CPU, danach Lösungen mit Power-CPU von IBM und schließlich Systeme für kundenspezifische Workloads auf Infrastrukturen mit Intel Skylake SP, E7 und IBM Power 8 eingesetzt werden.
Unter dieser Kategorie laufen die HCI-Systeme. Geplant ist demnächst auch OpenStack und Container-Infrastrukturen ins SAP HANA-Universum einzubeziehen. Parallel zu den Zertifizierungsprogrammen werden entsprechende interne Ressourcen aufgebaut. Heisig: "Am Anfang waren wir hier mit der Handvoll zertifizierter Spezialsysteme sehr vorsichtig, nun kommen immer mehr hinzu, damit wir auf dem aktuellen Stand der Technik sind und Anwender größere Auswahl haben."
Dabei dürfte auch eine Rolle spielen, dass nicht jeder HANA-interessierte Anwender bereit ist, für ein HANA-Only-System tief in die Tasche zu greifen. Schließlich versucht man in den IT-Abteilungen schon seit vielen Jahren, sich vom "Säulenwesen" zu verabschieden und zu einer vereinheitlichten, durchgängig virtualisierten und mit Cloud-Schnittstellen versehenen Infrastruktur zu finden. So wollen CIOs Flexibilität und Agilität gewinnen und nebenbei vielleicht Kosten sparen.
Immer Ärger mit den Abstraktionsebenen
Doch vor die HANA-Zertifizierung haben die SAP HANA-Spezialisten eine Reihe hoher Hürden gebaut, an denen sich nun die HCI-Anbieter abarbeiten. Die Crux liegt hier in der softwaredefinierten Infrastruktur: Im Grunde muss wie früher im Storage-Segment, als ellenlange Kompatibilitätslisten das Bild bestimmten, wieder einmal jede Infrastrukturvariante separat getestet und freigegeben werden. Das mutet anachronistisch an. Doch, so Heisig: "HANA ist hardwarenah programmiert, deshalb müssen wir hier sorgfältig vorgehen."
Die Anbieter von HCI bestimmen selbst, welche Konstellationen sie als erstes zertifizieren lassen. Kriterium ist dabei hoffentlich die vorhandene oder vermutete Nachfrage, aber Genaues ist nicht bekannt. HCI-Marktführer Nutanix, derzeit gerüchtehalber im Zertifizierungswettlauf besonders weit fortgeschritten, verweigert auf Anfrage von Storage-Insider jegliche Auskünfte. Man befinde sich in der Schweigeperiode vor Bekanntgabe der Zahlen und könne deshalb keine Informationen über den Fortgang des Zertifizierungsprozesses nach außen geben, sorry.
Gesucht: Die optimale Konfiguration
Wie geht die Zertifizierung vonstatten und was muss eine HCI-Infrastruktur können, damit sie das begehrte SAP HANA-Zertifizierungssiegel erhält? Die interessierten Anbieter erhalten eine Art Testhandbuch. Sie müssen die darin aufgeführten Aufgaben mit aus dem Netz herunterzuladender Testsoftware selbst durchführen und die hoffentlich zufriedenstellenden Ergebnisse dokumentieren. Treten Schwierigkeiten auf, hilft SAP mit Beratung aus.
Die erste Gruppe an Tests im Rahmen der TDI-KPI-Prüfungen befasst sich mit klassischen Server- und Storage-Kennzahlen, also beim Server mit der CPU- und Memory-Ausrüstung, bei Storage mit der Verzögerung beim Speicherzugriff (< 1 Millisekunde (ms), Leseleistung (<400 MBit/s für einen 64-MByte-Datenblock), Überschreibleistung (<30 MByte/sec für 4K-Datenblöcke), Speicher- und I/O-Bandbreite etc. In diesem Stadium geht es vor allem darum, die passende Konfiguration beispielsweise für die Anbindung des Storage zu finden.
Heisig: "Das kann durchaus Wochen oder Monate dauern, denn mit Standard-Settings schafft man die Zertifizierung oft genug nicht." So müssen beispielsweise häufig Cache-Settings angepasst werden. Ist die richtige Konfiguration erst einmal vorhanden, könne die erste Testbatterie schnell durchlaufen werden – das Ganze dauere unter einer Stunde. Ein besonderes Problem sei hier das Skalierungsverhalten von HCI – es lässt sich laut SAP kaum verlässlich nachstellen.
Bei Datenbanken zählt immer noch die Transaktionsleistung pro Zeiteinheit
Die zweite Gruppe an Tests umfasst die Leistung bei analytischen Verarbeitungslasten, also Algorithmen wie Data Warehouse oder Analytik. Sie sind eher lese- als schreibbetont. Getestet wird von den OLAP- (Online Analytic Processing) Testalgorithmen neben der Fähigkeit, alle wichtigen HANA-Funktionen auszuführen, besonders das Ändern von Daten und das Lesen.
Gemessen werden beispielsweise die Gesamtlaufzeiten von Lasten, die Zahl der verarbeiteten Anfragen pro Stunde, die Zahl der ausgewählten Datenbankeinträge und die Gesamtlaufzeit komplexer Anfragen in Sekunden. Auch die Leistung beim Ausfall einzelner Nodes und die Leistung bei Skalierung des Systems sind Thema.
Die dritte Testgruppe überprüft die Leistung der Geräte bei klassischen OLTP-Lasten. Dabei werden Massendaten massiv parallel weggeschrieben, um festzustellen, ob dabei die Konsistenz der Daten gewahrt bleibt und wo die Auslastungsgrenzen der Systeme liegen. Ersteres ist besonders bei verteiltem softwaredefinierten Storage im Tagesbetrieb kritisch.
Getestet werden Werte wie maximale Transaktions- und Anfragezahlen pro Stunde. Die Auslastung wird bei verschiedenen Auslastungsgraden zwischen 30 Prozent und der Obergrenze der jeweiligen Systemfähigkeiten getestet. Heisig: "Die liegt bei manchen Systemen bei 80 Prozent, bei manchen höher." Zu niedrig dürfe der obere Prozentwert aber nicht ausfallen, wenn die Zertifizierungskriterien erfüllt werden sollen. Die Durchführung der OLAP- und OLTP-Tests erfordert vertieftes SAP-Wissen. Die Software läuft hier nicht Stunden, sondern Tage.
Deterministisches Lastverhalten schwer zu erzeugen
Am komplexesten ist schließlich die vierte Testgruppe, weil hier mehrere Systeme parallel laufen müssen. Sie ist für HCI besonders kritisch und befasst sich damit, was geschieht, wenn mehrere unterschiedliche Lasten gleichzeitig auf einem softwaredefinierten Storage-System arbeiten – beispielsweise weitere virtuelle Maschinen, in denen andere Applikationen laufen und die etwa auch Speicherzugriffe durchführen.
"Im Grunde geht es darum, wie gut HANA in der Scale-out-Infrastruktur isoliert ist", erklärt Heisig. Hier werden maximal zehn Prozent Leistungsdegradation bei HANA durch andere Anwendungen akzeptiert.
Laut Heisig lasse sich bei softwaredefiniertem Storage, wie er in HCI steckt, generell nur schwer ein deterministisches Lastverhalten erzeugen. Heisig: "Der Host ist ja ein Teil der Storage-Lösung." Ein kritischer Punkt sei die CPU-Auslastung, da in HCI-Systemen hauptsächlich CPUs mit nur zwei bis vier Kernen verwendet würden, nicht die leistungsfähigsten CPU-Typen mit ihren zahlreichen Rechenkernen.
Ohne Zertifizierung gibt es keinen HANA-Betrieb bei den Anwendern
Bezüglich der Hardware können die HCI-Anbieter wählen, ob sie Komponenten aus dem Hardware-Directory von HANA, andere oder selbstgebaute Komponenten verwenden. In den beiden letztgenannten Fällen ist der Zertifizierungsaufwand naturgemäß sehr viel höher. Am Ende entsteht jeweils ein Best-Practices-Handbuch, aus dem die optimalen Konfigurationen hervorgehen.
Auch ein negatives Ende des ganzen Aufwandes ist möglich. "Beispielsweise haben Multicore-Architekturen ohne Direktverbindung aller Cores zum Memory ein Problem", erklärt Heisig. Wie das Spiel für die HCI-Hersteller ausgeht, bleibt abzuwarten. In ihren Testlaboren jedenfalls dürften die Köpfe rauchen, um auch die anspruchsvollsten Anforderungen von SAP zu erfüllen. Denn eines ist sicher: Ohne das begehrte Zertifikat dürfte sich kaum ein Anwender an SAP HANA auf HCI trauen. Dazu ist das Kostenrisiko eines Analytik-Fehlschlages einfach zu groß.
Doch in diesem Fall können HCI-Anbieter trotzdem noch HANA-Kunden gewinnen – dann nämlich, wenn sie ihre Technologie bei den großen Providern wie AWS oder Microsoft als PaaS einstellen, auf denen SAP HANA läuft. Den Zertifizierungsaufwand haben hier nämlich die Provider, und deren Engineering-Bereiche sind bekanntlich um kaum einen technischen Trick verlegen, wenn es darum geht, etwas zum Laufen zu bringen, was Gewinn verspricht.
(ID:45393033)