Kürzlich bestand der Huawei-Server „Fusionserver Pro 2488H V6“ den Test für die „SAP ICC“-Zertifizierung und erhielt die „SAP HANA Appliance“-Zertifizierung. Er ist jetzt in der aktuellsten Zertifizierungsliste für SAP-integrierte Produkte aufgeführt.
Der Hersteller von Server-Plattformen Tyan, Tochtergesellschaft der Mitac Computing Technology Corporation, hat anlässlich der in Denver stattfindenden HPC- und Supercomputing-Konferenz „SC19“ eine Produktreihe von HPC- und Storage-Server-Plattformen auf Basis der AMD-Prozessoren „Epyc 7002“ auf den Markt gebracht.
Ist es nicht eine Schande? „Die Wärmemenge, die EU-weit von Energieanlagen und -industrien verschwendet wird, entspricht jener, die derzeit zum Heizen aller Gebäude in Europa gebraucht wird.“ Dass nur wenige Rechenzentren Abwärme in Heizungssysteme oder gar Fernwärmenetze einspeisen, ist bekannt. Jetzt ist der Beitrag, den Datacenter zur Nah- und Fernwärme leisten könnten, Teil des EU-Projekts „Reuseheat“.
Im Dezember 2018 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) die Version 1.0 der "Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" herausgegeben. Es geht dabei um ein oder mehrerer Ausweich-Datacenter als Maßnahme zur Notfallvorsorge. Also um die Überlegung, ob und wie ein solches möglichst den gesamten zentralen IT-Betrieb übernehmen kann, sollte das jeweils andere nicht voll funktionsfähig sein.
teuto.net betreibt öffentliche und private OpenStack-Clouds. Das Unternehmen benötige eine höhere Performance als sie Ceph bieten konnte und entschied sich daher für einen Wechsel. Heute stellen NVMesh vom Start-up Excelero und der Mellanox-Switch SN2100 die Basis.
Ja, OpenStack lebt - und gedeiht. Heute hat der 16. „OpenStack-Summit“ begonnen, der erste in Australien. Doch das ist nicht das einzige Novum, das die Foundation ganz seiner Konferenztradition folgend zu verkünden hat. Des Weiteren gibt es neue Zahlen zur OpenStack-Nutzung und die Ausrichtung der Konferenz zielt noch stärker auf die Anwender ab. Das zeigt sich in den Themen: Integration und Organisation drängen in den Vordergrund.
Das ist doch einmal eine Hausnummer: Die Nachfrage nach Suse-Infrastruktur in AWS steigt um mehr als 20 Prozent. Gut, die Angabe ist inoffiziell und das Wachstum hängt mit der starken Nachfrage nach „SAP HANA“ zusammen, unter anderem weil ab 2025 der Applikations-Provider keine andere Datenbank für seine Produkte mehr unterstützen will, und dennoch: Suse wächst und verdaut zudem die ehemaligen HPE-Assets gut. Und was ist neu?
Hewlett Packard Enterprise (HPE) plant zum 1. September 2017 eine Fusion und ein Spin-off seiner Software-Sparte mit Micro Focus International. Dadurch entsteht eines der größten Unternehmen für Software. Die Transaktion wird mit 8,8 Milliarden Dollar beziffert.
Decent will es mit seiner jetzt gestarteten Medienplattform mit Entertainment-Riesen aufnehmen. Dabei setzt das Unternehmen auf Blockchain und eine eigene Kryptowährung. Das Bankenkonsortium "Digital Trade Chain" (DTC), bestehend aus der Deutschen Bank, HSBC, KBC, Natixis, Rabobank, Société Générale und Unicredit, baut bei seiner internationalen Handelsplattform hingegen auf "Hyperledger" und die IBM Cloud.
Vergangenen Monat stellte Lenovo sein bislang "umfangreichstes Angebot für den Einsatz in Rechenzentren" vor. Das ganzheitliche Lösungsspektrum schaffe die Basis, um transformative Techniken wie Datenanalysen, HPC, die hybride Cloud, künstliche Intelligenz und maschinelles Lernen zu unterstützen.
Es fühlt sich wie "S3" von Amazon Web Services (AWS) an, ist es aber nicht. Minio hat einen "Cloud Native Object Storage Server" entwickelt, der es erleichtert, die Entwicklung von Storage-Anwendungen in der AWS-Cloud zu betreiben, die Anwendungen und die Daten aber in der eigenen Umgebung produktiv zu nutzen.
Mit einer Reihe neuer Features und Dienste weitet Nutanix die Möglichkeiten seiner Enterprise-Cloud-Plattform aus. Hierzu zählt unter anderem die Unterstützung von Container-Anwendungen und Datenbanken, die auf physischen Servern zum Einsatz kommen. Dadurch sollen sich künftig alle Workloads auf der Nutanix-Plattform betreiben lassen.
Cray bringt mit dem Hochleistungsspeichersystem Cray Sonexion 3000 eine Lösung auf den Markt, die mit hohen Rechenleistungen mithalten kann. Der mit dem parallelen, verteilten Dateisystem Lustre arbeitende Storage soll skalierbarer sein und eine höhere Leistung bieten. Des Weiteren rüstete der Hersteller seine Supercomputer XC-Serie auf.
Die globale Anwenderkonferenz von Suse „Susecon“ findet heuer vom 2. bis zum 6. November in Amsterdam statt. Adressiert werden etwa Big Data, softwaredefinierter Speicher, Cloud Computing, Zero Downtime, Standardisierung von Rechenzentren, Docker und Container sowie SAP und „SAP HANA“ auf Linux. Doch was macht Suse auf einem Asteroiden?
Das Darmstädter Rechenzentrum, kurz DARZ, Netapp und Helpium sind die Partner, die für Kunden ein Compute-Sourcing in multiple Hyperscale-Clouds ermöglichen. Die eigene IT mit privater Cloud und den Dimensionen von AWS, Azure und Softlayer verheiraten, das soll nun möglich sein. Helpium ist der erste Kunde.
Der chinesische Serverhersteller Inspur rangiert unter den Top Drei im weltweiten Servermarkt. Inspur plant, das Geschäft in Deutschland in den kommenden drei bis fünf Jahren massiv auszubauen. Wir hatten dazu ein paar Fragen an Jay Zhang, der als Vice President Inspur Group Global Business und CEO of Inspur Europe dafür zuständig ist.
Die Thomas-Krenn AG stellt „Proxmox Ceph HCI“ vor. Der Server-Hersteller erweitert damit sein Portfolio von hyperkonvergenten Systemen um eine flexibel konfigurierbare Lösung für das Open-Source-Virtualisierungssystem Proxmox VE in Verbindung mit dem Objektspeicher Ceph.
Platz für 40.000 Server und individuell gestaltbare IT-Sicherheitsbereiche zur Datenverarbeitung und -speicherung nach deutschem Recht – das beschreibt das mittlerweile dritte Rechenzentrum von Envia Tel in Taucha. Im November hat der Betreiber das Datacenter offiziell eröffnet.
High Performace Computing (HPC) ist en vogue, wenngleich Corona dem HPC-Servermarkt einen Dämpfer verpasst hat. Daran sind auch die stetig steigende Nachfrage nach Künstlicher Intelligenz (KI), die zum Training viel Rechenleistung braucht, sowie Big-Data-Analysen schuld, für die dasselbe gilt. Da kommen Angebote für Zugriffe aus der Cloud ganz recht. Allerdings taugen Standardangebote und manchmal auch die Kosten nur bedingt. Jetzt bietet HPE die Rechnerei als „Greenlake“-Service.
Ständige IT-Verfügbarkeit ist für viele Unternehmen zu einem kritischen Faktor gegen Datenverlust geworden. Mit „echter synchroner Active-Active-Replikation“, so der Hersteller, senke der „Dell EMC Powestore Metro Node“ die Recovery-Zeiten bei Ausfällen im Datacenter auf wenige Millisekunden.
Hyperkonvergente Infrastrukturen sind bei Unternehmen schon seit einiger Zeit aufgrund ihrer flexibel abrufbaren Compute-, Storage- und Netzwerkressourcen beliebt. Neben der Möglichkeit, die eigene IT-Infrastruktur zu einer Gesamt-Appliance zusammenzufassen, bietet die hyperkonvergente Infrastruktur auch die ideale Ergänzung für das Serviceportfolio von Systemhäusern.
In Verbindung mit „Rancher“ ermöglicht die jüngste „Longhorn“-Version DevOps-Teams die Verwaltung persistenter Datenmengen vom Core über die Cloud bis zur Edge. Denn es ist die erste Kubernetes-native Speichermöglichkeit, die Edge-Implementierungen unterstützt.
Wer Multi-Cloud zur Technologieinfrastruktur machen will, muss Denkweise, Kultur, Tools und Prozesse auf den Prüfstand stellen. Das stellt Lance Haig, Regional Manager of Solutions Engineering bei Hashicorp, im folgenden Gastbeitrag dar.
Auch Daten haben eine Art Schwerkraft, die vor allem in Cloud-Zeiten zerstörerisch werden kann. Dann wird schnell die schiere Masse zur Last und nur zur Energie, wie die berühmte Einsteinsche Formel verspricht.
Red Hat erweitert die seine Enterprise-Kubernetes-Plattform OpenShift um die Unterstützung von Microsoft-Windows-Containern. Unternehmen bleibt damit erspart, parallele Software-Stacks in Hybrid-Cloud-Umgebungen zu betreiben.
Die jüngsten „Greenlake“-VDI-Pakete sind nach Anbieterangaben optimiert für Nutzerrollen. Adressiert werden Engineering-User, aber auch Anwender einzelner Funktionen. Für die Angebote sorgen Partnerschaften mit Nutanix, Nvidia, VMware und Wipro.
VMware ist mit „vSphere“ und den dazu gehörenden Verwaltungs-Tools der Marktführt in Sachen Virtualisierung und Cloud Computing. Microsofts zieht mit dem Hypervisor „Hyper-V“ und dem Werkzeug „Virtual Machine Manager“ nach. Welches Tool ist das bessere? Ein Vergleich der beiden Lösungsansätze.
Ein Desaster macht aus, dass es sich im Vorfeld nicht ankündigt. Als katastrophales Ereignis trifft es eine Gemeinschaft, die Wirtschaft und/oder ein Ökosystem plötzlich. Auch ein Rechenzentrum funktioniert wie ein Ökosystem.
„Xi Leap“, eine native Erweiterung der „Nutanix-Enterprise-Cloud-Plattform für Disaster-Recovery-as-a-Service“ (DRaaS), ist ab sofort von einem Equinix-Rechenzentrum in Deutschland erhältlich.
Decent will es mit seiner jetzt gestarteten Medienplattform mit Entertainment-Riesen aufnehmen. Dabei setzt das Unternehmen auf Blockchain und eine eigene Kryptowährung. Das Bankenkonsortium "Digital Trade Chain" (DTC), bestehend aus der Deutschen Bank, HSBC, KBC, Natixis, Rabobank, Société Générale und Unicredit, baut bei seiner internationalen Handelsplattform hingegen auf "Hyperledger" und die IBM Cloud.
Bandlaufwerke auf Basis der Linear-Tape-Open-Technologie (LTO) sind seit fast zwei Jahrzehnten auf dem Markt. Doch noch sind LTO-Cartridges für das Speichern und Archivieren von Daten unverzichtbar. Daran wird sich so schnell nichts ändern. Denn für Tape-Systeme sprechen nicht nur die hohe Effizienz und Wirtschaftlichkeit. Auch unter dem Aspekt Datensicherheit sind Bandlaufwerke unverzichtbar.
Wenn schon, denn schon. Eine Umsetzung der Datenschutz-Grundverordnung erfordert in jedem größeren Unternehmen eine Datenklassifizierung. Erst recht gilt dies bei anderen Compliance-Vorgaben wie ISO 27001, KonTraG oder für Betreiber kritischer Infrastrukturen.
Container-Orchestrierung in der Multi-Cloud ist der Heilige Gral der Workflow-Bereitstellung. Hewlett Packard Enterprise hat nicht nur eine eigene Container-Plattform im Köcher, sondern auch passende Referenzarchitekturen. Der Goldrausch ist in vollem Schwung.
Mit zwei Open Source-Projekten will VMware Container stärker in sein Angebot integrieren. Unter dem Namen Photon stellte das Unternehmen eine eigene schlanke Linux-Distribution vor, die verschiedene Containerformate unterstützt und der Entwicklung nativer Cloud-Anwendungen dienen soll. Ergänzend hierzu kündigte VMware mit Lightwave eine Identitäts- und Access-Management-Technik an, die eine zentrale Nutzer- und Zugriffsverwaltung von Containern und Anwendungen ermöglichen soll.