Ulrike Ostler ♥ Storage-Insider

Ulrike Ostler

Chefredakteurin DataCenter-Insider
DataCenter-Insider

Artikel des Autors

Zum Projekt Reuseheat gehören vier unterschiedliche Anwendungsfälle in vier Städen. Die erwarteten Einsparungen durch die Nutzung von Abwärme, etwa von einem Rechenzentrum, belaufen sich auf 5,5 Gigawattstunden pro Jahr beziehungsweise 1.135 Tonnen CO2 pro Jahr.
Daten sammeln, zum Mitmachen auffordern und Erfolge demonstrieren – das EU-Projekt „Reuseheat“

Nutzung von Datacenter-Abwärme ist keine Gewissensfrage, sondern Notwendigkeit

Ist es nicht eine Schande? „Die Wärmemenge, die EU-weit von Energieanlagen und -industrien verschwendet wird, entspricht jener, die derzeit zum Heizen aller Gebäude in Europa gebraucht wird.“ Dass nur wenige Rechenzentren Abwärme in Heizungssysteme oder gar Fernwärmenetze einspeisen, ist bekannt. Jetzt ist der Beitrag, den Datacenter zur Nah- und Fernwärme leisten könnten, Teil des EU-Projekts „Reuseheat“.

Weiterlesen
Das Ausstellungsplakat hat sich dem Veranstaltungsort angepasst.
OpenStack Summit 2017 in Sydney

OpenStack überall: Was muss sich ändern, was bleiben?

Ja, OpenStack lebt - und gedeiht. Heute hat der 16. „OpenStack-Summit“ begonnen, der erste in Australien. Doch das ist nicht das einzige Novum, das die Foundation ganz seiner Konferenztradition folgend zu verkünden hat. Des Weiteren gibt es neue Zahlen zur OpenStack-Nutzung und die Ausrichtung der Konferenz zielt noch stärker auf die Anwender ab. Das zeigt sich in den Themen: Integration und Organisation drängen in den Vordergrund.

Weiterlesen
Patch, not boot! Schrauben an der Performance und Verfügbarkeit

Was gibt es Neues bei Suse? Ein Update von der SuseCon

Das ist doch einmal eine Hausnummer: Die Nachfrage nach Suse-Infrastruktur in AWS steigt um mehr als 20 Prozent. Gut, die Angabe ist inoffiziell und das Wachstum hängt mit der starken Nachfrage nach „SAP HANA“ zusammen, unter anderem weil ab 2025 der Applikations-Provider keine andere Datenbank für seine Produkte mehr unterstützen will, und dennoch: Suse wächst und verdaut zudem die ehemaligen HPE-Assets gut. Und was ist neu?

Weiterlesen
Welche Prinzipien formen die Produktentwicklung bei Inspur? Wie stellt sich der Hardware-Produzent in Deutschland auf? Derartige Fragen beantwortet Jay Zhang, VP der Inspur Group Global Business und seit 2016 als CEO von Inspur Europe, im Interview.
Interview mit Jay Zhang, Vice President Inspur Group Global Business und CEO of Inspur Europe

„Das Rack-Scale-Bereitstellungsmodell ist zur Normalität geworden“

Der chinesische Serverhersteller Inspur rangiert unter den Top Drei im weltweiten Servermarkt. Inspur plant, das Geschäft in Deutschland in den kommenden drei bis fünf Jahren massiv auszubauen. Wir hatten dazu ein paar Fragen an Jay Zhang, der als Vice President Inspur Group Global Business und CEO of Inspur Europe dafür zuständig ist.

Weiterlesen
Wer keinen Plan für Disaster Recovery und Business Continuity hat, strandet.
Wie viel Downtime kann ein Unternehmen verkraften?

RTO, RPO & Co. helfen Unternehmen beim Disaster Recovery

Nur das nicht: Ausfälle der IT-Infrastruktur! Zwar laufen die meisten Systeme heute stabil, dennoch können jederzeit Ereignisse auftreten, die zu Hardware-Ausfällen oder Datenverlusten führen: Eine Schad-Software wie „Emotet“, ein banaler Kurzschluss, ein lückenhaftes Backup oder der Ausfall eines SAP-Systems können schnell Compliance-Probleme bereiten oder ganze Organisationen lahmlegen.

Weiterlesen
Nutanix ermöglicht die Fernwartung für standortunabhängige Datacenter-Admins.
Remote Implementieren, Aktualisieren und Reparieren von Cloud-Infrastrukturen

Nutanix-Technik für standortunabhängige Datacenter-Admins

Nutanix-Technik erlaubt IT-Teams, ihre Cloud-Infrastrukturen zu implementieren, aktualisieren und reparieren, unabhängig davon, wo sie gerade arbeiten – ob zu Hause oder an einem Unternehmensstandort. Sie wird über die Produkte „Nutanix Foundation Central“, „Insights“ und „Life Cycle Manager“ ohne Aufpreis als Teil der hyperkonvergenten Infrastruktur-Software (HCI) zur Verfügung gestellt.

Weiterlesen
Dr. Ilia Valov (links) im Oxidcluster am Forschungszentrum Jülich, in dem Experimente für die aktuelle Arbeit durchgeführt wurden. Im Hintergrund: Michael Lübben (Mitte) und Prof. Rainer Waser (rechts).
Künstliche Synapsen nach Maß

RWTH Aachen und Jülicher Forscher spüren dem Schaltverhalten memristiver Bauelemente nach

Forscher der Jülich Aachen Research Alliance (JARA) und des deutschen Technologiekonzerns Heraeus haben nun herausgefunden, wie sich die Schalteigenschaften memristiver Bauelemente planmäßig beeinflussen lassen. Diese sind deswegen interessant, weil sie mit „extrem wenig Strom“ auskommen und sich ähnlich wie Nervenzellen im Gehirn verhalten. Entscheidend seien so kleine stoffliche Unterschiede, dass sie bisher schlichtweg übersehen wurden.

Weiterlesen
Dr. Andreas Martens, Qurix Technology GmbH, beschäftigt sich mit Fragen der Datenmigration.
Verantwortlichkeit für gespeicherte Daten

Cloud oder nicht Cloud?

Großrechner sowie Serversysteme in eigener Verantwortung erfreuen sich immer noch sehr großer Beliebtheit. Nach aktuellen Schätzungen laufen zum Beispiel noch immer etwa 85 Prozent aller Kreditkartentransaktionen auf solchen Rechnern. Warum ist das so? Warum migrieren nicht alle Unternehmen ihre Daten massiv in die Cloud?

Weiterlesen
Vor dem Abheben in jedwede Cloud steht Basisarbeit an. Heiko Frank von A10 Networks erörtert, welche Fragen dabei beantwortet gehören.
Planvoll zum Cloud-Storage

Diese fünf Fragen sollten sich Unternehmen vor der Cloud-Migration stellen

Unternehmen weltweit sind sich einig: Das traditionelle Rechenzentrum ist Geschichte. An seiner Stelle sind Multi-Cloud-, Hybrid- und containerbasierte Infrastrukturen entstanden. Laut einer Studie von Aberdeen und A10 Networks haben 33 Prozent der Unternehmen bereits eine hybride Cloud-Struktur implementiert, und weitere 23 Prozent planen dies innerhalb des kommenden Jahres. Wie gelangen Organisationen dort hin?

Weiterlesen
Das Open-Source-Archiv liegt eine einem Gewölbe einer ehemaligen Kohlemine auf Spitzbergen.
Wirklich kalte Archivdaten

Open-Source-Software von Github wandert in den Permafrost

Im November des vergangenen Jahres hatte Github angekündigt, in einer 250 Meter tief im Permafrost liegenden stillgelegten Kohlemine auf Spitzbergen ein Archiv für Open-Source-Software zu planen. Der Stichtag, an dem alle aktiven öffentlichen Github Repositories gesichert wurden, die dann im Archiv – dem „Arctic Code Vault“ – für die nächsten Jahrhunderte gespeichert werden, war der 2. Februar 2020.

Weiterlesen
Die „Autonomous Database on Exadata Cloud@Customer“, in Kundenrechenzentren betrieben, lässt zwei Varianten zu: als eigenständiges Angebot oder als Teil der „Oracle Dedicated Region Cloud@Customer“.
Wenn Anforderungen an Datenhoheit und Performance einen Betrieb in der Public Cloud verhindern

Die Oracle Autonomous Database im eigenen Rechenzentrum

Es gibt gute Gründe, nicht in die Public Cloud zu gehen: Anforderungen an Datenhoheit, Sicherheit und Performance können dagegen sprechen. Doch bisher gab es die sich teilweise selbstheilende „Autonomous Database“ von Oracle nur per öffentlicher Cloud. Das ändert sich jetzt. Zudem stellt Oracle weitere Funktionen der Datenbank und Neuerungen bei „Oracle Exadata Cloud@Customer“ vor.

Weiterlesen
In Cloud- und Edge-Szenarien müsssen Unternehmen über ein global verteiltes Load Balancing nachdenken.
Edge-DNS GSLB vereinfacht Disaster Recovery

Scheitern nach Plan mit globalem Load Balancing

Die IT-Welt steckt voller Abkürzungen – von 2FA (2-Faktoren-Authentifizierung) bis XaaS (Everything-as-a-Service). Wer im herausfordernden Umfeld der hybriden Cloud Kontinuität und Anwenderfreundlichkeit sicherstellen möchte, kommt an einem weiteren Trendakronym nicht vorbei: „GSLB“. Diese Abkürzung steht für „Global Server Load Balancing“ auf Netzwerkebene. Diese Technik aber vereinfacht das Disaster Recovery und unterstützt Hochverfügbarkeit über verschiedene Standorte.

Weiterlesen
Bei einem Technologiewechsel sollten dringend die Bedürfnisse der Mitarbeiter berücksichtigt werden.
Bei der Digitalisierung nicht die Mitarbeiter vergessen

Technologiewechsel nur erfolgreich, wenn Menschen im Mittelpunkt stehen

Digitalisierung steht nicht nur bei IT-Organisationen und Unternehmen ganz oben auf der To-do-Liste, sondern auch bei der Politik. Dennoch sind die erzielten Fortschritte überschaubar. Die Erwartungen bleiben hinter den Hoffnungen zurück. Das haben gerade die IT-Probleme zu Beginn der COVID-19-Pandemie gezeigt. Ein Grund für das Ruckeln und Zuckeln ist, dass zumeist nicht der Mensch im Mittelpunkt von IT-Innovationen steht.

Weiterlesen
Markt für Container-Virtualisierungstechniken gewinnt an Fahrt

VMware kündigt eigenes Container-Betriebssystem an

Mit zwei Open Source-Projekten will VMware Container stärker in sein Angebot integrieren. Unter dem Namen Photon stellte das Unternehmen eine eigene schlanke Linux-Distribution vor, die verschiedene Containerformate unterstützt und der Entwicklung nativer Cloud-Anwendungen dienen soll. Ergänzend hierzu kündigte VMware mit Lightwave eine Identitäts- und Access-Management-Technik an, die eine zentrale Nutzer- und Zugriffsverwaltung von Containern und Anwendungen ermöglichen soll.

Weiterlesen
Tyan stellt auf der Konferenz SC20 neue „AMD-Epyc“-basierte Rechner vor.
Super- und Enterprise-Computing mit AMD-Epyc-Prozessoren der 2. Generation

Tyan kommt mit AMD-basierten Cloud- und Speicherserver auf die SC20

Vom 17. bis 19. November 2020 findet die virtuelle Konferenz SC20 statt. Hier geht es um High Performance Computing und Superrechner. Tyan, eine Tochtergesellschaft der Mitac Computing Technology Corporation, stellt auf der virtuellen Konferenz neue Servermodelle für speicherbasiertes Computing, Cloud-, Scale-Out-Anwendungen und Software-Defined Storage vor.

Weiterlesen
Das Hochleistungsrechnen per „HPE Greenlake“ soll in der Verknüpfung von Cloud-Flexibilität mit dem Betrieb im eigenen Rechenzentrum möglich sein.
Hochleistungsrechnen soll für (fast) jeden erschwinglich und handhabbar werden

High Performance Computing via HPE Greenlake

High Performace Computing (HPC) ist en vogue, wenngleich Corona dem HPC-Servermarkt einen Dämpfer verpasst hat. Daran sind auch die stetig steigende Nachfrage nach Künstlicher Intelligenz (KI), die zum Training viel Rechenleistung braucht, sowie Big-Data-Analysen schuld, für die dasselbe gilt. Da kommen Angebote für Zugriffe aus der Cloud ganz recht. Allerdings taugen Standardangebote und manchmal auch die Kosten nur bedingt. Jetzt bietet HPE die Rechnerei als „Greenlake“-Service.

Weiterlesen
Seinen Charme entfaltet LTO nicht nur bei kalten Daten: Sicherheit, Kosten und Energieeffizienz bringen die Bandtechnik immer wieder ins Spiel.
Die Rolle von LTO-Tape-Libraries in einer Storage-Architektur

Warum das Tape im Datacenter noch lange nicht am Ende ist

Bandlaufwerke auf Basis der Linear-Tape-Open-Technologie (LTO) sind seit fast zwei Jahrzehnten auf dem Markt. Doch noch sind LTO-Cartridges für das Speichern und Archivieren von Daten unverzichtbar. Daran wird sich so schnell nichts ändern. Denn für Tape-Systeme sprechen nicht nur die hohe Effizienz und Wirtschaftlichkeit. Auch unter dem Aspekt Datensicherheit sind Bandlaufwerke unverzichtbar.

Weiterlesen
Schematischer Verlauf einer Pandemiewelle mit Auswirkungen auf den Personalausfall.
Business Continuity während der Pandemie

Unterstützung und Führung des Betriebspersonals in der Krise

Für Betreiber großer Datacenter, also einer kritischen Infrastruktur (KRITIS), sind Planungen zur Business Continuity als Vorbereitung auf potentielle Krisenlagen wie eine Pandemie eine grundlegende Notwendigkeit. Spätestens mit Beginn der Corona-Krise wird ein Notfallplan jedoch auch für kleinere Corporate-Rechenzentren nicht mehr in Frage gestellt. Das Bundesamt für Bevölkerungsschutz und Katastrophenhilfe (BBK) hat in seinem Handbuch Betriebliche Pandemieplanung Anregungen für entsprechende Maßnahmen zusammengefasst.

Weiterlesen