Suchen
 Ulrike Ostler ♥ Storage-Insider

Ulrike Ostler

Chefredakteurin DataCenter-Insider
DataCenter-Insider

Artikel des Autors

Zum Projekt Reuseheat gehören vier unterschiedliche Anwendungsfälle in vier Städen. Die erwarteten Einsparungen durch die Nutzung von Abwärme, etwa von einem Rechenzentrum, belaufen sich auf 5,5 Gigawattstunden pro Jahr beziehungsweise 1.135 Tonnen CO2 pro Jahr.
Daten sammeln, zum Mitmachen auffordern und Erfolge demonstrieren – das EU-Projekt „Reuseheat“

Nutzung von Datacenter-Abwärme ist keine Gewissensfrage, sondern Notwendigkeit

Ist es nicht eine Schande? „Die Wärmemenge, die EU-weit von Energieanlagen und -industrien verschwendet wird, entspricht jener, die derzeit zum Heizen aller Gebäude in Europa gebraucht wird.“ Dass nur wenige Rechenzentren Abwärme in Heizungssysteme oder gar Fernwärmenetze einspeisen, ist bekannt. Jetzt ist der Beitrag, den Datacenter zur Nah- und Fernwärme leisten könnten, Teil des EU-Projekts „Reuseheat“.

Weiterlesen
Rechenzentren mit den Verfügbarkeitsklassen 3 und 4 müssen georedundant sein. Das BSI fordert mindestens 200 Kilometer Abstand. Macht das Sinn?
Abstand bitte: Latenzen, Kosten und noch viel mehr Probleme folgen

BSI: Georedundanz bedeutet 200 Kilometer zwischen den Rechenzentren

Im Dezember 2018 hat das Bundesamt für Sicherheit in der Informationstechnik (BSI) die Version 1.0 der "Kriterien für die Standortwahl höchstverfügbarer und georedundanter Rechenzentren" herausgegeben. Es geht dabei um ein oder mehrerer Ausweich-Datacenter als Maßnahme zur Notfallvorsorge. Also um die Überlegung, ob und wie ein solches möglichst den gesamten zentralen IT-Betrieb übernehmen kann, sollte das jeweils andere nicht voll funktionsfähig sein.

Weiterlesen
Das Ausstellungsplakat hat sich dem Veranstaltungsort angepasst.
OpenStack Summit 2017 in Sydney

OpenStack überall: Was muss sich ändern, was bleiben?

Ja, OpenStack lebt - und gedeiht. Heute hat der 16. „OpenStack-Summit“ begonnen, der erste in Australien. Doch das ist nicht das einzige Novum, das die Foundation ganz seiner Konferenztradition folgend zu verkünden hat. Des Weiteren gibt es neue Zahlen zur OpenStack-Nutzung und die Ausrichtung der Konferenz zielt noch stärker auf die Anwender ab. Das zeigt sich in den Themen: Integration und Organisation drängen in den Vordergrund.

Weiterlesen
Patch, not boot! Schrauben an der Performance und Verfügbarkeit

Was gibt es Neues bei Suse? Ein Update von der SuseCon

Das ist doch einmal eine Hausnummer: Die Nachfrage nach Suse-Infrastruktur in AWS steigt um mehr als 20 Prozent. Gut, die Angabe ist inoffiziell und das Wachstum hängt mit der starken Nachfrage nach „SAP HANA“ zusammen, unter anderem weil ab 2025 der Applikations-Provider keine andere Datenbank für seine Produkte mehr unterstützen will, und dennoch: Suse wächst und verdaut zudem die ehemaligen HPE-Assets gut. Und was ist neu?

Weiterlesen
Blockchains schaffen die technische Voraussetzungen für Smart Contracts und Kryptowährungen, von denen nun auch Künstler oder mittelständische Bankkunden profitieren sollen.
Dezentrale Transaktionssysteme

Blockchain in der Mediendistribution und bei Banken

Decent will es mit seiner jetzt gestarteten Medienplattform mit Entertainment-Riesen aufnehmen. Dabei setzt das Unternehmen auf Blockchain und eine eigene Kryptowährung. Das Bankenkonsortium "Digital Trade Chain" (DTC), bestehend aus der Deutschen Bank, HSBC, KBC, Natixis, Rabobank, Société Générale und Unicredit, baut bei seiner internationalen Handelsplattform hingegen auf "Hyperledger" und die IBM Cloud.

Weiterlesen
Hier soll die erste richtige Hybrid Cloud wohnen - im DARZ.
Deutsche Hybrid-Cloud

Hyperscale-Multi-Cloud-Broker hilft Helpium

Das Darmstädter Rechenzentrum, kurz DARZ, Netapp und Helpium sind die Partner, die für Kunden ein Compute-Sourcing in multiple Hyperscale-Clouds ermöglichen. Die eigene IT mit privater Cloud und den Dimensionen von AWS, Azure und Softlayer verheiraten, das soll nun möglich sein. Helpium ist der erste Kunde.

Weiterlesen
Wer keinen Plan für Disaster Recovery und Business Continuity hat, strandet.
Wie viel Downtime kann ein Unternehmen verkraften?

RTO, RPO & Co. helfen Unternehmen beim Disaster Recovery

Nur das nicht: Ausfälle der IT-Infrastruktur! Zwar laufen die meisten Systeme heute stabil, dennoch können jederzeit Ereignisse auftreten, die zu Hardware-Ausfällen oder Datenverlusten führen: Eine Schad-Software wie „Emotet“, ein banaler Kurzschluss, ein lückenhaftes Backup oder der Ausfall eines SAP-Systems können schnell Compliance-Probleme bereiten oder ganze Organisationen lahmlegen.

Weiterlesen
Nutanix ermöglicht die Fernwartung für standortunabhängige Datacenter-Admins.
Remote Implementieren, Aktualisieren und Reparieren von Cloud-Infrastrukturen

Nutanix-Technik für standortunabhängige Datacenter-Admins

Nutanix-Technik erlaubt IT-Teams, ihre Cloud-Infrastrukturen zu implementieren, aktualisieren und reparieren, unabhängig davon, wo sie gerade arbeiten – ob zu Hause oder an einem Unternehmensstandort. Sie wird über die Produkte „Nutanix Foundation Central“, „Insights“ und „Life Cycle Manager“ ohne Aufpreis als Teil der hyperkonvergenten Infrastruktur-Software (HCI) zur Verfügung gestellt.

Weiterlesen
Dr. Ilia Valov (links) im Oxidcluster am Forschungszentrum Jülich, in dem Experimente für die aktuelle Arbeit durchgeführt wurden. Im Hintergrund: Michael Lübben (Mitte) und Prof. Rainer Waser (rechts).
Künstliche Synapsen nach Maß

RWTH Aachen und Jülicher Forscher spüren dem Schaltverhalten memristiver Bauelemente nach

Forscher der Jülich Aachen Research Alliance (JARA) und des deutschen Technologiekonzerns Heraeus haben nun herausgefunden, wie sich die Schalteigenschaften memristiver Bauelemente planmäßig beeinflussen lassen. Diese sind deswegen interessant, weil sie mit „extrem wenig Strom“ auskommen und sich ähnlich wie Nervenzellen im Gehirn verhalten. Entscheidend seien so kleine stoffliche Unterschiede, dass sie bisher schlichtweg übersehen wurden.

Weiterlesen
Dr. Andreas Martens, Qurix Technology GmbH, beschäftigt sich mit Fragen der Datenmigration.
Verantwortlichkeit für gespeicherte Daten

Cloud oder nicht Cloud?

Großrechner sowie Serversysteme in eigener Verantwortung erfreuen sich immer noch sehr großer Beliebtheit. Nach aktuellen Schätzungen laufen zum Beispiel noch immer etwa 85 Prozent aller Kreditkartentransaktionen auf solchen Rechnern. Warum ist das so? Warum migrieren nicht alle Unternehmen ihre Daten massiv in die Cloud?

Weiterlesen
Vor dem Abheben in jedwede Cloud steht Basisarbeit an. Heiko Frank von A10 Networks erörtert, welche Fragen dabei beantwortet gehören.
Planvoll zum Cloud-Storage

Diese fünf Fragen sollten sich Unternehmen vor der Cloud-Migration stellen

Unternehmen weltweit sind sich einig: Das traditionelle Rechenzentrum ist Geschichte. An seiner Stelle sind Multi-Cloud-, Hybrid- und containerbasierte Infrastrukturen entstanden. Laut einer Studie von Aberdeen und A10 Networks haben 33 Prozent der Unternehmen bereits eine hybride Cloud-Struktur implementiert, und weitere 23 Prozent planen dies innerhalb des kommenden Jahres. Wie gelangen Organisationen dort hin?

Weiterlesen
Das Open-Source-Archiv liegt eine einem Gewölbe einer ehemaligen Kohlemine auf Spitzbergen.
Wirklich kalte Archivdaten

Open-Source-Software von Github wandert in den Permafrost

Im November des vergangenen Jahres hatte Github angekündigt, in einer 250 Meter tief im Permafrost liegenden stillgelegten Kohlemine auf Spitzbergen ein Archiv für Open-Source-Software zu planen. Der Stichtag, an dem alle aktiven öffentlichen Github Repositories gesichert wurden, die dann im Archiv – dem „Arctic Code Vault“ – für die nächsten Jahrhunderte gespeichert werden, war der 2. Februar 2020.

Weiterlesen
Die „Autonomous Database on Exadata Cloud@Customer“, in Kundenrechenzentren betrieben, lässt zwei Varianten zu: als eigenständiges Angebot oder als Teil der „Oracle Dedicated Region Cloud@Customer“.
Wenn Anforderungen an Datenhoheit und Performance einen Betrieb in der Public Cloud verhindern

Die Oracle Autonomous Database im eigenen Rechenzentrum

Es gibt gute Gründe, nicht in die Public Cloud zu gehen: Anforderungen an Datenhoheit, Sicherheit und Performance können dagegen sprechen. Doch bisher gab es die sich teilweise selbstheilende „Autonomous Database“ von Oracle nur per öffentlicher Cloud. Das ändert sich jetzt. Zudem stellt Oracle weitere Funktionen der Datenbank und Neuerungen bei „Oracle Exadata Cloud@Customer“ vor.

Weiterlesen
In Cloud- und Edge-Szenarien müsssen Unternehmen über ein global verteiltes Load Balancing nachdenken.
Edge-DNS GSLB vereinfacht Disaster Recovery

Scheitern nach Plan mit globalem Load Balancing

Die IT-Welt steckt voller Abkürzungen – von 2FA (2-Faktoren-Authentifizierung) bis XaaS (Everything-as-a-Service). Wer im herausfordernden Umfeld der hybriden Cloud Kontinuität und Anwenderfreundlichkeit sicherstellen möchte, kommt an einem weiteren Trendakronym nicht vorbei: „GSLB“. Diese Abkürzung steht für „Global Server Load Balancing“ auf Netzwerkebene. Diese Technik aber vereinfacht das Disaster Recovery und unterstützt Hochverfügbarkeit über verschiedene Standorte.

Weiterlesen
Bei einem Technologiewechsel sollten dringend die Bedürfnisse der Mitarbeiter berücksichtigt werden.
Bei der Digitalisierung nicht die Mitarbeiter vergessen

Technologiewechsel nur erfolgreich, wenn Menschen im Mittelpunkt stehen

Digitalisierung steht nicht nur bei IT-Organisationen und Unternehmen ganz oben auf der To-do-Liste, sondern auch bei der Politik. Dennoch sind die erzielten Fortschritte überschaubar. Die Erwartungen bleiben hinter den Hoffnungen zurück. Das haben gerade die IT-Probleme zu Beginn der COVID-19-Pandemie gezeigt. Ein Grund für das Ruckeln und Zuckeln ist, dass zumeist nicht der Mensch im Mittelpunkt von IT-Innovationen steht.

Weiterlesen