Suchen
 Michael Matzer ♥ Storage-Insider

Michael Matzer

Ich arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.

Artikel des Autors

Neo4j hat die Version 4.0 seiner Plattform vorgestellt.
Neo4j Version 4.0

Graph-Datenbank Neo4j wird noch skalierbarer

Neo4j, ein Anbieter von Graph-Datenbanktools, hat die Version 4.0 seiner Plattform verfügbar gemacht. Zu den Neuerungen gehören eine unbegrenzte Skalierbarkeit, eine mandantenfähige Multidatenbanknutzung, die Integration von Apache Kafka und die besonders für Unternehmen wichtige feingranulare Steuerung von Datensicherheit und Datenschutz.

Weiterlesen
Angesichts der sehr realen Bedrohung durch Ransomware hat sich die Rolle des Backups gewandelt.
Die neue Rolle des Backups

Datensicherung in Zeiten von Ransomware

Da Ransomware eine immer drängende Gefahr wird, stellt sich Unternehmen die Frage, wie sich ihre Backups effektiv schützen lassen. Sie befürchten, dass laut jüngsten Gerüchten auch Air-Gapping nicht mehr reicht. Und schließlich wollen die Kunden wissen, was es hinsichtlich Backups in Hybrid- und Multi-Clouds zu beachten gilt.

Weiterlesen
Große Datenmengen und die Cloud waren zwei zentrale Themen bei der Veranstaltung „Technology Live“.
„Technology Live“

Gipfeltreffen von Storage-Anbietern

Die drei Storage-Anbieter Western Digital, Scality und Qumulo stellten kürzlich auf einer gemeinsamen Presseveranstaltung den neuesten Stand ihrer Produkte und Plattformen vor. Gemeinsam war allen die Integration der Cloud als Ressource und die Unterstützung sehr großer Datenmengen im Petabyte-, Exabyte- und Zettabyte-Bereich.

Weiterlesen
Die neuen UDP-9000-Appliances von Arcserve werden mit Sophos Intercept X Advanced for Server ausgeliefert.
Arcserve Appliance UDP-9000

Verbesserter Backup-Schutz durch Künstliche Intelligenz

Zum Schutz gegen Ransomware, die Backups angreift, hat der Storage-Spezialist Arcserve seine Appliance UDP-9000 mit Security-Software von Sophos ausgestattet. Diese Appliances werden mit Sophos Intercept X Advanced für Server versehen, damit mithilfe der integrierten KI auch unbekannte Malware-Formen erkannt und geblockt werden können. Die Kombi-Appliance kommt im Oktober über den Channel in den Handel.

Weiterlesen
EC2-Spot-Instances von AWS als kostengünstige Alternative zu klassischen On-Demand-Instanzen.
Rechenbeispiel für Spot-Kapazitäten

Kühl kalkuliert: EC2-Spot-Instanzen und -Flotten auf Amazon Web Services

Spot-Instances von Amazon Elastic Compute Cloud (EC2) liefern dem AWS-Cloud-Nutzer die kostengünstigste Variante, um Rechenkapazität zu nutzen. Sogenannte „Spot-Flotten“ sorgen automatisch dafür, dass die gebuchte Rechenkapazität zum vereinbarten Preis am gewünschten Standort bereitsteht. Entscheidend für die Höhe des Einsparpotentials bei sehr hoher Verfügbarkeit ist die optimale Konfiguration der Spot-Flotte.

Weiterlesen
Das AIRI-Rack von Nvidia und Pure Storage.
Pure Storage sitzt mit in der ersten Reihe

Eine Zertifizierung für SAP HANA ist das Reifezeugnis für eine Speicherlösung

Die Zertifizierung von Storage-Systemen ist von großer Bedeutung für einen Hersteller. Das zeigt das Beispiel von Pure Storage, dessen Flash-Arrays für SAP HANA zertifiziert werden müssen – so verlangen es die Kunden. Der Prozess ist aufwändig, öffnet aber das Tor zum weltweiten SAP-Markt. Das Beispiel demonstriert, wie wichtig Technologiepartnerschaften sind.

Weiterlesen
Die Internationale Supercomputing Conference (ISC 2017) in Frankfurt endete gestern, am 22. Juni. Autor Michael Matzer war dort und berichtet nun von den Trends im High Performance Computing.
Exascale steht außer Frage

ISC 2017: HPC und Supercomputing und Artificial Intelligence

Hochleistungsrechner sterben seit Jahren strikt auf den Exascale-Level zu: 2020 dürfte es soweit sein. Mit einer Leistung von Exaflop/s sollen neue Anwendungen möglich sein. Die zu diesem Zweck noch zu entwickelnden Technologien sollen auch Machine Learning und Cognitive Computing zugutekommen, die als Artificial Intelligence zusammengefasst werden. Auf der ISC 2017 wurden HPC, Big Data Analytics und AI als ideale Kombination bewertet.

Weiterlesen
Neu im Amazon-Sortiment: der AWS Database Migration Service, mit dem sich alle möglichen on-premise-Datenbanken ins Internet migrieren lassen.
AWS Data Migration Service

Datenbanken wandern in die Amazon-Cloud

Amazon Web Services hat vor kurzem einen Migrationsdienst für produktiv genutzte Datenbanken verfügbar gemacht – auch in der Frankfurt/Main Region. Zuvor konnten AWS-Kunden den Data Migration Service in einer Betaphase testen. Mit der Möglichkeit, On-Premise-Datenbanken in die Cloud zu überführen, sehen Analysten den Krieg gegen Datenbankanbieter als eröffnet an.

Weiterlesen
IBM LinuxOne Emperor stellt die "Königsklasse" der LinuxOne-Reihe dar.
LinuxOne-Mainframes

Der Linux-basierte Mainframe macht Front gegen x86

IBM hat zwei neue Mainframe-Modelle auf den Markt gebracht. „LinuxOne Emperor“ und „LinuxOne Rockhopper“, die auf der Baureihe „z13“ basieren, richten sich mit ihrer quelloffenen Software an den rasch wachsenden Linux-Markt. Doch die darauf aufsetzenden Konzepte zeigen, dass IBM die OpenSource-Community immer schneller vorantreiben will.

Weiterlesen
Das Intel HPC Scalable System Framework vereint Compute, Memory/Storage, Fabric und Software.
Lustre und Co.

Im HPC-Cluster müssen Filesysteme parallel arbeiten

Intel hat neue Versionen des „Lustre“-File-Systems angekündigt und baut damit sein „HPC Scalable System Framework“ erheblich aus. Parallele File-Systeme wie Apache Lustre sind entscheidend für die Performance von Clustern. An Alternativen zu Lustre fehlt es zum Glück nicht – gute Beispiele sind „IBM Spectrum Scale/GPFS“ und „BeeGFS“.

Weiterlesen
Glasfaser und Memristoren inside

HP entwickelt mit „The Machine“ neue Rechnerarchitektur

Unterder Bezeichnung „The Machine“ will HP in zwei bis drei Jahren die ersten verwertbaren Produkte einer neuen Rechnerarchitektur bereitstellen. Bis zu 160 Racks, die auf Memristoren basieren, lassen sich zu einem Cluster verbinden, der bis zu 160 Petabyte an Daten speichern und verarbeiten kann – bei der Größe eines Kühlschranks. Die Maschine soll der Datenflut des Internets der Dinge gewachsen sein und sechsmal schneller als ein aktueller Server arbeiten.

Weiterlesen