Michael Matzer ♥ Storage-Insider

Michael Matzer

Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.

Artikel des Autors

Mit Hilfe einer Kombination aus drehenden Platten und Flash-Speichern will Western Digital künftig Laufwerke mit mindestens 50 TB Speicherkapazität herstellen.
OptiNAND-Technologie

Western Digital plant Herstellung von 50-TB-Festplatten

Western Digital, Hersteller von Festplatten- und Flash-Laufwerken, hat mit „OptiNAND“ eine neue Technologie zur Steigerung der Kapazität, Leistung und Zuverlässigkeit seiner Festplatten vorgestellt. Damit sollen schon in dieser Dekade Kapazitäten von 50 Terabyte pro Laufwerk erzielt werden können. Hauptzielgruppe für die ersten Produkte sollen Hyperscaler-CSPs und Großunternehmen sein.

Weiterlesen
Microchip Technology hat drei neue HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs im Portfolio.
Adapter für Storage in Rechenzentren

Microchip bietet neue HBA-Adapter an

Der Komponentenhersteller Microchip hat die Verfügbarkeit dreier neuer HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs verlautbart, die NVMe-SSDs und Disk-Arrays unterstützen. Neben dem SmartHBA 2200 und dem 1200 Host Bus Adapter bildet der 3200 RAID Adapter das Flaggschiff. Er ist für PCIe 4, NVMe, 24G-SAS und RAID ausgestattet, verschlüsselt aber auch ruhende Daten.

Weiterlesen
Im wahrsten Wortsinne unvorstellbar: 50-mal so viele Objekte, wie es Galaxien im Universum gibt, sind in Amazon S3 gespeichert.
Amazon S3 ist 15 Jahre alt geworden

Vom E-Commerce-Laden zum Storage-Riesen

Am 14. März 2006 wurde Amazons Simple Storage Service S3 gestartet. Der Tag wird auch „Pi-Tag“ genannt, weil er in US-amerikanischer Schreibweise 3/14 formuliert wird – und das ist der Anfang der Zahl Pi. Wie sähe die Welt heute ohne S3 aus? Viele Dienste würden nicht mehr funktionieren, und mit Sicherheit wäre Datenspeicherung zum Preis von Cents pro Gigabyte (oder mehr) pro Monat um etliche Größenordnungen teurer.

Weiterlesen
Mit dem PowerStore 500 adressiert Dell den Enterprise-Einstiegsmarkt. Unterstützt wird die Leistungsfähigkeit des Arrays durch das neue PowerStoreOS 2.0, das unter anderem auch die Rechenleistung speicherintensiver Anwendungen wie von IoT-Apps steigern soll.
Dell Technologies PowerStore 500

Speicher-Array für den Enterprise-Einstiegsmarkt

Mit dem Modell PowerStore 500 Einstieg will Dell Technologies künftigen Kunden den Einstieg ins Enterprise-Storage ermöglichen. Die Storage-Appliance erreicht eine effektive Kapazität von bis zu 1,2 Petabyte. In einem Vier-Node-Cluster können 4,8 PB an Speicherkapazität aufgenommen werden und bei einem gemischten PowerStore-Cluster bis zu 9,8 PB. Einsatzumgebungen sind laut Dell „alle Anwendungen und Industriebereiche, die eine Kombination aus gutem Preis-Leistungs-Verhältnis, hoher Performance, kompaktem Design und hohem Automatisierungsgrad benötigen“.

Weiterlesen
Cloud-native Objektspeicher-Software: Scality Artesca.
Objektspeicher-Software für den kleineren Bedarf

Scality erschließt mit Artesca den Einstiegsmarkt für moderne Cloud-Apps

Mit der neuen Software Artesca hat Scality eine Object-Storage-Lösung vorgestellt, die den Markt unterhalb seiner RING-Lösung abdecken soll, der bei 200 TB ansetzt. Die Cloud-App wendet sich an DevOps-Entwickler und Anwendungsbetreuer, besonders am Edge und in der Cloud. Entwickelt für Kubernetes-Umgebungen in der Multi-Cloud, wird Artesca in den ersten sechs Monaten exklusiv von Hewlett Packard Enterprise mit dessen Hardware vertrieben.

Weiterlesen
Die neue HPC-Storage-Familie von HPE bedient Cluster schon ab zehn Clients und adressiert damit Branchen wie das Gesundheitswesen, die Pharmaindustrie, die Automobilindustrie, den Finanzsektor und andere.
HPC-Storage-Familie mit IBMs Spectrum Scale File System von HPE

Hewlett Packard Enterprise kündigt neue Storage-Familie an

In einem Blog hat der HPE-Produktmanager für den HPC-und-KI-Speichermarkt Uli Plechschmidt eine neue Storage-Familie namens HPE Parallel File System Storage für den unteren HPC-und-KI-Markt angekündigt. Wo Cray ClusterStor 1000 erst ab 1 Petabyte anfing, sollen demnach künftig 27 Terabyte als Einstiegsschwelle reichen. Statt Lustre soll künftig IBM Spectrum Scale ECE das Filesystem stellen, die Server sind HPE ProLiants anstelle eines Cray-Boliden. Damit will HPE sich und seinen Vertriebspartnern ganz andere Märkte für HPC/KI-Workloads erschließen.

Weiterlesen
Das Ziel: keine Chance für Erpressungsversuche.
Arcserve stellt X Series und Unified Data Protection 8.0 vor

Backup für Ransomware-freie IT

Arcserve hat mit der X-Serie die nächste Generation seiner Backup-Appliance mit der Security-Software Intercept X von Sophos vorgestellt. Die Speicherkapazität wurde auf 1 PB erhöht. Ab sofort ist zudem die neue Arcserve Unified Data Protection (UDP) 8.0 erhältlich, das dedupliziertes Backup/DR in die Cloud offeriert. Mit diesen Angeboten will Arcserve eine Ransomware-freie IT ermöglichen.

Weiterlesen
„Datensicherungsplattform für alle Betriebsmodelle und Einsatzbereiche“: NetBackup 9.
Veritas NetBackup 9 und HubStor

Veritas unterstützt mit NetBackup 9 Scale-Out und OpenStack

Der Datensicherungsspezialist Veritas hat Version 9 seines Flaggschiffprodukts NetBackup angekündigt. Sie erlaubt Scale-Out-Ansätze mit hyperkonvergenter Infrastruktur und weist erweiterte Unterstützung für OpenStack auf. Mit der angekauften Backup-as-a-Service-Lösung HubStor lassen sich Daten aus Office 365, Box, Microsoft Teams und so weiter auf MS Azure sichern. Beide Angebote sind verfügbar.

Weiterlesen
Cloud-Speichern im Petabyte-Bereich: SOFS für Azure soll’s ermöglichen.
Scality kündigt Scale-Out File System auf MS Azure Stack mit 125 GB/s Durchsatz an

Petabyte-Cloud-Storage mit Scality

Scality, Anbieter von Software-Lösungen für Distributed File & Object Storage, hat eine Technical Preview seines Scale-Out File Systems (SOFS) in Microsoft Azure angekündigt. Scality SOFS auf Azure soll lineare Skalierungsleistung für schreib- und leseintensive Workloads liefern. Die Performance von Scality SOFS auf Azure liege bei maximal 1 Terabit pro Sekunde, was dem Download von mindestens 50 HD-Filmen pro Sekunde gleichzeitig entspräche.

Weiterlesen
SAN in der Cloud: AWS macht’s möglich.
Storage-Innovationen auf der AWS re:invent 2020

AWS kündigt erstes SAN für die Cloud an

AWS hat auf seiner Kundenkonferenz „AWS re:invent 2020“ vier Storage-Innovationen angekündigt, die Kunden zusätzliche Speicherleistung, Ausfallsicherheit und weiteren Mehrwert bieten, indem sie das erste Storage Area Network (SAN) liefern, das für die Cloud entwickelt wurde. Die neuen Updates umfassen Amazon EBS io2 Block Express (Vorschau), EBS Gp3 Volumes (ab sofort), Amazon S3 Intelligent-Tiering für Archivdaten (ab sofort) und Amazon S3 Replication zu mehreren Zielbuckets (ab sofort).

Weiterlesen
Damit die Cloud-Kosten später nicht aus dem Ruder laufen, ist es im Vorfeld absolut notwendig, Preisbeispiele durchzurechnen.
Vier Preisbeispiele zum Daten-Download aus der Amazon-Cloud

Storage-Kosten für Datenübertragung mit AWS-Tools optimieren

Cloud-Dienste als Datenspeicher zu nutzen, hat mehrere Vorteile. Jedoch droht auch ein möglicher Nachteil: Der Daten-Download (Egress) ist nicht immer kostenfrei, sondern kann mitunter sogar richtig teuer werden. Wir zeigen anhand von vier AWS-Beispielen, welche Cloud-Storage-Kosten in der Praxis auf Unternehmen zukommen können – und wie man sie in den Griff bekommt.

Weiterlesen
SDS entkoppelt Hardware und Software voneinander.
Unified Storage mit File, Block und Object Storage

Optimierte, benutzerfreundliche Nutzung von Ceph-Clustern mit Croit

Software-Defined Storage (SDS) entkoppelt die Storage-Verwaltung von der genutzten Hardware wie etwa Flash, Disk und NVMe. Die quelloffene Software Ceph erlaubt es, Unified Storage mit File, Block und Object Storage zu realisieren. Um sie benutzerfreundlicher zu machen, bietet die deutsche Firma Croit eine Managementkonsole mit einer eigenen Software-Lösung sowie Beratung an.

Weiterlesen
Aus Sicht von Cyberkriminellen ist Ransomware nur dann erfolgreich, wenn auch das Backup ausgeschaltet wird.
Deep MFA von Asigra

Backups vor Ransomware schützen

Bei einem Ransomware-Angriff sind häufig die Backups in Gefahr, denn sie sind die „Lebensversicherung“ des Opfers. Um sie zu schützen, gibt es verschiedene Verfahren. Sei es ein unveränderliches Filesystem, ein Air Gap oder die tiefe Multifaktor-Authentifizierung (MFA). Letztere empfiehlt der US-Anbieter Asigra.

Weiterlesen
Cohesity bietet künftig zusammen mit Amazon Web Services ein neues DMaaS-Angebot an.
Backups von Office-365-Installationen und mehr

Cohesity bietet zusammen mit AWS Data-Management-as-a-Service an

Cohesity, das auf seiner Cloud-basierten Plattform Datensilos zusammenführt und verwaltet, will zusammen mit Amazon Web Services im vierten Quartal einen neuen Data-Management-Service anbieten. Dieses DMaaS-Angebot soll zunächst als „DataProtect as a Service“ mit Backup & Restore realisiert und schrittweise ausgebaut werden. Der AWS-Kunde soll in Kürze in jeder beliebigen europäischen „Availability Zone“ (AZ) seiner Wahl darauf zugreifen können.

Weiterlesen
Ähnlich wie Veeam positioniert sich Pure Storage mit Hilfe einer Übernahme im Containermarkt.
Pure Storage übernimmt Portworx

Investition in einen Wachstumsmarkt

Mit der Übernahme des Kubernetes-Spezialisten Portworx begibt sich Pure Storage auf den Markt für Cloud-native Stateful-Container-Apps und Multi-Cloud-Architekturen. Diese sollen ebenfalls gespeichert und geschützt werden. Die Portworx-Software „Portworx Enterprise“ wird bereits bei T-Mobile, Lufthansa Systems und Carrefour eingesetzt.

Weiterlesen
Damit die Cloud-Kosten später nicht aus dem Ruder laufen, ist es im Vorfeld absolut notwendig, Preisbeispiele durchzurechnen.
Vier Preisbeispiele zum Daten-Download aus der Amazon-Cloud

Storage-Kosten für Datenübertragung mit AWS-Tools optimieren

Cloud-Dienste als Datenspeicher zu nutzen, hat mehrere Vorteile. Jedoch droht auch ein möglicher Nachteil: Der Daten-Download (Egress) ist nicht immer kostenfrei, sondern kann mitunter sogar richtig teuer werden. Wir zeigen anhand von vier AWS-Beispielen, welche Cloud-Storage-Kosten in der Praxis auf Unternehmen zukommen können – und wie man sie in den Griff bekommt.

Weiterlesen
Angesichts der sehr realen Bedrohung durch Ransomware hat sich die Rolle des Backups gewandelt.
Die neue Rolle des Backups

Datensicherung in Zeiten von Ransomware

Da Ransomware eine immer drängende Gefahr wird, stellt sich Unternehmen die Frage, wie sich ihre Backups effektiv schützen lassen. Sie befürchten, dass laut jüngsten Gerüchten auch Air-Gapping nicht mehr reicht. Und schließlich wollen die Kunden wissen, was es hinsichtlich Backups in Hybrid- und Multi-Clouds zu beachten gilt.

Weiterlesen
Cloud-native Objektspeicher-Software: Scality Artesca.
Objektspeicher-Software für den kleineren Bedarf

Scality erschließt mit Artesca den Einstiegsmarkt für moderne Cloud-Apps

Mit der neuen Software Artesca hat Scality eine Object-Storage-Lösung vorgestellt, die den Markt unterhalb seiner RING-Lösung abdecken soll, der bei 200 TB ansetzt. Die Cloud-App wendet sich an DevOps-Entwickler und Anwendungsbetreuer, besonders am Edge und in der Cloud. Entwickelt für Kubernetes-Umgebungen in der Multi-Cloud, wird Artesca in den ersten sechs Monaten exklusiv von Hewlett Packard Enterprise mit dessen Hardware vertrieben.

Weiterlesen
Cloud-Speichern im Petabyte-Bereich: SOFS für Azure soll’s ermöglichen.
Scality kündigt Scale-Out File System auf MS Azure Stack mit 125 GB/s Durchsatz an

Petabyte-Cloud-Storage mit Scality

Scality, Anbieter von Software-Lösungen für Distributed File & Object Storage, hat eine Technical Preview seines Scale-Out File Systems (SOFS) in Microsoft Azure angekündigt. Scality SOFS auf Azure soll lineare Skalierungsleistung für schreib- und leseintensive Workloads liefern. Die Performance von Scality SOFS auf Azure liege bei maximal 1 Terabit pro Sekunde, was dem Download von mindestens 50 HD-Filmen pro Sekunde gleichzeitig entspräche.

Weiterlesen
Die neue HPC-Storage-Familie von HPE bedient Cluster schon ab zehn Clients und adressiert damit Branchen wie das Gesundheitswesen, die Pharmaindustrie, die Automobilindustrie, den Finanzsektor und andere.
HPC-Storage-Familie mit IBMs Spectrum Scale File System von HPE

Hewlett Packard Enterprise kündigt neue Storage-Familie an

In einem Blog hat der HPE-Produktmanager für den HPC-und-KI-Speichermarkt Uli Plechschmidt eine neue Storage-Familie namens HPE Parallel File System Storage für den unteren HPC-und-KI-Markt angekündigt. Wo Cray ClusterStor 1000 erst ab 1 Petabyte anfing, sollen demnach künftig 27 Terabyte als Einstiegsschwelle reichen. Statt Lustre soll künftig IBM Spectrum Scale ECE das Filesystem stellen, die Server sind HPE ProLiants anstelle eines Cray-Boliden. Damit will HPE sich und seinen Vertriebspartnern ganz andere Märkte für HPC/KI-Workloads erschließen.

Weiterlesen
SAN in der Cloud: AWS macht’s möglich.
Storage-Innovationen auf der AWS re:invent 2020

AWS kündigt erstes SAN für die Cloud an

AWS hat auf seiner Kundenkonferenz „AWS re:invent 2020“ vier Storage-Innovationen angekündigt, die Kunden zusätzliche Speicherleistung, Ausfallsicherheit und weiteren Mehrwert bieten, indem sie das erste Storage Area Network (SAN) liefern, das für die Cloud entwickelt wurde. Die neuen Updates umfassen Amazon EBS io2 Block Express (Vorschau), EBS Gp3 Volumes (ab sofort), Amazon S3 Intelligent-Tiering für Archivdaten (ab sofort) und Amazon S3 Replication zu mehreren Zielbuckets (ab sofort).

Weiterlesen
Aus Sicht von Cyberkriminellen ist Ransomware nur dann erfolgreich, wenn auch das Backup ausgeschaltet wird.
Deep MFA von Asigra

Backups vor Ransomware schützen

Bei einem Ransomware-Angriff sind häufig die Backups in Gefahr, denn sie sind die „Lebensversicherung“ des Opfers. Um sie zu schützen, gibt es verschiedene Verfahren. Sei es ein unveränderliches Filesystem, ein Air Gap oder die tiefe Multifaktor-Authentifizierung (MFA). Letztere empfiehlt der US-Anbieter Asigra.

Weiterlesen
„Datensicherungsplattform für alle Betriebsmodelle und Einsatzbereiche“: NetBackup 9.
Veritas NetBackup 9 und HubStor

Veritas unterstützt mit NetBackup 9 Scale-Out und OpenStack

Der Datensicherungsspezialist Veritas hat Version 9 seines Flaggschiffprodukts NetBackup angekündigt. Sie erlaubt Scale-Out-Ansätze mit hyperkonvergenter Infrastruktur und weist erweiterte Unterstützung für OpenStack auf. Mit der angekauften Backup-as-a-Service-Lösung HubStor lassen sich Daten aus Office 365, Box, Microsoft Teams und so weiter auf MS Azure sichern. Beide Angebote sind verfügbar.

Weiterlesen
Mit dem PowerStore 500 adressiert Dell den Enterprise-Einstiegsmarkt. Unterstützt wird die Leistungsfähigkeit des Arrays durch das neue PowerStoreOS 2.0, das unter anderem auch die Rechenleistung speicherintensiver Anwendungen wie von IoT-Apps steigern soll.
Dell Technologies PowerStore 500

Speicher-Array für den Enterprise-Einstiegsmarkt

Mit dem Modell PowerStore 500 Einstieg will Dell Technologies künftigen Kunden den Einstieg ins Enterprise-Storage ermöglichen. Die Storage-Appliance erreicht eine effektive Kapazität von bis zu 1,2 Petabyte. In einem Vier-Node-Cluster können 4,8 PB an Speicherkapazität aufgenommen werden und bei einem gemischten PowerStore-Cluster bis zu 9,8 PB. Einsatzumgebungen sind laut Dell „alle Anwendungen und Industriebereiche, die eine Kombination aus gutem Preis-Leistungs-Verhältnis, hoher Performance, kompaktem Design und hohem Automatisierungsgrad benötigen“.

Weiterlesen
Im wahrsten Wortsinne unvorstellbar: 50-mal so viele Objekte, wie es Galaxien im Universum gibt, sind in Amazon S3 gespeichert.
Amazon S3 ist 15 Jahre alt geworden

Vom E-Commerce-Laden zum Storage-Riesen

Am 14. März 2006 wurde Amazons Simple Storage Service S3 gestartet. Der Tag wird auch „Pi-Tag“ genannt, weil er in US-amerikanischer Schreibweise 3/14 formuliert wird – und das ist der Anfang der Zahl Pi. Wie sähe die Welt heute ohne S3 aus? Viele Dienste würden nicht mehr funktionieren, und mit Sicherheit wäre Datenspeicherung zum Preis von Cents pro Gigabyte (oder mehr) pro Monat um etliche Größenordnungen teurer.

Weiterlesen
Das Ziel: keine Chance für Erpressungsversuche.
Arcserve stellt X Series und Unified Data Protection 8.0 vor

Backup für Ransomware-freie IT

Arcserve hat mit der X-Serie die nächste Generation seiner Backup-Appliance mit der Security-Software Intercept X von Sophos vorgestellt. Die Speicherkapazität wurde auf 1 PB erhöht. Ab sofort ist zudem die neue Arcserve Unified Data Protection (UDP) 8.0 erhältlich, das dedupliziertes Backup/DR in die Cloud offeriert. Mit diesen Angeboten will Arcserve eine Ransomware-freie IT ermöglichen.

Weiterlesen
Microchip Technology hat drei neue HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs im Portfolio.
Adapter für Storage in Rechenzentren

Microchip bietet neue HBA-Adapter an

Der Komponentenhersteller Microchip hat die Verfügbarkeit dreier neuer HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs verlautbart, die NVMe-SSDs und Disk-Arrays unterstützen. Neben dem SmartHBA 2200 und dem 1200 Host Bus Adapter bildet der 3200 RAID Adapter das Flaggschiff. Er ist für PCIe 4, NVMe, 24G-SAS und RAID ausgestattet, verschlüsselt aber auch ruhende Daten.

Weiterlesen