Michael Matzer ♥ Storage-Insider

Michael Matzer

Michael Matzer arbeitet als Journalist, Übersetzer, Rezensent und Buchautor und lebt in der Nähe von Stuttgart. Seine Themen sind u.a. IT-Security, Big Data, Unternehmenssoftware, E-Commerce und HPC.

Artikel des Autors

Dell passt sein Portfolio an den Bedarf der Kunden an und deckt damit weitere Facetten der neuen Storage-Welt ab.
Dell stellt neue Storage-Lösungen vor

Hardware, Software und Services für alle Storage-Umgebungen

Auf der Dell Technologies World 2022, die in Las Vegas stattfand, kündigte Sam Grocott, der Leiter des Produktmarketings, an, dass das Project Alpine, an dem Dell schon lange strickt, endlich Realität wird. Das bedeutet nichts weniger, als dass Dell Software-Defined Storage für Block, File und Object in Public Clouds zur Verfügung stellen wird. Daneben spielen Sicherheitsangebote sowie die Partnerschaft mit dem Analytics-Anbieter Snowflake eine Rolle.

Weiterlesen
Nicht irreleiten lassen! Flash-Storage ist zwar bei der Datenübertragung blitzschnell, doch spielt der Begriff eigentlich auf den Blitz einer Fotokamera an.
Grundlagen: nichtflüchtiger Speicher

Flash-Storage im Überblick

Flash-Speicher wird allenthalben mit hohen Datengeschwindigkeiten assoziiert – und das völlig zu Recht. Bei der Namensgebung war dieser Umstand jedoch nicht ausschlaggebend, da das englische flash in diesem Fall auf einen ganz anderen Umstand anspielt. Viel wichtiger ist jedoch die Frage: Welche unterschiedlichen Flash-Speicher gibt es?

Weiterlesen
Die Geräte einer 5G-vernetzten Welt benötigen entsprechende Storage-Lösungen. Die neue Generation an Embedded-Flash-Speichern von Kioxia wurde genau dafür konzipiert.
Storage für die 5G-Welt

Kioxia bringt ersten UFS-Embedded-Flash-Speicher auf den Markt

Kioxia Europe, vormals Toshiba Memory Europe, bietet jetzt Embedded-Flash-Speicher an, der Universal Flash Storage (UFS) 3.1, QLC und Unterstützung für MIPI M-Phy v.5.0 vereint. Die neue Produktreihe setzt auf die 3D-Flash-Speichertechnologie des Unternehmens BiCS FLASH und ist in drei Speicherkapazitäten erhältlich: 128 Gigabyte, 256 GB und 512 GB. Bereits im Januar hat Kioxia eine QLC-Produktreihe mit 512 GB Kapazität gestartet.

Weiterlesen
Die Modelle der Tintri-Serie VMstore T7000 automatisieren Storage mithilfe von Machine Learning.
VMstore-T7000-Serie von Tintri

NVMe-Speichersystem optimiert sich selbst mit KI

Tintri, ein Tochterunternehmen von DDN Networks, hat mit der Vmstore-T7000-Serie ein NVMe-Speichersystem vorgestellt, das auf die vollautomatische Steuerung durch Machine Learning setzt. Mit einer Kapazität bis zu 645 Terabyte in zwei Rack-Units bieten die drei Modelle Platz für bis zu 7.500 VMs oder 22.500 vDisks. Der Scale-Out kann auf über 40 Petabyte konfiguriert werden.

Weiterlesen
Ransomware ist nach wie vor das alles überschattende Sicherheitsproblem der IT. Um dieser Gefahr adäquat begegnen zu können, müssen nicht nur Schutzmaßnahmen, sondern auch Datenwiederherstellungslösungen auf Cyberattacken und deren Folgen zugeschnitten sein.
Veeam Data Protection Report 2022

Positive Trends, schockierende Befunde

Nach Erkenntnissen des aktuellen „Data Protection Reports 2022“ wird die jeweilige Unternehmensführung zunehmend unzufrieden damit, was die IT-Abteilung in puncto Datensicherung abliefert. Angesichts der Ransomware-Attacken will sie eine höhere Server-Zuverlässigkeit und geringere Datenverluste, indem die RTO- und RPO-Kennzahlen verringert werden. Daher gewinnt die Nutzung der Cloud zunehmend an Bedeutung.

Weiterlesen
Die Datenflut ist eines der aktuell größten Storage-Probleme – wenn nicht die Herausforderung schlechthin.
Storage für große Datenmengen

Eine Herausforderung für Speichersysteme: Big Data

Täglich schwillt die Flut an Informationen, die aus Mobilgeräten, dem Internet, dem Edge und den Transaktionssystemen in die firmeneigene IT-Infrastruktur fließen, immer weiter an. Eines der Kennzeichen von Big Data ist die Unstrukturiertheit der Daten, die Unberechenbarkeit des Umfangs und der Häufigkeit ihres Auftretens sowie die meist mangelhafte Datenqualität der verschiedenartigen Informationstypen.

Weiterlesen
Veritas stellt seine SDI-Lösung InfoScale nun auch als Container für Kubernetes-Plattformen zur Verfügung.
Der nächste Schritt für InfoScale

Veritas InfoScale als Container für Kubernetes verfügbar

Veritas, ein Spezialist für Storage, Backup/DR und Business Continuity, hat seine SDI-Lösung InfoScale als Container für Kubernetes-Plattformen, inklusive Red Hat OpenShift, verfügbar gemacht. Dieser Schritt soll es vereinfachen, die kritischen Stateful-Workloads, die in Containern laufen, mit der Hochverfügbarkeit, dem persistente Speicher und der Speicheroptimierung von InfoScale zu versehen.

Weiterlesen
Keine Leistungs- oder Kapazitätsobergrenze: PanFS eignet sich ideal für HPC und KI.
Panasas-Filesystem PanFS für HPC-Storage optimiert

Speichern ohne Flaschenhals

Das Panasas-Filesystem PanFS ist in vieler Hinsicht ungewöhnlich. Das parallele Filesystem für Object Storage verfügt weder über eine API zu AWS S3, wie sie inzwischen vielfach angeboten wird, noch über Datenkompression, die ebenfalls Standard ist. Laut Curtis Anderson, dem Software-Architekten von Panasas, ist das System aber auf schnellen Datenzugriff auch bei Mixed Workloads in HPC und KI optimiert und soll so bei hoher Leistung Betriebskosten verringern.

Weiterlesen
Mit Hilfe einer Kombination aus drehenden Platten und Flash-Speichern will Western Digital künftig Laufwerke mit mindestens 50 TB Speicherkapazität herstellen.
OptiNAND-Technologie

Western Digital plant Herstellung von 50-TB-Festplatten

Western Digital, Hersteller von Festplatten- und Flash-Laufwerken, hat mit „OptiNAND“ eine neue Technologie zur Steigerung der Kapazität, Leistung und Zuverlässigkeit seiner Festplatten vorgestellt. Damit sollen schon in dieser Dekade Kapazitäten von 50 Terabyte pro Laufwerk erzielt werden können. Hauptzielgruppe für die ersten Produkte sollen Hyperscaler-CSPs und Großunternehmen sein.

Weiterlesen
Microchip Technology hat drei neue HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs im Portfolio.
Adapter für Storage in Rechenzentren

Microchip bietet neue HBA-Adapter an

Der Komponentenhersteller Microchip hat die Verfügbarkeit dreier neuer HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs verlautbart, die NVMe-SSDs und Disk-Arrays unterstützen. Neben dem SmartHBA 2200 und dem 1200 Host Bus Adapter bildet der 3200 RAID Adapter das Flaggschiff. Er ist für PCIe 4, NVMe, 24G-SAS und RAID ausgestattet, verschlüsselt aber auch ruhende Daten.

Weiterlesen
Im wahrsten Wortsinne unvorstellbar: 50-mal so viele Objekte, wie es Galaxien im Universum gibt, sind in Amazon S3 gespeichert.
Amazon S3 ist 15 Jahre alt geworden

Vom E-Commerce-Laden zum Storage-Riesen

Am 14. März 2006 wurde Amazons Simple Storage Service S3 gestartet. Der Tag wird auch „Pi-Tag“ genannt, weil er in US-amerikanischer Schreibweise 3/14 formuliert wird – und das ist der Anfang der Zahl Pi. Wie sähe die Welt heute ohne S3 aus? Viele Dienste würden nicht mehr funktionieren, und mit Sicherheit wäre Datenspeicherung zum Preis von Cents pro Gigabyte (oder mehr) pro Monat um etliche Größenordnungen teurer.

Weiterlesen
Damit die Cloud-Kosten später nicht aus dem Ruder laufen, ist es im Vorfeld absolut notwendig, Preisbeispiele durchzurechnen.
Vier Preisbeispiele zum Daten-Download aus der Amazon-Cloud

Storage-Kosten für Datenübertragung mit AWS-Tools optimieren

Cloud-Dienste als Datenspeicher zu nutzen, hat mehrere Vorteile. Jedoch droht auch ein möglicher Nachteil: Der Daten-Download (Egress) ist nicht immer kostenfrei, sondern kann mitunter sogar richtig teuer werden. Wir zeigen anhand von vier AWS-Beispielen, welche Cloud-Storage-Kosten in der Praxis auf Unternehmen zukommen können – und wie man sie in den Griff bekommt.

Weiterlesen
Angesichts der sehr realen Bedrohung durch Ransomware hat sich die Rolle des Backups gewandelt.
Die neue Rolle des Backups

Datensicherung in Zeiten von Ransomware

Da Ransomware eine immer drängende Gefahr wird, stellt sich Unternehmen die Frage, wie sich ihre Backups effektiv schützen lassen. Sie befürchten, dass laut jüngsten Gerüchten auch Air-Gapping nicht mehr reicht. Und schließlich wollen die Kunden wissen, was es hinsichtlich Backups in Hybrid- und Multi-Clouds zu beachten gilt.

Weiterlesen
SAN in der Cloud: AWS macht’s möglich.
Storage-Innovationen auf der AWS re:invent 2020

AWS kündigt erstes SAN für die Cloud an

AWS hat auf seiner Kundenkonferenz „AWS re:invent 2020“ vier Storage-Innovationen angekündigt, die Kunden zusätzliche Speicherleistung, Ausfallsicherheit und weiteren Mehrwert bieten, indem sie das erste Storage Area Network (SAN) liefern, das für die Cloud entwickelt wurde. Die neuen Updates umfassen Amazon EBS io2 Block Express (Vorschau), EBS Gp3 Volumes (ab sofort), Amazon S3 Intelligent-Tiering für Archivdaten (ab sofort) und Amazon S3 Replication zu mehreren Zielbuckets (ab sofort).

Weiterlesen
Aus Sicht von Cyberkriminellen ist Ransomware nur dann erfolgreich, wenn auch das Backup ausgeschaltet wird.
Deep MFA von Asigra

Backups vor Ransomware schützen

Bei einem Ransomware-Angriff sind häufig die Backups in Gefahr, denn sie sind die „Lebensversicherung“ des Opfers. Um sie zu schützen, gibt es verschiedene Verfahren. Sei es ein unveränderliches Filesystem, ein Air Gap oder die tiefe Multifaktor-Authentifizierung (MFA). Letztere empfiehlt der US-Anbieter Asigra.

Weiterlesen
Cohesity bietet künftig zusammen mit Amazon Web Services ein neues DMaaS-Angebot an.
Backups von Office-365-Installationen und mehr

Cohesity bietet zusammen mit AWS Data-Management-as-a-Service an

Cohesity, das auf seiner Cloud-basierten Plattform Datensilos zusammenführt und verwaltet, will zusammen mit Amazon Web Services im vierten Quartal einen neuen Data-Management-Service anbieten. Dieses DMaaS-Angebot soll zunächst als „DataProtect as a Service“ mit Backup & Restore realisiert und schrittweise ausgebaut werden. Der AWS-Kunde soll in Kürze in jeder beliebigen europäischen „Availability Zone“ (AZ) seiner Wahl darauf zugreifen können.

Weiterlesen
Neo4j hat die Version 4.0 seiner Plattform vorgestellt.
Neo4j Version 4.0

Graph-Datenbank Neo4j wird noch skalierbarer

Neo4j, ein Anbieter von Graph-Datenbanktools, hat die Version 4.0 seiner Plattform verfügbar gemacht. Zu den Neuerungen gehören eine unbegrenzte Skalierbarkeit, eine mandantenfähige Multidatenbanknutzung, die Integration von Apache Kafka und die besonders für Unternehmen wichtige feingranulare Steuerung von Datensicherheit und Datenschutz.

Weiterlesen
Cloud-Speichern im Petabyte-Bereich: SOFS für Azure soll’s ermöglichen.
Scality kündigt Scale-Out File System auf MS Azure Stack mit 125 GB/s Durchsatz an

Petabyte-Cloud-Storage mit Scality

Scality, Anbieter von Software-Lösungen für Distributed File & Object Storage, hat eine Technical Preview seines Scale-Out File Systems (SOFS) in Microsoft Azure angekündigt. Scality SOFS auf Azure soll lineare Skalierungsleistung für schreib- und leseintensive Workloads liefern. Die Performance von Scality SOFS auf Azure liege bei maximal 1 Terabit pro Sekunde, was dem Download von mindestens 50 HD-Filmen pro Sekunde gleichzeitig entspräche.

Weiterlesen
SDS entkoppelt Hardware und Software voneinander.
Unified Storage mit File, Block und Object Storage

Optimierte, benutzerfreundliche Nutzung von Ceph-Clustern mit Croit

Software-Defined Storage (SDS) entkoppelt die Storage-Verwaltung von der genutzten Hardware wie etwa Flash, Disk und NVMe. Die quelloffene Software Ceph erlaubt es, Unified Storage mit File, Block und Object Storage zu realisieren. Um sie benutzerfreundlicher zu machen, bietet die deutsche Firma Croit eine Managementkonsole mit einer eigenen Software-Lösung sowie Beratung an.

Weiterlesen
Für eine valide Wettervorhersage müssen im ersten Schritt Messdaten erfasst und gespeichert werden – nur eine Einsatzmöglichkeit der neuen Seagate-Software CORTX für hohe Datenvolumina und raschen Datendurchsatz.
Seagate Objektspeicher-Software CORTX und HCI-Appliance Lyve Drive

Objektspeicher für große Datenmengen

Seagate hat auf seiner Kundenkonferenz Datasphere 2020 eine HCI-Speicher-Infrastruktur mit 16- und 20-TB-HAMR-Festplatten vorgestellt, die von der neuen quelloffenen Objektspeicher-Software CORTX gesteuert wird. Damit kann eine einzelne Einheit der HCI-Appliance Lyve Drive Rack in der von Seagate vorgestellten Demoversion 20-TB-HAMR-Laufwerke mit einer Kapazität von bis zu 2,1 PB aufnehmen. Diese Einzeleinheiten können wiederum zu einem Rack mit einer Gesamtkapazität von bis zu 8,4 PB kombiniert werden.

Weiterlesen
Ähnlich wie Veeam positioniert sich Pure Storage mit Hilfe einer Übernahme im Containermarkt.
Pure Storage übernimmt Portworx

Investition in einen Wachstumsmarkt

Mit der Übernahme des Kubernetes-Spezialisten Portworx begibt sich Pure Storage auf den Markt für Cloud-native Stateful-Container-Apps und Multi-Cloud-Architekturen. Diese sollen ebenfalls gespeichert und geschützt werden. Die Portworx-Software „Portworx Enterprise“ wird bereits bei T-Mobile, Lufthansa Systems und Carrefour eingesetzt.

Weiterlesen
„Datensicherungsplattform für alle Betriebsmodelle und Einsatzbereiche“: NetBackup 9.
Veritas NetBackup 9 und HubStor

Veritas unterstützt mit NetBackup 9 Scale-Out und OpenStack

Der Datensicherungsspezialist Veritas hat Version 9 seines Flaggschiffprodukts NetBackup angekündigt. Sie erlaubt Scale-Out-Ansätze mit hyperkonvergenter Infrastruktur und weist erweiterte Unterstützung für OpenStack auf. Mit der angekauften Backup-as-a-Service-Lösung HubStor lassen sich Daten aus Office 365, Box, Microsoft Teams und so weiter auf MS Azure sichern. Beide Angebote sind verfügbar.

Weiterlesen
Große Datenmengen und die Cloud waren zwei zentrale Themen bei der Veranstaltung „Technology Live“.
„Technology Live“

Gipfeltreffen von Storage-Anbietern

Die drei Storage-Anbieter Western Digital, Scality und Qumulo stellten kürzlich auf einer gemeinsamen Presseveranstaltung den neuesten Stand ihrer Produkte und Plattformen vor. Gemeinsam war allen die Integration der Cloud als Ressource und die Unterstützung sehr großer Datenmengen im Petabyte-, Exabyte- und Zettabyte-Bereich.

Weiterlesen
Cloud-native Objektspeicher-Software: Scality Artesca.
Objektspeicher-Software für den kleineren Bedarf

Scality erschließt mit Artesca den Einstiegsmarkt für moderne Cloud-Apps

Mit der neuen Software Artesca hat Scality eine Object-Storage-Lösung vorgestellt, die den Markt unterhalb seiner RING-Lösung abdecken soll, der bei 200 TB ansetzt. Die Cloud-App wendet sich an DevOps-Entwickler und Anwendungsbetreuer, besonders am Edge und in der Cloud. Entwickelt für Kubernetes-Umgebungen in der Multi-Cloud, wird Artesca in den ersten sechs Monaten exklusiv von Hewlett Packard Enterprise mit dessen Hardware vertrieben.

Weiterlesen
Die neue HPC-Storage-Familie von HPE bedient Cluster schon ab zehn Clients und adressiert damit Branchen wie das Gesundheitswesen, die Pharmaindustrie, die Automobilindustrie, den Finanzsektor und andere.
HPC-Storage-Familie mit IBMs Spectrum Scale File System von HPE

Hewlett Packard Enterprise kündigt neue Storage-Familie an

In einem Blog hat der HPE-Produktmanager für den HPC-und-KI-Speichermarkt Uli Plechschmidt eine neue Storage-Familie namens HPE Parallel File System Storage für den unteren HPC-und-KI-Markt angekündigt. Wo Cray ClusterStor 1000 erst ab 1 Petabyte anfing, sollen demnach künftig 27 Terabyte als Einstiegsschwelle reichen. Statt Lustre soll künftig IBM Spectrum Scale ECE das Filesystem stellen, die Server sind HPE ProLiants anstelle eines Cray-Boliden. Damit will HPE sich und seinen Vertriebspartnern ganz andere Märkte für HPC/KI-Workloads erschließen.

Weiterlesen
Mit Hilfe einer Kombination aus drehenden Platten und Flash-Speichern will Western Digital künftig Laufwerke mit mindestens 50 TB Speicherkapazität herstellen.
OptiNAND-Technologie

Western Digital plant Herstellung von 50-TB-Festplatten

Western Digital, Hersteller von Festplatten- und Flash-Laufwerken, hat mit „OptiNAND“ eine neue Technologie zur Steigerung der Kapazität, Leistung und Zuverlässigkeit seiner Festplatten vorgestellt. Damit sollen schon in dieser Dekade Kapazitäten von 50 Terabyte pro Laufwerk erzielt werden können. Hauptzielgruppe für die ersten Produkte sollen Hyperscaler-CSPs und Großunternehmen sein.

Weiterlesen
Mit dem PowerStore 500 adressiert Dell den Enterprise-Einstiegsmarkt. Unterstützt wird die Leistungsfähigkeit des Arrays durch das neue PowerStoreOS 2.0, das unter anderem auch die Rechenleistung speicherintensiver Anwendungen wie von IoT-Apps steigern soll.
Dell Technologies PowerStore 500

Speicher-Array für den Enterprise-Einstiegsmarkt

Mit dem Modell PowerStore 500 Einstieg will Dell Technologies künftigen Kunden den Einstieg ins Enterprise-Storage ermöglichen. Die Storage-Appliance erreicht eine effektive Kapazität von bis zu 1,2 Petabyte. In einem Vier-Node-Cluster können 4,8 PB an Speicherkapazität aufgenommen werden und bei einem gemischten PowerStore-Cluster bis zu 9,8 PB. Einsatzumgebungen sind laut Dell „alle Anwendungen und Industriebereiche, die eine Kombination aus gutem Preis-Leistungs-Verhältnis, hoher Performance, kompaktem Design und hohem Automatisierungsgrad benötigen“.

Weiterlesen
Das Ziel: keine Chance für Erpressungsversuche.
Arcserve stellt X Series und Unified Data Protection 8.0 vor

Backup für Ransomware-freie IT

Arcserve hat mit der X-Serie die nächste Generation seiner Backup-Appliance mit der Security-Software Intercept X von Sophos vorgestellt. Die Speicherkapazität wurde auf 1 PB erhöht. Ab sofort ist zudem die neue Arcserve Unified Data Protection (UDP) 8.0 erhältlich, das dedupliziertes Backup/DR in die Cloud offeriert. Mit diesen Angeboten will Arcserve eine Ransomware-freie IT ermöglichen.

Weiterlesen
Im wahrsten Wortsinne unvorstellbar: 50-mal so viele Objekte, wie es Galaxien im Universum gibt, sind in Amazon S3 gespeichert.
Amazon S3 ist 15 Jahre alt geworden

Vom E-Commerce-Laden zum Storage-Riesen

Am 14. März 2006 wurde Amazons Simple Storage Service S3 gestartet. Der Tag wird auch „Pi-Tag“ genannt, weil er in US-amerikanischer Schreibweise 3/14 formuliert wird – und das ist der Anfang der Zahl Pi. Wie sähe die Welt heute ohne S3 aus? Viele Dienste würden nicht mehr funktionieren, und mit Sicherheit wäre Datenspeicherung zum Preis von Cents pro Gigabyte (oder mehr) pro Monat um etliche Größenordnungen teurer.

Weiterlesen
Microchip Technology hat drei neue HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs im Portfolio.
Adapter für Storage in Rechenzentren

Microchip bietet neue HBA-Adapter an

Der Komponentenhersteller Microchip hat die Verfügbarkeit dreier neuer HBA-Adapter seiner Adaptec-Reihe für Rechenzentren und OEMs verlautbart, die NVMe-SSDs und Disk-Arrays unterstützen. Neben dem SmartHBA 2200 und dem 1200 Host Bus Adapter bildet der 3200 RAID Adapter das Flaggschiff. Er ist für PCIe 4, NVMe, 24G-SAS und RAID ausgestattet, verschlüsselt aber auch ruhende Daten.

Weiterlesen