- Volontär IT-BUSINESS & eGovernment Computing von 2002 bis Juni 2004
- Redakteur eGovernment Computing von 2004 bis 2007
- Redakteur SearchStorage.de von 2007 bis 2013.
- Redakteur Storage-Insider von 2013 bis 2014.
- Seit 2014 Chefredakteur BigData-Insider.
Die DATA Storage & Analytics Technology Conference 2020, die am 17. September in Würzburg und am 24. September in Neuss stattfindet, verspricht spannende Keynotes. Storage-Insider hat als Mitveranstalter und Medienpartner die Keynote-Speaker im Vorfeld um eine Preview gebeten. Hier im Interview: Dr. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC).
Die DATA Storage & Analytics Technology Conference 2020, die aufgrund der Coronakrise am 30. April und 12. Mai dieses Jahres online sowie am 17. September in Würzburg und am 24. September in Neuss stattfindet, verspricht spannende „Keynotes“. BigData-Insider hat die Keynote-Speaker im Vorfeld zu ihren Vorträgen befragt. Hier im Interview: Dr. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC).
Car-Sharing-Modelle und im Tiefflug befindliche Preise für Mietfahrzeuge erschweren Automobilherstellern heute ihr Geschäft. Kommt es zu der Entscheidung, sich einen Neuwagen anzuschaffen, fallen inzwischen nicht mehr nur klassische Ausstattungsmerkmale wie die Motorleistung ins Gewicht. Vielmehr stehen integrierte digitale Dienste oben auf der Wunschliste. Dies wiederum fordert leistungsstarke IT-Infrastrukturen.
W. Curtis Preston, unabhängiger Backupexperte, erklärt im Gespräch mit Storage-Insider.com den Unterschied zwischen Kopien und Snapshots und erläutert, für welche Backup-Szenarien beide Verfahren jeweils geeignet sind.
Neo4j, ein Anbieter von Graph-Datenbanktools, hat die Version 4.0 seiner Plattform verfügbar gemacht. Zu den Neuerungen gehören eine unbegrenzte Skalierbarkeit, eine mandantenfähige Multidatenbanknutzung, die Integration von Apache Kafka und die besonders für Unternehmen wichtige feingranulare Steuerung von Datensicherheit und Datenschutz.
Schon kurze Ausfälle von IT-Systemen können sich für fast jedes Unternehmen zu einer Bedrohung entwickeln. Ein Disaster-Recovery-Konzept sollte daher in jedem Unternehmen vorhanden sein. Acronis hat zehn Tipps formuliert, wie man einen solchen Notfallplan erstellt.
Noch vor einiger Zeit hat das iSCSI-Protokoll (Internet Small Computer System Interface) ein Nischendasein geführt. Doch Vorteile wie ein einfacheres Management und ein besseres Preis-Leistungs-Verhältnis im Vergleich zu Fibre Channel lassen IP-SAN-Umgebungen immer populärer werden.
Bei der Datenspeicherung unterscheidet man zwischen dauerhaften (non-volatilen, nicht-flüchtigen) und nicht-dauerhaften (volatilen, flüchtigen) Speichertechniken. Halbleiterspeicher gibt es als flüchtige (RAM) oder nicht-flüchtige (ROM, Flash) Variante. Dieser Speichertyp kommt ohne mechanische Teile aus und ist daher meist sehr schnell bei geringem Energieverbrauch. Wie Flash-Speicher funktionieren und welche verschiedenen Typen es gibt, erläutert der nachfolgende Beitrag.
Das stetige Datenwachstum stellt immer mehr Unternehmen vor Probleme – Syncsort und NetApp setzen auf eine Lösung, die Backups um bis zu 95 Prozent schneller erstellt.
Es gibt viele Konzepte, um die IT-Dienste von Rechenzentren und Niederlassungen gegen Gefahren zu schützen. Zur Aufrechterhaltung haben sich unterschiedliche Verfahren etabliert, für die Hersteller mit den Schlagworten Business Continuity, Hochverfügbarkeit, Ausfallsicherheit, Disaster Recovery oder einfach nur Backup und Restore werben. Storage-Insider.de gibt in diesem Artikel einen Überblick über wichtige Techniken und Protagonisten.
Der Markt für Graphdatenbanken blüht und wächst, denn die Nachfrage hinsichtlich der Analyse vernetzter Daten steigt rasch. Doch der IT-Nutzer fragt sich, welche Graphdatenbank die leistungsfähigste ist und sich mit ihren Funktionen für ihn am besten eignet.
Wie der Name impliziert, wird die externe Speicherumgebung durch das System, genauer gesagt durch den angeschlossenen Server und dessen Betriebssystem, verwaltet. Verwaltet heißt in diesem Zusammenhang, dass das Betriebssystem automatisch alle Aktivitäten im Zusammenhang mit externem Speicher nach einem vordefinierten Regelwerk – Policy-basierend – verwaltet.
QNAP-Anwender können ihre Turbo-NAS ab sofort auch als Mailserver nutzen. Die dazu nötige Software XDove bietet der Hersteller als kostenlosen Download an. Das Tool unterstützt die Protokolle SMTP, POP3 sowie IMAP und bietet einen AJAX-Webmailer. Anwender können zudem virtuelle Domänen und Konten anlegen und weiter Collaboration-Tools nutzen.
Das weltweite Datenvolumen soll bis 2020 von derzeit 4,4 Zettabyte auf 44 Zettabyte anwachsen. Vor allem das Internet der Dinge und die damit einhergehende zunehmende Verbreitung von Funktechniken, vernetzten Produkten und softwarebasierenden Geschäftsmodellen werden nach Einschätzung von EMC und dem Marktforscher IDC dazu beitragen, dass sich der Datenbestand künftig alle zwei Jahre verdoppeln wird.
Neue Online-Backup-Dienste beleben die Diskussion um die Vor- und Nachteile von lokaler und Online-Datensicherung. Als Dienstleistung bietet Online-Backup neben hohem Komfort vor allem die sichere Lagerung von Daten an einem anderen Ort. Brennt beispielsweise ein Büro mit dem Server und der lokal gelagerten Sicherung ab, wird man sich wünschen, Online-Backup genutzt zu haben. Dennoch spielt neben strategischen Überlegungen auch die Kostenfrage in der Evaluation eine zentrale Rolle.
Die IBM hat ihr umfassendes Datenbankportfolio aktualisiert. Zu den Produkten gehören das Urgestein Db2, aber auch Informix, die Netezza-Appliance und das relativ neue Cloud Pak for Data.
Policy-basierendes Storage Management übernimmt die Aufgaben des Speicher-Administrators, die zuvor manuell ausgeführt wurden. Das Data Facility Storage Management System (DFSMS) erlaubt die Trennung der logischen Sicht der Daten von der physikalischen Speicherkonfiguration. Logisch ist hier synonym mit Service Level Agreements (SLA) gleichzusetzen und physikalisch bedeutet, wo die Daten tatsächlich abgespeichert werden.
Anwenderkonferenz im Zeichen der Covid-19-Pandemie: Amazon Web Services lud in diesem Jahr zum virtuellen „AWS Summit EMEA“ – ohne Lightshow und Musik und ohne Marketinggeschrei. Die Botschaft lautete: Die Cloud lohnt sich umso mehr, wenn man nicht nur die Infrastruktur, sondern auch die Services des Anbieters in Anspruch nimmt.
Wenn man bedenkt, dass große Teile der heute verwendeten Architektur im Tivoli Storage Manager vor 20 Jahren konzipiert wurden, kann man die Leistung der damaligen Entwickler nicht hoch genug einschätzen. Besonders nachhaltig prägen dabei die Architektur-Elemente „forever incremental“, die Nutzung einer transaktional arbeitenden Meta-Datenbank und die „Tiered-Storage“-Konzeption den Gesamterfolg der TSM-Lösung.
Das Datenwachstum und die damit verbundenen Aktionen in einer Infrastruktur verursachen in allen Systemkomponenten eine Fülle von Events. Fehler und Probleme sind vorprogrammiert. Mit einem kosteneffektiven und optimierten Log-Data-Management-System sind diese Unregelmäßigkeiten leicht in den Griff zu bekommen. Im Vergleich zu klassischen Datenbanken oder Data Warehouses ist die Planung dieser Lösungen vergleichsweise einfach.
Wenn es um die Wahl der richtigen Datenbank geht, agieren viele Entwickler nach Gefühl oder Gewohnheit, ohne sich Gedanken über die eigentliche Aufgabe zu machen. Deshalb hat Couchbase fünf Tipps zu diesem Thema zusammengestellt.
Diese Artikelreihe beruht auf einem Whitepaper der auf rechtliche Themen im IT-Umfeld spezialisierten Rechtsanwaltskanzlei PRW Rechtsanwälte. Im ersten Teil werden grundlegende Fragestellungen der IT-Compliance zwischen Recht und Revisionssicherheit anhand der Archivierungsfunktion von Microsoft Exchange Server 2010 erläutert.
Die DQS GmbH, die Deutsche Gesellschaft zur Zertifizierung von Managementsystemen, ist in besonderer Weise dem Datenschutz verpflichtet. Die Pflege von Zugriffsrechten gestaltete sich allerdings bisher sehr komplex, kostenintensiv und zeitaufwendig. Abhilfe schafft die Datenzugriffsmanagementlösung „DatAdvantage for Windows“ des auf Data Governance spezialisierten Anbieters Varonis.
Der KI-Spezialist C3.ai baut seinen „COVID-19 Data Lake“ mit der jetzt gestarteten V2 weiter aus. Damit unterhält das Unternehmen eine der weltweit größten vereinheitlichen Datenquellen rund um die Corona-Pandemie.
Gibt es gute Gründe, sich für eine neues Dateisystem zu entscheiden? Ja, erklärt Heiko Wüst, Sales Engineer bei Nexenta Systems. Im nachfolgenden Text erklärt der Experte für UNIX, Linux und Open Source, was ZFS von anderen Dateisystemen abhebt.
Unternehmen stehen vor der Herausforderung, Unmengen an Daten zu speichern, zu verarbeiten und zu analysieren. Im Gegensatz zu relationalen Datenbanken, die mit der neuen Datenwelt zu kämpfen haben, spielen NoSQL-Datenbanken im Big-Data-Zeitalter ihre Vorteile aus.
Die auf Backup- und Management-Software für VMware spezialisierte Softwareschmiede Veeam Software bietet gemeinsam mit Hewlett-Packard eine End-to-End-Architektur für die Datensicherung, Speicherung und Wiederherstellung von virtualisierten Rechenzentrumsumgebungen an.
Schleichende Datenkorruption kann zu einem Problem werden, denn viele proprietäre Dateisysteme bietet keinen vollkommenen Schutz. Das auf dem ZFS-Dateisystem aufbauende NexentaStor gewährleistet dagegen über End-to-End-Prüfsummen, transaktionelle Schreiboperationen und mit dem Copy-on-Write-Verfahren die Datenintegrität.
Unternehmen benötigen geeignete Lösungen, um heterogene Daten schnell zu erfassen und analysieren zu können. Viele Gründe sprechen dabei für einen Data Lake, der sich relativ einfach einrichten lässt und für die Anforderungen an die Zukunft ein einheitliches, gemeinsames Datenreservoir für große Unternehmen darstellt.
Weitere Nachteile etablierter Filesysteme umgeht ZFS durch RAID-Z, einen neuen und mit 599 Programmzeilen kompakt geschriebenen RAID-Level, der hier zum ersten Mal realisiert wurde. RAID-Z lehnt sich an RAID-5 an, vermeidet aber dessen Probleme, wenn es kurz nach dem Schreiben eines Datenblocks zu einem Systemabsturz oder Stromausfall kommt, noch bevor der korrespondierende Eintrag auf dem Laufwerk mit den Parity-Files erfolgen konnte. Die Daten sind in diesem Fall korrupt – und bleiben es auch.
Die DATA Storage & Analytics Technology Conference 2020, die am 17. September in Würzburg und am 24. September in Neuss stattfindet, verspricht spannende Keynotes. Storage-Insider hat als Mitveranstalter und Medienpartner die Keynote-Speaker im Vorfeld um eine Preview gebeten. Hier im Interview: Dr. Carsten Bange, Gründer und Geschäftsführer des Business Application Research Center (BARC).
Laut einer aktuellen Bitkom-Umfrage läuft in der deutschen Wirtschaft ohne Daten kaum noch etwas. Ein Großteil der Unternehmen aller Branchen misst Daten eine hohe Bedeutung bei.
Der Datenexperte Snowflake hat die Data Cloud gestartet. Sie soll als Schnittstelle zwischen der Infrastructure und Application Cloud bestehende Datensilos aufbrechen. Zudem wurden neue Funktionen für Snowflakes Cloud-Data-Plattform vorgestellt.
Bei Flash unterscheidet man zwei wesentliche Varianten: NOR und NAND. In IT- und Speichersystemen werden nur NAND-Speicherbausteine eingesetzt. In industriellen und Steuersystemen (Embedded-Systems) werden in den Steuerbausteinen nur NOR-Varianten genutzt.
Der Cloud-Experte Snowflake und der Datenintegrationsspezialist IT-Novum haben eine Partnerschaft geschlossen. Im Mittelpunkt steht die schnelle und effiziente Datenaufbereitung für den Transfer in die Cloud.
Für seine As-a-Service-Angebote für Teradata Vantage hat Teradata eine Vielzahl von Verbesserungen bei den Public-Cloud-Anbietern Amazon Web Services (AWS) und Microsoft Azure angekündigt.
Die Anzahl der per Internet der Dinge (IoT) vernetzen Geräte nimmt kontinuierlich zu. Sie erzeugen eine große Menge an Daten, die gespeichert werden wollen – Tendenz stark steigend. InterSystems gibt einige Tipps, wie sich die Informationsflut bewältigen lässt.
IBM hat im Januar dieses Jahres das neue FlashSystem 840 auf den Markt gebracht. Mit dem neuen Produkt ist IBMs FlashSystem zum Primärspeicher für unternehmenskritische ERP- und OLTP-Anwendungen aufgestiegen.
Der Hersteller von industrietauglichen Flashspeicher-Produkten Innodisk hat seine neue SD-Card-3.0-Serie vorgestellt. Die Karten sind speziell für Einsatz unter extremen Bedingungen in Industrie und Produktion konzipiert.
Ab sofort ist Neo4j Aura auf der Google Cloud Platform erhältlich. Die integrierte Graphdatenbank soll die schnelle Entwicklung graphgestützter Anwendungen in der Cloud ermöglichen.
In einer digitalisierten Welt ist es wichtig, die zwei Zustände 0 und 1 über viele Jahre hinweg eindeutig unterscheiden zu können. Diese Aufgabe haben über viele Jahre hinweg Festplatten gut und kostengünstig geleistet. Herausgefordert wird die Festplatte jetzt durch ungeduldige Anwender.
Mit der SD100I/SDHC100I-Serie erweitert Transcend sein Sortiment an Industriespeicherkarten. Dank einer speziellen Firmware und weiteren Maßnahmen sind die Karten ideal für den Einsatz in anspruchsvollen Umgebungen geeignet.
In professionellen Flash-Speichersystemen werden üblicherweise SLC- oder eMLC-Flash-Chips verbaut. TLC-Chips sind für den professionellen Einsatz und Rechenzentrumsbetrieb beim derzeitigen Stand der Technik ungeeignet.
Die Leistungsfähigkeit von großen Anwendungen hängt von flexiblen Lösungen in allen beteiligten Bereichen ab: von der Server- und Betriebssystemstruktur über die Netzwerkarchitektur bis zum Speichermanagement. Gerade beim Storage gibt es noch viel Optimierungs- und damit Einsparpotenzial.
Serial NOR-Flash von Macronix zielt auf Consumer-Wearables der nächsten Generation. Mit der MX25R-Serie steht ein Speicherumfang von 512 Kbit bis 64 Mbit sowie ein Ultra-Low-Power Modus bereit.
Naturkatastrophen oder ein kompletter Stromausfall sind zwar selten in unseren Breitengraden, können allerdings ein komplettes Rechenzentrum außer Betrieb setzen. Um die Einsatzfähigkeit der IT-Systeme selbst unter solchen Umständen zu garantieren, können Unternehmen auf Metrocluster bauen, die im Ernstfall einfach auf ein zweites Rechenzentrum umschalten.
Durch neue Speicherprodukte will Micron Anwendungen für das Internet der Dinge (IoT) über die Segmente Connected City, Connected Car und Connected Home hinweg unterstützen.
Der Aufbau einer Backup-Infrastruktur ergibt sich aus der zu schützenden IT-Struktur. Ein Buchführungsserver etwa arbeitet mit strukturierten Daten und nutzt als Software-Komponente der Backup-Anwendung einen sogenannten Agenten. Dieser sammelt Daten und Metadaten für den Backupserver.
Im Rahmen der Computex hat Plextor neue Entwicklungen und Produkte präsentiert. Darunter waren auch SSDs der M.2-Generation und das High-Performance-Laufwerk M6 Pro mit besonders hohem Datendurchsatz.
Personenbezogene Daten aus Datenbanken wie SAP HANA umfassend und datenschutzkonform analysieren: Wie Unternehmen mit Anonymisierungsverfahren sensible Informationen nutzen können, ohne die Data Privacy zu gefährden.
Mit einer neuen Generation an 12-Gbit/s-SAS-SSDs erweitert HGST seine Ultrastar-Produktreihe. Die Laufwerke sind insbesondere für datenintensive Anwendungen im Enterprise-Umfeld geeignet.
Innodisk stockt das Entwicklungsteam und die Fertigungskapazität auf. Der taiwanische Hersteller von Solid-State Drives und All-Flash Arrays hat ein neues Hauptquartier sowie eine neue Fertigungsstätte bei Taipei bezogen. Storage-Insider.de bietet einen Blick in die Produktion.