:quality(80)/images.vogel.de/vogelonline/bdb/1792300/1792346/original.jpg)
- Storage-Hardware
-
Speichernetze
Aktuelle Beiträge aus "Speichernetze"
Storage (nicht nur) für riesige Datenmengen: ZFS im Einsatz
Herausforderungen und Lösungen – auf dem Weg zum idealen Speicher
Netzwerkspeicher
Data Storage Virtual Conference – DSX QI/21
Rubrik hat Igneous übernommen
- Backup/Recovery
- Management
-
IT Awards
Aktuelle Beiträge aus "IT Awards"
IT-Awards 2020
Die Leser haben entschieden – die Gewinner der IT-Awards 2020
IT-Awards 2019
5. Jubiläum unserer großen Leserwahl
- Storage-Security
-
RZ-Technik
Aktuelle Beiträge aus "RZ-Technik"
Ein Vergleich verbrauchsbasierter IT- und Storage-Infrastruktur
Steigende Datenmengen, steigender Speicherbedarf
Effizientes Data Tiering im Fokus
Interview mit Jay Zhang, Vice President Inspur Group Global Business und CEO of Inspur Europe
„Das Rack-Scale-Bereitstellungsmodell ist zur Normalität geworden“
-
Archivierung
Aktuelle Beiträge aus "Archivierung"
Zusammenführung aller notwendigen Informationen
ECM und digitale Projektakten: Denn sie wissen jetzt, was sie tun
Veritas NetBackup 9 und HubStor
Autonome Archivierung
Intelligente Dokumente und Autopiloten sorgen für Recht und Ordnung
Data Storage Virtual Conference – DSX QI/21
- eBooks
- Kompendien
- Mediathek
- CIO Briefing
-
Specials
- Im Fokus: Flash-Storage
- Im Fokus: Backup
- Praxistipps: Cloud-Speicher für Einsteiger
- SSD
- Deduplizierung
- Definitionen
- E-Mail-Archivierung
Aktuelle Beiträge aus "Specials"
Microsoft-Produktfamilie
Cloud-Computing-Plattform
Speichermodul mit iMB
Was ist ein Load-Reduced Dual Inline Memory Module (LRDIMM)?
- Forum
- Akademie
-
mehr...
Workshop: Applikations-Turbo Violin Maestro 2510 (Update: 21.8.2014)
Erfahrungen zeigen, dass damit zwischen 80TB und 160TB in den angeschlossenen Storage-Systemen beschleunigt werden können. Wobei sich diese Größe auf das sog. „Working Set“ der Applikationen bezieht, also auf die Daten, die auch tatsächlich aktiv im Zugriff sind und die ständig gelesen werden.
Bei einer 10TB großen Datenbank sind das meist nur 2 bis 3TB. Ein speziell entwickelter Algorithmus, der auf Bayesscher Wahrscheinlichkeitsrechnung basiert, analysiert den Datenverkehr und optimiert die Nutzung des Caches.
Er erkennt Zugriffsmuster und entscheidet durch Messungen, ob es sich lohnt, einen Block im Flash Cache vorzuhalten oder nicht. (Bild: Violin Memory)