Mobile-Menu

Speicherschnittstelle Was ist High Bandwidth Memory (HBM)?

High Bandwidth Memory ist eine Technologie und Schnittstelle, mit der sich Daten zwischen Speicherbausteinen und einer CPU oder GPU mit hohen Datenraten übertragen lassen. Die Speicherbausteine sind vertikal gestapelt und über einen sogenannten Interposer mit dem Prozessor oder Grafikprozessor verbunden. Mittlerweile existieren verschiedene Versionen der Speicherschnittstelle wie HBM 1, 2 und 3.

Anbieter zum Thema

Die wichtigsten IT-Fachbegriffe verständlich erklärt.
Die wichtigsten IT-Fachbegriffe verständlich erklärt.
(Bild: © aga7ta - Fotolia)

HBM ist das Akronym für „High Bandwidth Memory“. Es handelt sich um eine ursprünglich von den Unternehmen AMD und SK Hynix entwickelte Speichertechnologie und -schnittstelle, mit der sich die Daten zwischen dem Arbeitsspeicher und einem Prozessor (CPU), Grafikprozessor (GPU) oder Field Programmable Gate Array (FPGA) mit hohen Datenraten übertragen lassen.

Auf einer Platine sind die Speicherbausteine (RAM-Chips) vertikal gestapelt und über einen sogenannten Interposer mit der CPU, GPU oder dem FPGA verbunden. Die vertikale Stapelung und der Interposer sorgen für eine enge Anbindung des Speichers an die Prozessoreinheit und kurze Signalwege. Die Technologie kommt zum Beispiel für schnelle Grafikkarten, leistungsstarke Super-Computer oder High-Performance-Netzwerkgeräte zum Einsatz. Mittlerweile ist die Technologie von der JEDEC Solid State Technology Association als Industriestandard angenommen und liegt in verschiedenen Versionen wie HBM 1, 2, 2E und 3 vor.

Prinzipieller Aufbau und Merkmale des High Bandwidth Memorys

Wesentliches Merkmal der Speichertechnologie und -schnittstelle ist, dass die Dies der Speicherbausteine übereinander gestapelt und parallel über einen sogenannten Interposer an die auf der Grundplatine platzierte CPU, GPU oder das FPGA angebunden sind. Die Signalwege und Latenzen verkürzen sich, und der Datenbus wird im Vergleich zu DDR4- oder GDDR5-Speicherbausteinen wesentlich breiter. Pro Stapel liegt die Busbreite bei 1.024 Datenleitungen. Gleichzeitig sinkt durch die vertikale Stapelung des RAM der Platzbedarf für die Speicherbausteine, und die Energieeffizienz steigt.

Die verschiedenen Versionen des High Bandwidth Memorys

Mittlerweile liegt High Bandwidth Memory als Industriestandard in verschiedenen Versionen vor. Die Version 1 wurde von der JEDEC im Jahr 2013 verabschiedet. Im Jahr 2016 folgte die Version 2, im Jahr 2019 die Version 2E und im Jahr 2021 die Version 3. Die Performance des High Bandwidth Memorys konnte mit jeder Version gesteigert werden. Unterscheidungsmerkmale der Versionen sind die Taktung, die Anzahl der stapelbaren Dies sowie die erreichbare Kapazität und Datenrate. Beispielsweise erlaubt HBM 2 bis zu acht Dies und HBM 3 bis zu zwölf Dies zu stapeln. Alle Versionen verwenden 1.024 Datenverbindungen pro Stack. Allerdings erhöhen sich mit den neueren Versionen jeweils die Taktfrequenzen und damit die Übertragungsraten. HBM 3 erreicht eine Datenrate von bis zu 819 Gigabyte pro Sekunde gegenüber bis zu 460 GB/s bei Version 2.

Vorteile des High Bandwidth Memorys

Als Vorteile des High Bandwidth Memorys sind anzuführen:

  • hohe Datenraten zwischen Speicher und CPU, GPU oder FPGA,
  • kurze Signalwege und niedrige Latenzen,
  • weniger Platzbedarf,
  • höhere Energieeffizienz.

Jetzt Newsletter abonnieren

Täglich die wichtigsten Infos zu Data-Storage und -Management

Mit Klick auf „Newsletter abonnieren“ erkläre ich mich mit der Verarbeitung und Nutzung meiner Daten gemäß Einwilligungserklärung (bitte aufklappen für Details) einverstanden und akzeptiere die Nutzungsbedingungen. Weitere Informationen finde ich in unserer Datenschutzerklärung.

Aufklappen für Details zu Ihrer Einwilligung

(ID:47930494)