Eine Milliarde Bytes Was ist ein Gigabyte (GB)?

Autor / Redakteur: Dipl.-Ing. (FH) Stefan Luber / Dr. Jürgen Ehneß

Ein Gigabyte (GB, GByte) entspricht zehn hoch neun = 1.000.000.000 Byte. Das Gigabyte und Vielfache davon werden verwendet, um beispielsweise die Kapazität eines Datenspeichers oder Datenmengen zu benennen. Grundlage des Gigabytes bildet die kleinste Informationseinheit in der IT, das Binary Digit (Bit). Im Gegensatz zum Gigabyte berechnet sich das Gibibyte (GiB) aus der Zweierpotenz und entspricht 1.073.741.824 Byte.

Anbieter zum Thema

Die wichtigsten IT-Fachbegriffe verständlich erklärt.
Die wichtigsten IT-Fachbegriffe verständlich erklärt.
(Bild: © aga7ta - Fotolia)

Das Gigabyte (GB, GByte) ist eine Einheit zur Benennung von Datenmengen oder Speicherkapazitäten. Es besteht aus zehn hoch neun = 1.000.000.000 Byte. Im Gegensatz zum Dezimalpräfix GB berechnet sich das Binärpräfix Gibibyte (GiB) aus der Zweierpotenz und entspricht zwei hoch 30 = 1.073.741.824 Byte.

Die Grundlage des Gigabytes bildet die kleinste Informationseinheit in der IT, das Binary Digit (Bit). Es kann die Zustände „0“ oder „1“ annehmen. Übertragungsraten werden in der IT üblicherweise nicht in Byte pro Sekunde, sondern in Bit pro Sekunde (bit/s) und Vielfachen davon wie Gbit/s (Gigabit pro Sekunde) angegeben.

Bit und Byte als Grundlage des Gigabytes

Die Grundlage des Gigabytes bilden das Bit und das Byte. Das Bit (Binary Digit) ist die kleinste Informationseinheit im IT-Umfeld und kann die beiden Zustände „0“ oder „1“, „nein“ oder „ja“ beziehungsweise „falsch“ oder „wahr“ annehmen.

Physikalisch lässt sich das Binary Digit auf verschiedene Arten darstellen. Es kann sich beispielsweise um Ladungszustände, Schaltungszustände, Spannungszustände oder Magnetisierungszustände handeln.

Ein Byte ist eine Folge von acht einzelnen Bits. Es wird auch als „Bit-Oktett“ oder „Oktett“ bezeichnet. Die acht Bits eines Bytes erlauben die Darstellung von insgesamt 256 (= zwei hoch acht) verschiedenen Zuständen. In vielen Computerarchitekturen stellt das Bit-Oktett die kleinste adressierbare Einheit dar. Es wird verwendet, um beispielsweise Zahlen, Buchstaben oder andere Schriftzeichen zu kodieren.

Das Einheitenzeichen für das Byte ist „B“, für das Binary Digit „bit“. 1.000.000.000 Byte entsprechen einem Gigabyte.

Die Bedeutung der Dezimal- und Binärpräfixe

Die Einheitenvorsätze Kibibyte (KiB), Mebibyte (MiB), Gibibyte (GiB) und weitere stehen für die Berechnung der Byte-Anzahl mit den Zweierpotenzen. Diese Einheitenvorsätze werden auch als „Binärpräfixe“ oder „IEC-Präfixe“ bezeichnet. Für die Berechnung mit Zehnerpotenzen sollten die SI-Präfixe, auch „Dezimalpräfixe“ genannt, zum Einsatz kommen.

Ein Gibibyte entspricht zwei hoch 30 Byte = 1.073.741.824 Byte. Demgegenüber besteht ein Gigabyte aus zehn hoch neun = 1.000.000.000 Byte. Während der Unterschied der Byte-Anzahl zwischen Kilobyte und Kibibyte nur 24 Byte oder 2,4 Prozent beträgt, steigt der Unterschied mit zunehmenden Tausenderkennzeichen. Bei Gigabyte und Gibibyte beträgt er schon 7,4 Prozent. Zwischen Yottabyte und Yobibyte ist der Unterschied 20,9 Prozent.

Leider halten sich viele nicht an eine korrekte Verwendung von SI- und IEC-Präfixen, weshalb es immer wieder zu missverständlichen Angaben der Byte-Mengen kommt.

Zusammenfassung zur Verdeutlichung:

  • ein Gibibyte (GiB) entspricht zwei hoch 30 = 1.073.741.824 Byte,
  • ein Gigabyte (GB) entspricht zehn hoch neun = 1.000.000.000 Byte,
  • der Unterschied der Byte-Anzahl zwischen GiB und GB liegt bei 7,4 Prozent.

(ID:46330120)