Wenn ihr euch jemals gefragt habt, warum eure nagelneue 500-GB-Festplatte anscheinend doch nur 465 Gigabyte freien Speicherplatz besitzt, hat das vor allem etwas mit dem Unterschied zwischen Gigabyte und Gibibyte und deren Verwendung in der Computer-Industrie zu tun. Was es genau mit Gibibyte, Mebibyte und Kibibyte auf sich hat und warum die Begriffe häufig falsch verwendet werden, verraten wir euch hier.
Gibibyte, Mebibyte, Kibibyte – Hintergrund
Auf der Grundebene nutzt ein Computer das Binärsystem (auch Dual- oder Zweiersystem), welches nur zwischen 0 und 1 unterscheidet. Bis 1996 hatte man jedoch keine eigenständigen Präfixe für vielfache Zweierpotenzen, sondern nur für das übliche Dezimalsystem (auch Zehnersystem), welches zwischen den Zahlen 0 bis 9 unterscheidet.
Aus diesem Grund hat man auch für die Speicherkapazität die gängigen Vorsätze des Dezimalsystems (SI-Präfixe) verwendet – also Kilo für 1.000 (10³), Mega für 1 Million (10⁶) und Giga für 1 Milliarde (10⁹). Die Hersteller von Festplatten, Speichersticks und CD-Rohlingen verwenden diese nach wie vor, da sie als internationale Maßeinheit gelten. Da jedoch ein Kilobyte aus 1024 Bytes (2¹⁰) besteht und nicht aus 1000 Bytes (10³), entsteht hier eine Lücke zwischen der eigentlichen und der realen Speicherkapazität. Die Differenz wächst dazu prozentual mit der Größe des Speichermediums.
Seit 1996 gibt es jedoch die Binär-Vorsätze (IEC-Präfixe), welche sich aus der ersten Silbe der Dezimal-Präfixe und einem angehängten „bi“ für „binär“ zusammensetzen – also Kibi statt Kilo, Mebi statt Mega und Gibi statt Giga.
Unterschied Gigabyte und Gibibyte - Dezimal- und Binär-Präfixe
Durch die verwendeten Zehnerpotenzen (10ⁿ) anstelle der korrekten Zweierpotenzen (2ⁿ) kann – je nach Berechnung und Ausgabe des Betriebssystems – eine Abweichung zwischen der angegebenen und der angezeigten Speicherkapazität entstehen. In folgender Tabelle könnt ihr die Differenz nachvollziehen:
SI-Einheit (Dezimalsystem) | IEC-Einheit (Binärsystem) | Unterschied in Prozent |
1 Kilobyte (kB) = 10³ Byte = 1000 Byte | 1 Kibibyte (KiB) = 2¹⁰ Byte = 1024 Byte | 2,4 |
1 Megabyte (MB) = 10⁶ Byte = 1 Million Byte | 1 Mibibyte (MiB) = 2²⁰ Byte = 1024² Byte | 4,9 |
1 Gigabyte (GB) = 10⁹ Byte = 1 Milliarde Byte | 1 Gibibyte (GiB) = 2³⁰ Byte = 1024³ Byte | 7,4 |
1 Terabyte (TB) = 10¹² Byte = 1 Billion Byte | 1 Tebibyte (TiB) = 2⁴⁰ Byte = 1024⁴ Byte | 10 |
1 Petabyte (PB) = 10¹⁵ Byte = 1 Billiarde Byte | 1 Pebibyte (PiB) = 2⁵⁰ Byte = 1024⁵ Byte | 12,6 |
Die vermeintliche „Gigabyte-Lüge“
Häufig werden die Hersteller von Speichermedien für die sogenannte „Gigabyte-Lüge“ verantwortlich gemacht, was jedoch so nicht ganz korrekt ist. Denn auch wenn die Hersteller weiterhin die Dezimal-Präfixe aufgrund ihrer Geltung als internationale Maßeinheit nutzen, haben vor allem die Betriebssysteme über Jahre hinweg die falschen Werte angezeigt.
So berechnet Windows intern korrekt auf Basis von Zweierpotenzen (Binärsystem), gibt den Wert dann jedoch mit dem Dezimal-Vorsatz (Mega, Giga, Tera etc.) an. So werden unter Windows aus den vom Hersteller korrekt angegebenen 500 Gigabyte (ca. 465 Gibibyte) plötzlich 465 Gigabyte.
Apple verwendet seit „OS X 10.6 Snow Leopard“ nur noch die dezimale Angabe wie Berechnung, sodass eine 500-Gigabyte-Festplatte im System auch korrekt mit 500 GB angezeigt wird. Viele Linux-Distributionen lassen dem Nutzer die Wahl zwischen der Anzeige in Gigabyte oder Gibibyte und berechnen die Größe des Speichermediums demnach wahlweise im Dezimal- oder Binär-Verfahren.