Was Ist Gigabyte?

Was Ist Gigabyte?
Was Ist Gigabyte?

Video: Was Ist Gigabyte?

Video: Was Ist Gigabyte?
Video: Was ist Gigabyte? Leicht verständlich erklärt in Deutsch 2024, Kann
Anonim

Als die Zivilisationsentwicklung den Punkt der Computerdatenverarbeitung erreichte, entstanden viele neue Begriffe und Konzepte. Insbesondere wurde es notwendig, auf Speichergeräten gespeicherte und über Netzwerke übertragene Informationseinheiten irgendwie zu bestimmen. Und mit dem Aufkommen von PCs, Playern und Mobiltelefonen sind viele hochspezialisierte Begriffe weithin bekannt geworden.

Was ist Gigabyte?
Was ist Gigabyte?

Die kleinstmögliche informative Einheit besteht aus zwei Werten – „ja“oder „nein“, 0 oder 1. Seit 1948 heißt diese Einheit „Bit“. Bei der Computerverarbeitung werden alle Informationen in Bits zerlegt - Zahlen, Text, Farbe, Ton, räumliche Position usw. Der Prozessor verarbeitet jede Dateneinheit sequentiell, aber das Einfügen von Bits macht die Warteschlange zu lang und schränkt somit die Leistung ein. Daher arbeiten moderne Prozessoren mit Gruppen von Informationseinheiten, die aus 8 Bits bestehen - diese Gruppe wird "Bytes" genannt und gilt als die Mindesteinheit der Computerdatenverarbeitung. In Bytes gruppiert werden Informationen auf Festplatten oder im virtuellen Speicher gespeichert und auch über Netzwerkverbindungen übertragen.

Im metrischen System der SI-Einheiten, das heute in den meisten Ländern verwendet wird, sind die Regeln festgelegt, nach denen alle Maßeinheiten skaliert werden. Um einen tausendfach höheren Wert zu bezeichnen, als in diesem System akzeptiert wird, wird dem Namen das Präfix "Kilo" hinzugefügt. Zum Beispiel 1000 Gramm = 1 Kilogramm, 1000 Byte = 1 Kilobyte. Es gibt die gleichen Präfixe für andere tausendfach erhöhte Einheiten - einer Million wird das Präfix "Mega" (1.000.000 Byte = 1.000 Kilobyte = 1 Megabyte) und einer Milliarde - "Giga" zugewiesen. Daher entspricht 1 Gigabyte einer Milliarde minimaler Informationseinheiten - Bytes.

Aufgrund der Tatsache, dass Computerinformationen binärer Natur sind (ja / nein, 0/1), verwenden Informatiker für ihre internen Bedürfnisse seit dem Auftauchen von Prozessoren nicht das dezimale Zahlensystem wie in SI, sondern binär. Aus diesem Grund kommt es bei der genauen Definition von Gigabyte oft zu Verwirrung – im Binärsystem entspricht diese Einheit nicht 10⁹ (1 Milliarde), sondern 2³⁰ (1 073 741 824). Am häufigsten tritt diese Diskrepanz beim Kauf verschiedener Speichergeräte (Festplatten, Flash-Laufwerke, Player usw.) auf - Hersteller geben ihre Kapazität in der Interpretation von Gigabyte an, was das Produkt in einem günstigeren Licht darstellt.

Empfohlen: