Heim

Bit

Der Titel dieses Artikels ist mehrdeutig. Weitere Bedeutungen werden unter Bit (Begriffsklärung) aufgeführt.
Vielfache von Bit
SI-Präfixe Binärpräfixe
Name Symbol Bedeutung Name Symbol Bedeutung
Kilobit kbit 103 bit Kibibit Kibit 210 bit
Megabit Mbit 106 bit Mebibit Mibit 220 bit
Gigabit Gbit 109 bit Gibibit Gibit 230 bit
Terabit Tbit 1012 bit Tebibit Tibit 240 bit
Petabit Pbit 1015 bit Pebibit Pibit 250 bit
Exabit Ebit 1018 bit Exbibit Eibit 260 bit
Zettabit Zbit 1021 bit Zebibit Zibit 270 bit
Yottabit Ybit 1024 bit Yobibit Yibit 280 bit

Der Begriff Bit (binary digit) wird in der Informatik, der Informationstechnik, der Nachrichtentechnik sowie verwandten Fachgebieten in folgenden Bedeutungen verwendet:


Dabei ist 1 Bit die kleinste darstellbare Datenmenge, die beispielsweise durch eine Binärziffer dargestellt werden kann. Größere Datenmengen können nur ganzzahlige Vielfache von 1 Bit sein.


Inhaltsverzeichnis

Wortherkunft

Der Begriff Bit ist eine Wortkreuzung aus binary digit, englisch für Binärziffer. Der Begriff wurde von dem Mathematiker John W. Tukey vermutlich 1946, nach anderen Quellen schon 1943, vorgeschlagen. Schriftlich wurde der Begriff zum ersten Mal 1948 auf Seite eins von Claude Shannons berühmter Arbeit A Mathematical Theory of Communication[1] erwähnt. Die Bits als Wahrheitswerte verwendete George Boole als Erster.

Es gibt auch die Erklärung als Basic Indissoluble Information Unit, was so viel wie kleinstmögliche Informationseinheit bedeutet.

Schreibweise

Es muss unterschieden werden zwischen dem allgemeineren Begriff Bit und der Maßeinheit Bit. Bei der Maßeinheit muss man wiederum sowohl die auf Zehnerpotenzen beruhenden SI-Präfixe als auch die auf Zweierpotenzen beruhenden Binärpräfixe verwenden (siehe Tabelle oben rechts).

Darstellung von Bits

Digitaltechnik

Jede Information ist an einen Informationsträger gebunden. Ein Informationsträger, der sich in genau einem von zwei Zuständen befinden kann, kann die Datenmenge 1 Bit darstellen. Folgende beispielhafte Sachverhalte können also eine Datenmenge von einem Bit darstellen:

1 Bit stellt 2 Zustände dar. Der Wert eines oder mehrerer Bits wird in der Informatik allgemein als Zustand bezeichnet. In einem solchen Zustand kann ein physikalisches Element sein, zum Beispiel der erwähnte Transistor. Werden mehrere solche physikalische Elemente zu einer Einheit zusammengesetzt, hängt der Gesamtzustand dieser Einheit von den Zuständen aller einzelnen Elemente ab.

Oft werden auch die SI-Präfixe fälschlicherweise für Zweierpotenzen verwendet.

Binärdarstellung; Bits und Bytes

Anzahl n der Bits Anzahl der Zustände
1 2
2 4
3 8
4 16
5 32
6 64
7 128
8 256
9 512
10 1024
11 2048
12 4096
13 8192
14 16384
15 32768
16 65.536
24 16.777.216
32 4.294.967.296
(≈4,3 Milliarden)
64 18.446.744.073.709.551.616
(≈18,4 Trillionen)

Mit n Bits lassen sich 2n verschiedene Zustände darstellen. Mit beispielsweise zwei Bits können 2² = 4 verschiedene Zustände repräsentiert werden, nämlich 00, 01, 10 und 11. Mit vier Bits können 16 verschiedene Zustände dargestellt werden, mit acht Bits 256, und so weiter. Jedes zusätzliche Bit verdoppelt die Anzahl der möglichen darstellbaren Zustände, wie an der folgenden Tabelle abgelesen werden kann:

Moderne Computer und Speichermedien verfügen über Speicherkapazitäten von Milliarden von Bits. Speichergrößen werden daher in anderen Einheiten angegeben. Frühe Rechner benutzten Speichereinheiten zu 4 Bit, sog. Nibble. Im Allgemeinen verwendet man heute das Byte (ein Oktett von acht Bit) als Grundeinheit, seltener das Wort mit 16 bit. Bei Größenangaben von Speichermedien verwendet man Potenzen von 210 (= 1024) als Einheitenpräfixe (zum Beispiel entspricht 1 Kibit 1024 Bit, die zu 128 Oktett-Byte gruppiert werden können - näheres siehe Byte).

Im Bereich der Datenfernübertragung wird das Bit als Grundeinheit bei der Angabe der Datenübertragungsrate verwendet - ISDN überträgt maximal 64 kbps[2] (64.000 Bit pro Sekunde) auf einem Nutzkanal, Fast Ethernet 100 Mbit/s (100 Millionen Bit pro Sekunde) oder mehr. Die Fernmeldetechnik benutzt die Vorsätze für Maßeinheiten des internationalen Einheitensystems.

Daneben wird das Bit als Einheit verwendet:

Quantität und Qualität

Bitfehler und Vorwärtsfehlerkorrektur

Allgemein gilt in der digitalen Welt, dass es keine „unwichtigen“ Bits gibt. Beispiele:

So gesehen kann es geschehen, dass ein einziges Bit entscheidend ist für Annahme oder Ablehnung, Erfolg oder Misserfolg, in sicherheitsrelevanten Systemen wie etwa in der Raumfahrt sogar für Leben oder Tod.

Der Tatsache, dass nur ein falsches Bit ausreicht, um unerwartete Ergebnisse zu produzieren, kann man dadurch begegnen, dass man Informationen redundant kodiert. Die einfachste Art der redundanten Codierung besteht darin, einem Datenblock als Prüfsumme die binäre Quersumme, das so genannte Paritätsbit hinzuzufügen. Die Paritätsprüfung erlaubt es festzustellen, wenn ein einzelnes Bit im Block falsch übertragen wurde. Ist ein Fehler aufgetreten, kann der Empfänger eine Neuübermittlung anfordern (so etwa im TCP/IP-Protokoll).

Wenn mehr als ein redundantes Bit pro Datenblock hinzugefügt wird, spricht man von Vorwärtsfehlerkorrektur (forward error correction, FEC); sie wird bei manchen Datenträgern und bei vielen Datenübertragungsverfahren eingesetzt und erlaubt es, fehlerhaft ausgelesene beziehungsweise empfangene Bits zu korrigieren, solange die Fehlerdichte unterhalb einer kritischen Schwelle bleibt. So ist zum Beispiel auf einer CD jedes Byte über eine Strecke von 2 cm verteilt und mit anderen Bytes zusammen als Reed-Solomon-Code abgespeichert, so dass beliebige 1-mm-Streifen einer CD fehlen können und dennoch die ganze Information vorhanden ist. Der Preis für die Vorwärtsfehlerkorrektur ist der Speicherplatz (oder die Datenrate) für die redundanten Bits – der Speicherplatz von CDs wäre ohne solche Maßnahmen ca. 17 % größer, Netzwerke 40 % schneller, Mobiltelefone 200 % leistungsstärker, bei den letzten beiden unterschiedlich je nach Typ.

Datenkompression

Oft enthalten die kodierten Informationen selbst Redundanz. Durch verschiedenartige Kompressionsverfahren kann die entsprechende Information auf wesentlich weniger Speicherplatz untergebracht werden. Siehe dazu auch Entropiekodierung.

Je nach Art der Information ist dabei auch eine verlustbehaftete Kompression möglich, die zusätzlich den Speicherbedarf verringert. Der Informationsverlust wird dabei als (relativ) unwesentlich betrachtet – das ist vor allem bei Bild- und Tondaten möglich.

Signale

Zum Beschreiben, Lesen oder Adressieren von Speicherzellen sind Signalleitungen notwendig. Hier wird mit definierten Signalpegeln gearbeitet. Ein Signalpegel hat zwangsläufig mehr als zwei Wertebereiche. Hinzu kommt das zeitliche Verhalten.

Theoretisch gibt es 5 Pegelbereiche.

  1. Der Bereich unterhalb des Bereiches, dem eine logische Null zugeordnet ist. Dieser Bereich soll schaltungsmäßig vermieden werden, ist aber im Fehlerfall möglich. Eventuell ist mit diesem Bereich auch eine Zerstörung der Schaltung verbunden.
  2. Der Bereich, dem eine logische Null zugeordnet ist.
  3. Der Bereich, der zwischen dem Bereich "logische Null" und "logische Eins" liegt. Es ist nicht möglich einen solchen "undefinierten" Bereich zu vermeiden. Man kann schaltungstechnisch dafür sorgen, dass dieser Zustand nur kurzzeitig auftritt. Zu diesem Zeitpunkt ist das Signal nicht "gültig".
  4. Der Bereich, dem eine logische Eins zugeordnet ist.
  5. Der Bereich oberhalb des Bereiches, dem eine logische Eins zugeordnet ist. Dieser Bereich soll schaltungsmäßig vermieden werden, ist aber im Fehlerfall möglich. Eventuell ist mit diesem Bereich auch eine Zerstörung der Schaltung verbunden.

Jedem Bit wird eine Zeitdauer zugeordnet. Beim Wechsel von einem Null- auf Eins-Pegel oder umgekehrt entstehen steile Flanken. Wechselt der Zustand nicht, fehlt die Flanke und der lesende Baustein kann nur aus der Zeitdauer darauf schließen, dass jetzt mehrere gleichwertige Bits übertragen werden. Dafür müssen Sender und Empfänger im gleichen Takt arbeiten. Die Bits werden "im Gänsemarsch" übertragen.

Bezogen auf dieses zeitliche Verhalten sind dann Aussagen wie z.B. 1 1/2 Stoppbits zu verstehen. 1/2 Bit kann es definitionsgemäß nicht geben. Ein Signal mit einer Taktdauer von 1/2 hingegen ist selbstverständlich möglich.

Qubits in der Quanteninformationstheorie

Das Bit muss unterschieden werden vom Qubit (Quantenbit), das in der Quanteninformationstheorie verwendet wird.

Siehe auch

 Wiktionary: Bit – Bedeutungserklärungen, Wortherkunft, Synonyme, Übersetzungen und Grammatik
 Wikibooks: Über das Wesen der Information – Lern- und Lehrmaterialien

Quellen

  1. Claude Elwood Shannon: A Mathematical Theory of Communication. Bell System Technical Journal, Band 27, Seiten 379–423 und 623–656, Juli und Oktober 1948. [1]
  2. Die Einheit lautet kbps: Normenausschuss im DIN Deutsches Institut für Normung: „Abkürzungen fürs Internet”
In diesem Artikel oder Abschnitt fehlen folgende wichtige Informationen: Darstellung von BITs(BIT-Array, BIT-Binär,...), Zustände - Prozessoren

Du kannst Wikipedia helfen, indem du sie recherchierst und einfügst.

Dieser Artikel oder Abschnitt bedarf einer Überarbeitung. Näheres ist auf der Diskussionsseite angegeben. Hilf bitte mit, ihn zu verbessern, und entferne anschließend diese Markierung.