BIT

(Recop.) Justo Fernández López

 

Vgl.:

Binarismus / Logarithmus

 

Bit [Abk. von engl. bi(nary digi)t ‘binäre Ziffer’]

Kleinste Maßeinheit für den Informationsgehalt einer Nachricht, bzw. für die Anzahl von Binär-Entscheidungen: jede Einheit mit der Auftretenswahrscheinlichkeit von ein halb beinhaltet ein B. Information, da sie auf der Basis einer einzigen Ja/Nein-Entscheidung zu ermitteln ist (Binarismus). So gibt es beim Fall einer Münze zwei Möglichkeiten, welche Seite nach oben weist; die entsprechende Information beträgt ein Bit, während die Kenntnis einer gewürfelten Zahl ca. drei B. beträgt.“ [Bußmann, H., S. 138]

bit

Abkürzung für binary digit. Maß der Information, aufgestellt durch den amerikanischen Mathematiker C. E. Shannon. Er legt die einfachste Form einer Information, die Ja-Nein-Entscheidung zugrunde. Jedes Ereignis, dessen Eintreten mit gleicher Wahrscheinlichkeit ja/nein sein kann, stellt informatorisch 1 bit dar. Gemessen wird also nur die Quantität – nicht die Qualität – der Information. Diese ist mit der Bedeutung nicht identisch. Der Wurf einer Münze enthält 1 bit, unabhängig von der Bedeutung, die dem Fall auf die eine oder andere Seite vorher zugeordnet wurde. Das Feld eines Schachbretts enthält die Wahrscheinlichkeit 1/64. Um ein bestimmtes Feld zu ermitteln, sind 6 Alternativschritte (6 Halbierungen des Feldes) nötig. Daraus kann man eine mathem. Gesetzmäßigkeit ableiten: log2 64 = 6 oder 26 = 64, verallgemeinert: Information = log2 der Möglichkeiten.“ [Heupel, C., S. 39]

Bit (das) [aus: engl. binary digit = aus 2 Komponenten bestehende Ziffer]

Informationstheoretische Maßeinheit zur Bezeichnung des Informationsgehaltes (verhält sich zur Wahrscheinlichkeit des Vorkommens im gegebenen Kontext umgekehrt proportional) einer übermittelten Nachricht durch die Anzahl erforderlicher Ja/Nein-Entscheidungen zur eindeutigen Feststellung eines Sachverhaltes; 1 B. = einfache Alternative, bei der konkrete Spezifizierung durch ein kommunikatives Zeichen im Kode immer zugleich Ausschluss einer anderen, gegensätzlichen Spezifizierung bedeutet; Entscheidungsgehalt eines eintretenden Ereignisses, bei dem die beiden einzigen Möglichkeiten gleich wahrscheinlich sind; z.B.: Kopf oder Adler (beim Wurf einer Münze); 0 oder 1 (bei elektronischen Rechenmaschinen, für die nur diese als binäre Ziffern zugelassen sind).“

[Ulrich, Winfried: Linguistische Grundbegriffe, S. 21-22]

bit. 

Nach J. W. Tukeyaus (binary digit): in der Informationstheorie übliche Messeinheit für die Information/den Informationsgehalt; die Zahl, mit der 2 potenziert werden muss (logarithmus dualis), um die Anzahl der vorhandenen Möglichkeiten, d. h. das Ausmaß der mit einem Ereignis verbundenen Ungewissheit, zu erhalten; die mittlere Anzahl der erforderlichen Binärentscheidungen, um die in einem System enthaltene Ungewissheit zu beseitigen. Zum Beispiel lässt sich ein bestimmtes Feld von 64 Feldern eines Schachbretts durch Binärentscheidungen ermitteln: 64 = 26. Das Ausmaß an Ungewissheit hängt von der Anzahl der möglichen Ereignisse ab; der Informationswert lässt sich als Relation zwischen dem, was sich ereignet hat / was der Sprecher selegiert hat und dem, was sich hätte ereignen können / was der Sprecher hätte sagen können (wie viele Möglichkeiten er z. B. auf eine Frage hatte) darstellen. H = - S pi log2p1 ist die Shannonsche Formel für den Informationsgehalt (auch H = S pi  ld 1/p1 : Der Informationsgehalt H (Hartley) ist gleich der Summe aller p1 mal logarithmus dualis von 1/p1).“

[Lewandowski, Th.: Linguistisches Wörterbuch. Heidelberg,1973, Bd.1, S. 125-126]

Bit

Unidad mínima de almacenamiento de información, que sólo puede tener el valor de 1 o el valor de 0.

Una velocidad de descarga (Download) de 128 bit/s equivale a una descarga de 7.680 bits por minuto = 960 byts por minuto.

Byt

Unidad de almacenamiento constituida por ocho bites.