INFORMATION

Información

(Recop.) Justo Fernández López

 

Vgl.:

Kommunikation(smodell)

 

Der Begriff der Information wird sowohl in einem allgemeinen umgangssprachlichen Sinn als auch in einem spezifischen fachsprachlichen (nämlich kybernetischen, informations- bzw. wahrscheinlichkeitstheoretischen) Sinn verwendet.

(a)  Umgangssprachlicher Gebrauch:

       ‘Information’ als Wort der Umgangssprache meint den Bedeutungsgehalt von Mitteilungen, Auskünften, Belehrungen, etc., „eine gegenwarts- und praxisbezogene Mitteilung über Dinge, die mir im Augenblick zu wissen wichtig sind“ (H. Seiffert).

       H. Seiffert (1968, 25f.) skizziert die Bedeutungsentwicklung der Vobakel ‘informatio’ (aus informare:  in + forma = eine Form, eine Gestalt geben) seit dem klassischen Latein:

 (b)  Fachsprachlicher Gebrauch:

       In der Kybernetik, Informations- und Wahrscheinlichkeitstheorie operiert man mit einem abstrakt eingeführtem Informationsbegriff. Information wird damit zu einer mathematisch messbaren Größe. Nach F. v. Cube (1967) wird die Information einer Nachricht „als die Minimalzahl der zu Codierung ihrer Zeichen erforderlichen Dualschritte“ definiert.“ [Welte, W., S. 220-221]

________________________________

[1]  Vgl. im Dt.: im bilde sein  =  Sp. estar al corriente / estar en antecedentes.  [Anmerkung J. F.]

Information:

(1)  Im qualitativen Sinn das, was sich aus der Beobachtung eines Informationsträgers (dem Wahrnehmen eines Anzeichens oder Zeichens) über den Informationsgegenstand erschließen lässt, z. B. trägt eine vereiste Fensterscheibe die Information, dass es friert.

(2)  Im technisch definierten Sinn der Informationstheorie quantifizierbare Größe, die mit der Wahrscheinlichkeit des Eintretens eines Ereignisses korreliert: je kleiner die Wahrscheinlichkeit des Eintretens des Ereignisses ist, um so höher ist der I.-Wert dieses Ereignisses. (Der I.-Wert wird in Bit gemessen.). Information im Sinne von „Auskunft“ wird in der nachrichtentechnischen Verwendung von der inhaltlichen Bedeutung der I. abstrahiert. Auf diesem, an der Auftretenswahrscheinlichkeit orientierten I.-Begriff basieren die Untersuchungen der Statistischen Linguistik.“ [Bußmann, H., S. 337-338]

Information:

Nach C. F. v. Weizsäcker ist Information weder etwas objektiv Gegebenes (wie die Druckerschwärze) noch etwas subjektiv Gegebenes (wie der Bewusstseinsinhalt des Lesers), sondern etwas, das dem Sender + Empfänger gemeinsam ist. Nach H. Hörmann ist es ein Drittes, von Bewusstsein + Materie Verschiedenes. Nach G. Klaus widerspricht diese These die Tatsache, dass Information nur von materiellen Systemen erzeugt und vermittelt werden kann. Dass Information weder Stoff noch Energie ist, liefert kein Argument für die Konstituierung eines ‘dritten Seinsbereiches’. Wenn Informationen als Zeichen von Klassen äquivalenter Signale zu begreifen sind, ist I. im Sinne der Logik weder ein Objekt noch eine Eigenschaft eines Objektes, sondern Eigenschaft von Eigenschaften (Prädikatenprädikat). Information im Sinne der Wahrscheinlichkeitsrechnung ist die Größe, die aus einer Menge möglicher Ereignisse gewonnen wird. Sie bedeutet somit Abbau von Unsicherheit und ist um so größer, je größer die Unsicherheit vor dem betreffenden Ereignis war. I. darf aber nicht mit Bedeutung verwechselt werden.“ [Heupel, C., S. 99]

Was bedeutet schon Information?

Der Informationsbegriff hat eine leidvolle Geschichte. Alltagssprachlich denkt man dabei an Erkenntnis, an Wissen, an eine Mitteilung oder Botschaft. Allerdings hat auch die Nachrichtentechnik den Begriff für sich in Anspruch genommen. Das Ergebnis ist eine verwirrende Anzahl von Definitionen, die nicht unbedingt in Beziehung zueinander stehen.

Es gibt nie nur eine Interpretation von Informationen

In den 50er Jahren, so erzählt Tjebbe van Tjien, Amsterdamer Bibliothekar und Medienkünstler, bauten Wissenschaftler das Skelett eines Dinosauriers falsch zusammen. Nicht, weil sie es nicht besser gewusst hätten, sondern weil sie nicht akzeptieren wollten, dass es neben dem Menschen auch andere intelligente und höher entwickelte Lebewesen gegeben hat.

Das allein deutet schon darauf hin, dass etwas verschiedene Bedeutungen haben kann, so der Informationssammler, der in Amsterdam eine alternative Bibliothek aufgebaut hat - das „Documentation Center for Modern Social Movements“.

Leere Regale mit Informationswert

Nicht nur, wer was wie sagt, kann unterschiedlich aufgefasst werden. Auch welches Medium als Informationsquelle herangezogen wird, kann einen Unterschied ausmachen. Manchmal sind es auch einfach leere Regale, die eine bestimmte Information vermitteln und so zur Informationsquelle werden.

„Vor 20 Jahren gab es im Keller der österreichischen Nationalbibliothek leere Regale, auf denen einst Propagandamaterial aus der Zeit von Dollfuß gelagert worden war. Dieses wurde verbrannt. Was übrig blieb - zumindest ich hab das damals noch gesehen -, waren diese leeren Regale.  Man wusste nicht genau, was einmal dort gewesen war, aber dass etwas dort gewesen war, das wusste man.“

Information - ein Unterschied?

Für den Statistiker ist Information „die Reduzierung von Ungewissheit“. Für den Logiker darf durch Information nichts Neues entstehen: Wenn man „zwei“ und „drei“ zusammen zählt, erhält man „fünf“, aber das ist nichts Neues. Vielmehr ist „fünf“ nur eine andere Darstellungsform von „zwei plus drei“, meint Matthias Baaz vom Institut für theoretische Informatik und Logik an der TU-Wien.

Ein Spruch von Gregory Bateson sagt noch etwas anderes aus: „Information ist ein Unterschied, der einen Unterschied macht.“

Gregory Bateson und der kleine Unterschied

Der Engländer Gregory Bateson machte schon aus seinem eigenen Leben einen Unterschied. Biographen beklagen die Tatsache, dass er sich mit zu vielen Dingen beschäftigte, um wirklich eingeordnet werden zu können. Von Anthropologie über Ethnologie bis hin zu Kybernetik, Kommunikations- und Systemtheorie reichten seine Interessen. In den 40er Jahren saß er mit Wissenschaftlern wie Norbert Wiener, Johann van Neumann, Heinz von Foerster, Claude Elwood Shannon und anderen zusammen, um über Dinge wie Feedback, das Messen von Information oder die Spieltheorie zu diskutieren.

Die bestmögliche Kanalauslastung

Was der Unterschied genau sein soll, das ist weder bestimmbar noch messbar. Denn jeder Mensch reagiert auf Umweltreize anders. Claude Elwood Shannon, der gemeinsam mit Bateson in Princeton war, interessierte sich überhaupt nicht für die semantische oder philosophische Komponente von Information.

Ihm ging es um die mathematische Berechnung der bestmöglichen Kanalauslastung bei der Übertragung, und um die Komprimierung, die Reduzierung von Information. Es war ihm egal, was ein Sender sendete, solange es enkodiert werden konnte, über einen Kanal in binärer Form gesendet werden konnte und beim Empfänger dekodiert ankam. Und das alles möglichst fehlerfrei.

Dafür entwickelte Shannon seine mathematische Kommunikationstheorie, die erst später in Informationstheorie unbenannt wurde. Er war in den 40er Jahren nicht der einzige, der an einer Informationstheorie bastelte, es gab auch noch andere. Und es gab auch schon früher Theorien dazu: Das Informationskonzept von R.V. Hartly, die Telegraphentheorie von Harry Nyquist oder aber auch Ludwig Boltzmann, der den Begriff Entropie anders als Shannon verwendete.

„Shannon drückt mit seiner Information etwas über Sicherheit aus. Der Empfänger möchte ja etwas vom Sender erhalten. Bei Boltzmann drückt die Entropie die ‚Unsicherheit’ eines Beobachters aus.“

Vom Elektronenmikroskop zur physikalischen Kommunikationstheorie

In den 40er Jahren arbeitete zum Beispiel auch der Ungar Dennis Gabor an einer Informationstheorie. Gabor lebte in Deutschland und emigrierte später in die USA. Er hatte sich nicht in dem Ausmaß mit Kryptographie beschäftigt wie die Amerikaner und Engländer. Als Ausländer war er in die Kriegsentwicklungen sowieso nicht involviert.

Gabor arbeitete am Elektronenmikroskop. Aus dieser Arbeit entstand nicht nur seine Theorie zur Holographie, sondern auch seine physikalische Kommunikationstheorie.

Leidvolle Informationsgeschichte

Früher - viel früher -, so Wolfgang Hofkirchner vom Institut für Gestaltungs- und Wirkungsforschung der TU Wien, hat der Informationsbegriff im Alltag einiges mehr bedeutet als heute oder als in der Shannonschen Informationstheorie.

 „Rafael Capurro hat seine Dissertation zum Thema geschrieben. Was mir daran gefallen hat, ist, dass sie zeigt, dass der Informationsbegriff eine leidvolle Geschichte hat.  Wenn man heute im Alltag von Information spricht, dann denkt man an Nachrichten, an Mitteilungen. In der Antike gab es diese Bedeutung überhaupt nicht. In der Antike hieß ‚informare’, in Form bringen, in Form setzen. Es hatte viele Bedeutungen.  Im Lateinischen wurde das Wort ‚informieren’ auch verwendet, wenn jemand ein Schild machte oder eine Waffe schmiedete.“

Die Information formt sich selbst

Auch wenn es sich nicht um eine Subjekt-Objekt Beziehung handelte, sondern um eine zwischenmenschliche, wurde in der Antike das Wort „informare“ gebraucht: Der Begriff wurde dann eben als Erziehungsbegriff verwendet oder im Sinne von Kommunikation. Und - so Wolfgang Hofkirchner weiter - auch in der Antike wurde „information“ schon mit Selbstorganisation in Zusammenhang gebracht.

„Die Antike steckt voller Götter. Gott informiert die Materie und gibt ihr eine bestimmte Form. Noch besser: damals gab es in dem Zusammenhang schon den Begriff der Selbstorganisationstheorie. Und zwar war man der Meinung, die Natur könne sich selber formen: informatur. So wurde das Verb damals gebraucht. Das bedeutet, dass sich die Materie spontan aus sich heraus formen, also eine neue Ordnung bilden kann.“

[Neues aus der Welt der Wissenschaft. Mariann Unterluggauer, Ö1-Matrix  http://science.orf.at/science/news/10341]

Información.

Dado un emisor que transmite un mensaje compuesto por una secuencia de símbolos, y concediendo a cada uno de estos símbolos la misma probabilidad de ser transmitido, tendremos un estado de máxima entropía. Si todos los símbolos presentan la misma probabilidad y son independientes, una vez que ha sido transmitido el primero no se puede tener ninguna especial expectativa en cuanto al segundo. Diremos entonces que está dotado de i. todo aquello que provoca la reducción de la incerteza (Martinet 1966: 176) o de la entropía. Si imaginamos que el mensaje que se tiene que transmitir está constituido por una secuencia fónica (como en el caso de las lenguas naturales) y si consideramos cada unidad transmitida (sea un fonema u otra unidad mínima) como equiprobable e independiente, cada nueva unidad es portadora de una cierta cantidad de i. En la secuencia /llegaré mañana/ el primer fonema /a/ es portador de i. ya que permite al destinatario excluir del mensaje todas las palabras  <españolas> que empiezan por /ll/; la segunda unidad /e/ circunscribirá ulteriormente el mensaje a las palabras que empiezan por /lle/ y así progresivamente hasta la /a/ final de mañana que no dará ninguna nueva información (dado que no es posible completar de manera diversa la secuencia) si no es la de final de mensaje. Sin embargo, en una lengua natural no todos los elementos son igualmente portadores de i.; algunos se pueden obtener automáticamente de aquellos que los preceden. En una secuencia como <queso> la /u/ no nos da i. alguna porque no existen /q/ que no vayan seguidas de /u/ y lo mismo ocurre con ciertas secuencias fónicas: un [ts] japonés presupone necesariamente que a continuación encontremos la realización de una /u/. Los elementos que no son portadores de i. se llaman redundantes y se indica con redundancia la acumulación de elementos que no son estrechamente necesarios para la correcta recepción e interpretación del mensaje. Las formas normales de comunicación son ampliamente redundantes pero, en la práctica, cuando no sean utilizadas formas de economía en la transmisión del mensaje (y, en este caso, más unidades transmitidas = más costo), incluso los elementos redundantes poseen una funcionalidad que es la de controlar y confirmar la recepción. Existe una teoría, formulada por Hartley y Shannon, que mide la cantidad de i. con métodos estadístico-matemáticos (para un símbolo la cantidad de i. es dada por el logaritmo de lo contrario de su frecuencia o probabilidad).“ [G. R. Cardona, p. 148-149]