Physik-O-Sophie
Home Information




Was ist Information ?


Der eindeutige Unterschied...oder
Information ist, was Information erzeugt
Kopfzeile

Definitionen


Sichtweise

Definition

Allgemein Ein Unterschied, der einen Unterschied ausmacht. ( Gregory Bateson )
In der Antike lat. Informatio, In Form bringen, oder "Bildung durch Unterweisung"
Thermodynamik Kenntnis der unterscheidbaren Mikrozustände eines Systems. (Entropie = Mass fehlender Information über Mikrozustände).
Informatik Nachricht, die für Empfänger decodierbar und neu ist. (Shannon ) (= minimale Anzahl Bits, um Ausgabe einer Quelle zu speichern.)
Klassische Physik Ungleichförmige Veränderung jeder Art in Raum und Zeit. (Information erscheint als Grundgrösse der Veränderlichkeit).
Quantenphysik Quanteninformation : Mögliche Zustände zusammengesetzter Quantensysteme
Physikalische Zeit Relatives Abstandsmass zwischen Ereignissen, oder
relative Zustandsänderung physikalischer Systeme
Mathematik Information als kleinste Anzahl von Entscheidungen zwischen gleichwahrscheinlichen Möglichkeiten.
Statistik Information als Reduzierung von Ungewissheit, als das "Nicht-Zufällige"
Physik-O-Sophie Unterscheidbar abgeteilte Energie oder Beziehungs-Symmetrie
(Phil. "Sein und Werden der unendlich dynamischen Symmetrie.")

Navigation Top

Kurze Geschichte zur Information

Obenstehende Definitionen lassen erkennen, dass sich im Lauf der Geschichte das Verständnis des Begriffes "Information" gewandelt hat, und gegenwärtig viel darüber diskutiert wird. In der Antike wurde der Begriff auf recht praktische, materielle Dinge angewandt. Wurde ein Metall "informiert", so bedeutete das einfach die Ausformung zu einem Gegenstand, wie zum Beispiel zu einem Schild oder zu einem Arbeitsgerät.

Viele Jahrhunderte später wurden mit der Entwicklung von Wärmekraftmaschinen die Grundlagen der Thermodynamik erkannt. Diese führten zu einem neuen Verständnis über Information, als Kenntnis über die unterscheidbaren Zustände eines Systems. Der Zustand eines Systems kann jedoch mit zunehmender Messgenauigkeit in immer kleinere Einheiten aufgeteilt werden. In der klassischen Physik enthält jeder Zustand, bei theoretisch unendlich genauer Messgenauigkeit, unendliche Informationsmengen. Daher ist nur die Differenz des Informationsgehaltes, zwischen dem Anfangszustand und dem Endzustand eines physikalischen Vorganges, messbar. Die Information hat folglich die Gestalt einer unendlichen, nur relativ bestimmbaren Grösse angenommen.

Mit der Entwicklung der Nachrichtentechnik und der Datentechnik war es wieder mal an der Zeit, die Bedeutung von "Information" neu zu definieren. Mit einer unendlichen Grösse konnte man hier nichts anfangen. Die Informatik erfordert die Lesbarkeit und die Transferierbarkeit, von genau bestimmbarer Information. Die Informationstheorie Shannons definierte daher die Information neu, vom Standpunkt der Verwendbarkeit :

Eine Nachricht besteht aus Information, Redundanz, Rauschen, Wissen.

Information : Nachricht, die für Empfänger decodierbar und neu ist.
Redundanz : Teil einer Nachricht, die für den Empfänger nicht neu ist.
Rauschen : Eine Nachricht, die für einen Empfänger nicht decodierbar ist.
Wissen : Kausal interpretierte ( d.h. begründete ) Information.
Daten : Sammelbegriff für eine Menge an Informationselementen.

Gemäss Shannons Informationstheorie sind meine Aussagen weniger Informationen als vielmehr Redundanzen. Ich beziehe mich auf eine Vielzahl bereits erforschter Fragen, und stelle dieses Wissen nur in einem neuen Zusammenhang dar. Die obenstehende Wiedergabe verschiedener Definitionen mag vielen Lesern bereits bekannt sein, und damit als Redundanz gelten. Die "echte" Information dieser Seiten wird demnach nur durch den neuen Zusammenhang meiner Aussagen und die neuen Ideen repräsentiert.

Auf Shannons Arbeit ruht immerhin die "klassische" Datenverarbeitung, welche vom Handy bis zum Grossrechner, für den heutigen Alltag enorme Bedeutung erlangt hat. Ungeachtet dieser Erfolge, zeichnet sich mit der Entwicklung der Quanteninformatik wieder ein erneuertes Verständnis über den Begriff "Information" ab.

Die gegenwärtige Definition versteht unter Quanteninformation die in Quantensystemen vorhandene Information, die nicht mit den Gesetzen der klassischen Informationstheorie beschrieben werden kann. Die klassische Informationstheorie basiert auf der Vorstellung von eindeutigen, zuneinander unabhängigen Informationseinheiten. (Üblicherweise Bits.) In der Quanteninformatik tritt dagegen die Vorstellung von mehrdeutigen, untereinander abhängigen Informationseinheiten in den Vordergrund. ( Die Quantenbits, oder "QuBits" )

Die Quanteninformation verleiht der Information zusätzlich eine innere Dynamik. An Stelle des statischen Bit tritt das dynamische Qubit, welches "schon mal Null und auch mal Eins" sein kann. Die Bedeutung der Information wandelt sich von einem "bestimmten Zustand" zu einem "wahrscheinlichen Zustandswechsel".
Innerhalb elektronischer Speichermedien wird Information meistens durch den Zustand vieler einzelner Speicherzellen repräsentiert. Diese Art der Speicherung legt die grundsätzliche Vorstellung von ganzzahligen, und genau lokalisierbaren Informationseinheiten nahe. ( z.B. Bits als optische Strichmuster auf einer CD. )

Dieses Modell liefert zwar die Grundlage der "klassischen" Datenverarbeitung, ist aber nur die halbe Wahrheit, was die verfügbaren Speicherverfahren betrifft. In der Natur finden wir ein zweites, gegensätzliches Verfahren. Die Gesetze der Optik zeigen uns zwei grundsätzliche Modelle, um Informationen zu codieren.

Beleuchtet man einen Gegenstand, dann werden den Lichtwellen bekanntlich Informationen über die Struktur des Gegenstandes aufgeprägt. Der Verlauf der Lichtwellenfronten enthält Information über die Ausdehnung des Objektes. Diese Information ist als Phasenunterschied, oder als Amplitudenunterschied der Lichtwellenfronten codiert.

Sowohl der Phasenunterschied, als auch der Amplitudenunterschied können die Information repräsentieren. Es kommt nur darauf an, welche Eigenschaft gemessen wird. Die Messung der Amplitudenverteilung liefert z.B. eine Fotographie. Die Messung der Phasenverteilung liefert dagegen ein Hologramm.

Betrachten wir Licht als Teilchen ("Amplituden"), dann erhalten wir auf einer Fotoplatte genau lokalisierbare Bildpunkte. Diese Punkte entsprechen der klassischen Vorstellung über lokalisierbare Information. ("Hier ist das Bit.")

Betrachten wir Licht dagegen als Welle ("Phasen"), dann erhalten wir auf einer Fotoplatte mehr oder weniger scharfe Interferenzmuster. Nun ist die Information kaum mehr lokalisierbar. Sie ist vielmehr ist in den Abständen der Wellenmuster codiert. ("Hier und dort ist das Bit verteilt.")

Holographische Information
Die holographische ("vollständig Schreibende") Speicherung von Information ermöglicht die Zerlegung von ganzen Informationseinheiten (Bits) in gewisse Bruchteile. Entfernt man einen Abschnitt eines Hologrammes, dann geht nicht etwa ein Teil des Bildes verloren, sondern das gesamte Bild wird unschärfer.

Holographische Information wird also nicht "klassisch" gelöscht, sondern nur immer undeutlicher erkennbar. Im Bereich der Quanteninformation treffen wir eine sehr ähnliche Situation an. An Stelle des klassisch sicheren Wissen über den Zustand eines Objektes tritt hier das "wahrscheinliche Wissen". Wir finden in der Quantenwelt -wie auch in der Holographie- gewisse Bruchteile von Bits.

Es scheint so, dass die Natur auf Quantenebene Informationen holographisch speichert. Die holographische Codierung beschränkt sich jedoch nicht nur auf Quantensysteme, sondern wurde auch innerhalb neuronaler Netze erkannt.

Der Mensch speichert zum Beispiel verschiedene Klassen von Informationen (Sprache, Musik, Bilder, Bewegungen, etc, ) innerhalb verschiedener Bereiche des Gehirns ab. Obwohl diese Gehirnstrukturen eine grobe räumliche Zuordnung zu gewissen Datenklassen erlauben, ist es unmöglich, bestimmte Informationen innerhalb einzelner Neuronen exakt zu lokalisieren. Die Information wird nämlich nicht von dem Zustand eines einzelnen Neurons, sondern "holographisch" über die Verbindungswege vieler Neuronen repräsentiert. Erst das Zusammenspiel, bzw. die "Überlagerung" verschiedener Gehirnfunktionen führt zum Erkennen bestimmter Informationen.

Diese Art der Codierung ist auch in der Natur sehr verbreitet. Für Lebewesen ist es entscheidend, aus vielen komplexen Sinneseindrücken sehr schnell bestimmte Informationen zu gewinnen. Und die "holographische" Codierung und Dekodierung der Information ermöglicht dem Gehirn genau die schnelle und leistungstarke Datenver arbeitung, an welcher klassische Computer bisher scheitern. (-> Bilderkennung).

Eine Hypothese
In der analytischen Wissenschaft wird gegenwärtig in erster Linie nach "klassisch lokalisierbarer" Information gesucht. Viele Beobachtungen in der Natur können aber erst richtig verstanden werden, wenn man gleichzeitig nach "holographisch codierter" Information sucht. Es wurde zum Beispiel festgestellt, dass flüssiges Wasser auf einzel-molekularer Ebene Informationen nur sehr kurzfristig speichern kann. (Stabilität von Wasserstoff-Brückenbindungen). Dennoch lassen z.B. die Ergebnisse der Homöopathie darauf schliessen, dass Informationen noch auf andere Art im Wasser gespeichert werden können. (->Molekülclusterbildung ?) Hier ist möglicherweise eine unbekannte, "holographische" Information im Spiel.

Die weitere Forschung auf dem Gebiet der Quantenmechanik wird wahrscheinlich die umfassende Bedeutung der holographisch codierten Information in der Natur noch zeigen. Verschränkte Quantensysteme und holographische Speicher zeigen "wahrscheinliche Information" als einen wesentlichen Bestandteil der Natur. Wir sollten vielleicht einräumen, dass analytisches Denken nicht der Weisheit letzter Schluss ist. ( vgl. Folgerungen aus der "unendlich dynamischen Symmetrie ).

Navigation Top

Holographische Codierung

Innerhalb elektronischer Speichermedien wird Information meistens durch den Zustand der einzelnen Speicherzellen repräsentiert. Diese Art der Speicherung legt die grundsätzliche Vorstellung von ganzzahligen, und genau lokalisierbaren Informationseinheiten nahe. ( z.B. Bits als optische Strichmuster auf einer CD. )

Dieses Modell liefert zwar die Grundlage der "klassischen" Datenverarbeitung, ist aber nur die halbe Wahrheit, was die verfügbaren Speicherverfahren betrifft. In der Natur finden wir ein zweites, gegensätzliches Verfahren. Die Gesetze der Optik zeigen uns zwei grundsätzliche Modelle, um Informationen zu codieren.

Beleuchtet man einen Gegenstand, dann werden den Lichtwellen bekanntlich Informationen über die Struktur des Gegenstandes aufgeprägt. Der Verlauf der Lichtwellenfronten enthält Information über die Ausdehnung des Objektes. Diese Information ist als Phasenunterschied, oder als Amplitudenunterschied der Lichtwellenfronten codiert.

Sowohl der Phasenunterschied, als auch der Amplitudenunterschied können die Information repräsentieren. Es kommt nur darauf an, welche Eigenschaft gemessen wird. Die Messung der Amplitudenverteilung liefert z.B. eine Foto- graphie. Die Messung der Phasenverteilung liefert dagegen ein Hologramm.

Betrachten wir Licht als Teilchen ("Amplituden"), dann erhalten wir auf einer Fotoplatte genau lokalisierbare Bildpunkte. Diese Punkte entsprechen der klassischen Vorstellung über lokalisierbare Information. ("Genau hier ist das Bit.")

Betrachten wir Licht dagegen als Welle ("Phasen"), dann erhalten wir auf einer Fotoplatte mehr oder weniger scharfe Interferenzmuster. Nun ist die Information kaum mehr lokalisierbar. Sie ist vielmehr ist in den Abständen der Wellenmuster codiert. ("Hier und dort ist das Bit verteilt.")

Holographische Information
Die holographische ("vollständig Schreibende") Speicherung von Information ermöglicht die Zerlegung von ganzen Informationseinheiten (Bits) in gewisse Bruchteile. Entfernt man einen Abschnitt eines Hologrammes, dann geht nicht etwa ein Teil des Bildes verloren, sondern das gesamte Bild wird unschärfer.

Holographische Information wird also nicht "klassisch" gelöscht, sondern nur immer undeutlicher erkennbar. Im Bereich der Quanteninformation treffen wir eine sehr ähnliche Situation an. An Stelle des klassisch sicheren Wissen über den Zustand eines Objektes tritt hier das "wahrscheinliche Wissen". Wir finden in der Quantenwelt -wie auch in der Holographie- gewisse Bruchteile von Bits.

Es scheint so, dass die Natur auf Quantenebene Informationen holographisch speichert. Die holographische Codierung beschränkt sich jedoch nicht nur auf Quantensysteme, sondern wurde auch innerhalb neuronaler Netze erkannt.

Der Mensch speichert zum Beispiel verschiedene Klassen von Informationen (Sprache, Musik, Bilder, Bewegungen, etc, ) innerhalb verschiedener Bereiche des Gehirns ab. Obwohl diese Gehirnstrukturen eine grobe räumliche Zuordnung zu gewissen Datenklassen erlauben, ist es unmöglich, bestimmte Informationen innerhalb einzelner Neuronen exakt zu lokalisieren. Die Information wird nämlich nicht von dem Zustand eines einzelnen Neurons, sondern "holographisch" über die Verbindungswege vieler Neuronen repräsentiert. Erst das Zusammenspiel, bzw. die "Überlagerung" verschiedener Gehirnfunktionen führt zum Erkennen bestimmter Informationen.

Diese Art der Codierung ist auch in der Natur sehr verbreitet. Für Lebewesen ist es entscheidend, aus vielen komplexen Sinneseindrücken sehr schnell bestimmte Informationen zu gewinnen. Und die "holographische" Codierung und Dekodierung der Information ermöglicht dem Gehirn eine schnelle und leistungstarke Datenver- arbeitung, an welcher klassische Computer bisher scheitern. (-> Bilderkennung).

Eine Hypothese
In der analytischen Wissenschaft wird gegenwärtig in erster Linie nach "klassisch lokalisierbarer" Information gesucht. Viele Beobachtungen in der Natur können aber erst richtig verstanden werden, wenn man gleichzeitig nach "holographisch codierter" Information sucht. Es wurde zum Beispiel festgestellt, dass flüssiges Wasser auf einzel-molekularer Ebene Informationen nur sehr kurzfristig speichern kann. (Stabilität von Wasserstoff-Brückenbindungen). Dennoch lassen z.B. die Ergebnisse der Homöopathie darauf schliessen, dass Informationen noch auf andere Art im Wasser gespeichert werden können. (->Molekülclusterbildung ?) Hier ist möglicherweise eine unbekannte, "holographische" Information im Spiel.

Die weitere Forschung auf dem Gebiet der Quantenmechanik wird wahrscheinlich die umfassende Bedeutung der holographisch codierten Information in der Natur noch zeigen. Verschränkte Quantensysteme und holographische Speicher zeigen "wahrscheinliche Information" als einen wesentlichen Bestandteil der Natur. Wir sollten vielleicht einräumen, dass analytisches Denken nicht der Weisheit letzter Schluss ist. ( vgl. Folgerungen aus der "unendlich dynamischen Symmetrie ).

Navigation Top

Informationsverarbeitung

Der Mensch verarbeitet über Sinneswahrnehmungen die Informationen aus der Natur. Die Informationen müssen in einer passenden physikalischen Form vorliegen, um die Sinnesorgane anzusprechen. ( z.b. passende Wellenlänge des Lichtes, des Schalls). Man sagt auch, die Information muss so repräsentiert sein, daß sie wahrnehmbar ist.

Jede Informationsverarbeitung erfolgt immer mittels einer bestimmten physikalischen Repräsentation der Information. ( z.b. als elektrisches Feld, Druck, Licht, usw... ) Die Repräsentation muss von einem verarbeitenden System zuerst interpretiert werden.

Interpretation ist die Zuordnung der Repräsentation zu einer Bedeutung, oder anders formuliert, die Herstellung einer Beziehungssymmetrie zwischen Repräsentation und Verarbeitungssystem. Das erfordert Wissen über verschieden interpretierbare Signale.

Die menschliche Spracherkennung liefert ein gutes Beispiel. Bevor Sprache verarbeitet werden kann, muss eine Interpretation der gehörten Frequenzfolge als Wörter und Sätze stattfinden. Ohne das Wissen über den verwendeten Sprachcode, und die Bedeutung der Wörter, kann keine Informationsverarbeitung erfolgen. (Ausser vielleicht Achselzucken).

Elektronische Informationsverarbeitung
Auf elektronischer Schaltungsebene, werden Informationen als elektrische Spannungen codiert. Diese Spannungszustände, die Repräsentationen der Information, lösen weitere Spannungsveränderungen im Schaltungsbaustein aus. Diese Veränderungen erfolgen nicht einfach willkürlich, sondern gehorchen den, im Baustein "fest verdrahteten", Regeln.

Auf elementarer Ebene bedeutet die Informationsverarbeitung einfach die Dynamik der elektrischen Felder innerhalb eines Festkörpers. Man könnte sagen, auf dieser Ebene wird nicht Information, sondern die Repräsentation von Information verarbeitet ! (Felder). Informationsverarbeitung bedeutet hier die Umwandlung von Repräsentationen in andere Repräsentationen. Wir könnten daher auch von "Repräsentationsverarbeitung" sprechen.

Diese Umwandlung kann dennoch nicht losgelöst von Information und Wissen stattfinden ! In der Elektronik muss genau festgelegt sein, was , wann , wie, umgewandelt werden soll. Ohne das Wissen um die Gesetze des Verarbeitungsvorganges geht die Bedeutung der der Information verloren. Ohne dieses Wissen, würde ein Schaltungsbaustein nur sinnlose Codes produzieren. Und mit einem sinnlosen Code kann keine Informationsverarbeitung fortgesetzt werden.

Hier zeigt sich das "Henne-Ei" Problem in der Informationstheorie. Was war zuerst da ? Die Information, oder das Wissen über die Bedeutung, welches auch Information darstellt ? Dies führt uns zu der Frage nach dem Ursprung der "Ur-Information" in den Naturgesetzen. Ein bisher ungelöstes Problem, welches vielleicht theologisch verstanden werden könnte.

Navigation Top

Information und Interpretation

Soll Information eine Wirkung vermitteln, so erfordert dies immer eine Interpretation. Eine Information ohne Interpretation ist "tot", das bedeutet, ohne eine erkennbare Auswirkung.

Beispiel : Die Information von ägyptischen Hieroglyphen ist schön anzuschauen, aber für den Laien zunächst tot. Erst die Interpretation durch einen Fachmann macht diese antike Geschichte lebendig. Noch ein modernes Beispiel : Ein Film auf einer DVD oder CD bleibt nur tote Information, solange keine Hardware und Software zum Abspielen bereit steht. Hier ist ein De-Kompressions Programm ( CODEC ) erforderlich, um Information zu Interpretieren, erst dann wird der Film für einen menschlichen Betrachter lebendig.

Brauchbare Information enthält also ausreichend Wissen zur gewünschten Interpretation. Diese Interpretation kann verschiedene Redundanzen erzeugen. Redundanzen sind aber wichtig, um die Information in verschiedenartig organisierten Systemen lesbar abzubilden. Eine "gute" Information interpretiert sich dabei weitgehend selbst. ( "innere Harmonie" )

Das Paradebeispiel dazu sind die Erbinformationen (DNS) in biologischen Lebensformen. In der Erbinformation von Lebewesen sind viele Informationen darüber enthalten, wie die DNS zu lesen, anzuschalten, abzuschalten, und die jeweilige DNS Aktivität zu steuern ist. Diese "Interpretationsanweisungen" ermöglichen dieser biologischen Information erst die enorme Wirkung, welche zur Abbildung von dynamisch organisierten Lebensformen führt.

Informationsgewinn im semantischen Kontext
Der Informationsgehalt von Buchstaben kann durch geschickte Interpretation weiter gesteigert werden. Buchstaben werden gewöhnlich zu Wörtern und Sätzen gruppiert. Auf diese Weise sind zwischen den Wörtern und den Sätzen Assoziationen möglich, welche den primären Informationsgehalt der einzelnen Buchstaben weit übersteigen.

Denken wir einmal an den Satz "Schrödingers Katze ist tot". Diese 23 Buchstaben können auf ca.20 Phoneme ( Grundlaute ) reduziert werden, und tragen rechnerisch eine Information von ca. 90 Bit. Die Beziehungen innerhalb des Satzes liefern jedoch mehr Information als 90 Bit. Es könnte Milliarden Menschen, und hunderte Millionen von Katzen, mit tausenden von Zuständen geben. 90 Bit reichen sicherlich nicht aus, um diese Beziehung eindeutig herzustellen. (*) Das Wissen um Herrn "Schrödinger", seine "Katze", und dem Zustand "tot" liefert die weitere, interpretierte Information.Der Sinn und die Bedeutung einer Nachricht wird als sematischer Kontext bezeichnet.

Mit dem Speicherplatz von gut 90 Bit wären wir niemals in der Lage, ein noch so ein- faches Bild von "Schrödingers toter Katze" zu zeichnen. Aber die Beziehung dieser nur 90-100 Bit zum menschlichen Leser, liefert weitere "Meta-Information". Es heisst nicht umsonst, "Man muss zwischen den Zeilen lesen können".

(*) Die Beziehungen zwischen den Buchstaben könnten als Adress-Information der Buchstaben in einem Datenspeicher betrachtet werden. Damit erhält der Satz, je nach Adressraum des Speichers, weitaus mehr als 90 Bit. (Daten+Adressen).

Navigation Top

Folgerungen

Information erscheint in verschiedenen Ebenen :

1. Information als Zustandsmöglichkeit elementarer Systeme. (z.b. "Buchstaben")
Jedes Speicherelement enthält die Information der Naturgesetze, welche nicht
erzeugt oder vernichtet werden kann. ( Information als Erhaltungsgrösse ).

2. Information als Beziehung zwischen verschiedenen Systemen. (z.b. "Wörter")
Zwischen verschiedenen Speicherelementen ist Information oder Redundanz
oder Zufall realisiert. ( Information als veränderbare Ordnungsgrösse ).

Meta-Information
Interpretation erzeugt weitere Information, in den Beziehungen zwischen den Gruppen. Diese "Meta-Information" bildet sich in weiteren Informationsträgen. ( z.b. im Gehirn )

- Interpretierte Information ist mehr als die Summe Ihrer Einzelteile !

- Sinn und Beziehungen zwischen Informationen bilden weitere Information.

- Diese "Meta-Information" kann erzeugt, verändert oder vernichtet werden.

- Der Informationsgehalt einer Nachricht ist vom "semantischen Kontext" abhängig.

Was ist Information noch ?
Information ist das, was nach optimalster Datenkompression als der Kern einer Sache bestehen bleibt. Information ist also die wesentliche Ordnungsstruktur einer Sache.

Oder : Information erscheint als die bleibende Ordnung einer stetigen Veränderung.
Oder : Information ist "Sein und Werden" der unendlich dynamischen Symmetrie.

Die Merkmale von verwendbarer Information sind die Lesbarkeit und Interpretierbarkeit. Interpretation bedeutet, eine Ordnung wird auf eine Form abgebildet. ( "In-FORM-iert" )


Der Begriff Information hinterlässt weiterführende Fragen :

1. Existiert Information ohne Informationsträger ?
2. Kann Information elementar erzeugt oder vernichtet werden ?
3. Bedeutet nicht erkennbare Information auch vorhandene Information ?
4. Kann Information sich selbst weiterentwickeln ?
5. Gibt es Information ohne Intelligenz ?

Navigation Top

Fusszeile
Home Sitemap Impressum © 2006